이 글은 기계 번역의 미러 문서이며, 원본 기사로 바로 이동하려면 여기를 클릭해 주세요.

보기: 2031|회답: 1

[AI] (4) Open WebUI를 사용하여 DeepSeek-R1 모델을 호출하기

[링크 복사]
2025-2-6 21:21:14에 게시됨 | | | |
요구사항: DeepSeek-R1 모델은 ollama를 사용해 배포되었고, 대화 도구를 사용해 호출했으며, 터미널은 단순히 테스트용으로 사용되었습니다. Open WebUI 패널을 설치해 대화용 모델을 호출할 수 있습니다.

복습:

【AI】(3) 텐센트 클라우드, HAI 튜토리얼이 포함된 DeepSeek-R1 배포
https://www.itsvse.com/thread-10931-1-1.html

Open WebUI는 확장 가능하고 기능이 풍부하며 사용자 친화적인 셀프 호스팅 AI 플랫폼으로, 완전히 오프라인으로 실행되도록 설계되었습니다. Ollama 및 OpenAI 호환 API 등 다양한 LLM 러너를 지원하며, 내장된 RAG 추론 엔진을 탑재해 AI 배포에 강력한 솔루션을 제공합니다.

GitHub 주소:하이퍼링크 로그인이 보입니다.
문서조사:하이퍼링크 로그인이 보입니다.
환경 변수 구성:하이퍼링크 로그인이 보입니다.

Ubuntu 20.04가 Docker 컨테이너를 설치합니다

이 글에서는 Docker를 사용해 Open-webui를 배포하려면 먼저 Docker 컨테이너를 설치해야 하며, 설치 명령은 다음과 같습니다:


Ollama 는 deepseek-r1:32b 모델을 배포합니다

다음 명령을 실행하세요:


Docker가 Open WebUI 배포

이미 Ollama가 네이티브로 설치되어 있고 동시에 서버에 설치되어 있으니,/data/open-webui폴더 아래에 다음과 같은 새로운 compose.yaml 파일을 생성합니다:


다음 명령을 실행해 컨테이너를 시작하세요:


아래에 나와 있습니다:



방화벽 보안 그룹 규칙은 TCP 3000 포트를 잠시 동안 열어두었다가 브라우저를 통해 접근하도록 하며, 다음 그림에 나와 같이 합니다:



첫 방문 시에는 아래 그림에 나와 같이 관리자 계정과 비밀번호를 설정하세요:



아래 그림에 나타난 DeepSeek-R1 모델 대화 기능을 테스트해 보세요:


(끝)




이전의:【AI】(3) 텐센트 클라우드, HAI 튜토리얼이 포함된 DeepSeek-R1 배포
다음:[AI] (5) 올라마 요청 정보를 출력해
 집주인| 2025-2-19 09:09:00에 게시됨 |
프론트엔드 대형 모델 대화 오픈 소스 프로젝트와 유사합니다

NextChat:하이퍼링크 로그인이 보입니다.
로브 채팅:하이퍼링크 로그인이 보입니다.
Ollama LLM의 완전한 웹 인터페이스:하이퍼링크 로그인이 보입니다.
면책 조항:
Code Farmer Network에서 발행하는 모든 소프트웨어, 프로그래밍 자료 또는 기사는 학습 및 연구 목적으로만 사용됩니다; 위 내용은 상업적 또는 불법적인 목적으로 사용되지 않으며, 그렇지 않으면 모든 책임이 사용자에게 부담됩니다. 이 사이트의 정보는 인터넷에서 가져온 것이며, 저작권 분쟁은 이 사이트와는 관련이 없습니다. 위 내용은 다운로드 후 24시간 이내에 컴퓨터에서 완전히 삭제해야 합니다. 프로그램이 마음에 드신다면, 진짜 소프트웨어를 지원하고, 등록을 구매하며, 더 나은 진짜 서비스를 받아주세요. 침해가 있을 경우 이메일로 연락해 주시기 바랍니다.

Mail To:help@itsvse.com