이 글은 기계 번역의 미러 문서이며, 원본 기사로 바로 이동하려면 여기를 클릭해 주세요.

보기: 3511|회답: 0

올라마 모델 풀 문제 해결 방법

[링크 복사]
2025-2-8 08:31:40에 게시됨 | | |
며칠 전부터 Ollama에서 모델을 추출하려고 할 때 이런 짜증나는 문제가 있었습니다: 명령을 실행하는데 모델의 약 4-5%만 다운로드되고, 그러다 연결이 초기화되고, 클라이언트가 '크래시'가 나면서 항상 0%에서 다시 시작됩니다. 올라마 풀 딥시크-R1:8B

저만 그런 게 아닌 것 같네요:하이퍼링크 로그인이 보입니다.

참고: 저는 Ollama 0.5.7을 사용 중이며, 다음 릴리스에서 문제를 해결할 가능성이 큽니다.

용액

누군가 친절하게도 우회 방법을 올려주셨는데, 예를 들어 Ollama 클라이언트를 호출해 다운로드를 중단한 지점부터 다운로드를 재개하는 bash 스크립트를 만들었습니다(Ollama 클라이언트는 이 작업을 할 수 있어야 하지만, 크래시 발생하면 제대로 실행되지 않습니다).

이 스크립트를 이런 파일에 저장하세요ollama-pull.sh그리고 다음 명령어로 실행 가능하게 만듭니다chmod +x ollama-pull.sh


대본을 직접 다운로드하세요: ollama-pull.sh (1.42 KB, 다운로드 횟수: 0, 售价: 5 粒MB)

스크립트를 다음과 같이 실행하세요:


(추출하려는 모델의 이름:태그로 deepseek-r1:8b 교체하세요)

원문 언어:하이퍼링크 로그인이 보입니다.




이전의:[AI] (7) llama.cpp 사용하여 DeepSeek-R1 모델을 온프레미스에 배포하기
다음:Xshell PLUS 비즈니스 소프트웨어 구매 튜토리얼
면책 조항:
Code Farmer Network에서 발행하는 모든 소프트웨어, 프로그래밍 자료 또는 기사는 학습 및 연구 목적으로만 사용됩니다; 위 내용은 상업적 또는 불법적인 목적으로 사용되지 않으며, 그렇지 않으면 모든 책임이 사용자에게 부담됩니다. 이 사이트의 정보는 인터넷에서 가져온 것이며, 저작권 분쟁은 이 사이트와는 관련이 없습니다. 위 내용은 다운로드 후 24시간 이내에 컴퓨터에서 완전히 삭제해야 합니다. 프로그램이 마음에 드신다면, 진짜 소프트웨어를 지원하고, 등록을 구매하며, 더 나은 진짜 서비스를 받아주세요. 침해가 있을 경우 이메일로 연락해 주시기 바랍니다.

Mail To:help@itsvse.com