See artikkel on masintõlke peegelartikkel, palun klõpsake siia, et hüpata algse artikli juurde.

Vaade: 3511|Vastuse: 0

Kuidas lahendada Ollama mudeli tõmbeprobleemi

[Kopeeri link]
Postitatud 2025-2-8 08:31:40 | | |
Viimastel päevadel on mul olnud see tüütu probleem, kui üritan Ollamast mudeleid välja võtta: ma käivitan käsu ja see laadib alla umbes 4-5% mudelist, siis ühendus lähtestatakse, klient "jookseb" kokku ja see taaskäivitub alati 0%-st. Ollama tõmme sügavseek-r1:8b

Tundub, et ma ei ole üksi:Hüperlingi sisselogimine on nähtav.

Märkus: kasutan Ollama 0.5.7 ja tõenäoliselt parandatakse probleem järgmises versioonis.

lahus

Keegi on lahkelt postitanud lahenduse, st bash-skripti, mis kutsub Ollama kliendi ja jätkab allalaadimist sealt, kus pooleli jäi (Ollama klient peaks seda suutma, aga ei suuda seda korralikult teha, kui see kokku jookseb).

Salvesta see skript sellisele failileollama-pull.shja muuta see täidetavaks järgmise käsugachmod +x ollama-pull.sh


Laadi skript otse alla: ollama-pull.sh (1.42 KB, Allalaadimiste arv: 0, 售价: 5 粒MB)

Ja käivita stsenaarium järgmiselt:


(Asenda deepseek-r1:8b nimega nime:tag selle mudeli jaoks, mida soovid tõmmata)

Originaal:Hüperlingi sisselogimine on nähtav.




Eelmine:[AI] (7) Kasuta llama.cpp DeepSeek-R1 mudeli kohapealseks juurutamiseks
Järgmine:Xshell PLUS äritarkvara ostuõpetus
Disclaimer:
Kõik Code Farmer Networki poolt avaldatud tarkvara, programmeerimismaterjalid või artiklid on mõeldud ainult õppimiseks ja uurimistööks; Ülaltoodud sisu ei tohi kasutada ärilistel ega ebaseaduslikel eesmärkidel, vastasel juhul kannavad kasutajad kõik tagajärjed. Selle saidi info pärineb internetist ning autoriõiguste vaidlused ei ole selle saidiga seotud. Ülaltoodud sisu tuleb oma arvutist täielikult kustutada 24 tunni jooksul pärast allalaadimist. Kui sulle programm meeldib, palun toeta originaaltarkvara, osta registreerimist ja saa paremaid ehtsaid teenuseid. Kui esineb rikkumist, palun võtke meiega ühendust e-posti teel.

Mail To:help@itsvse.com