Ta članek je zrcalni članek strojnega prevajanja, kliknite tukaj za skok na izvirni članek.

Pogled: 3511|Odgovoriti: 0

Kako rešiti problem vlečenja modela Ollama

[Kopiraj povezavo]
Objavljeno 2025-2-8 08:31:40 | | |
Zadnjih nekaj dni imam to nadležno težavo, ko poskušam izvleči modele iz Ollame: izvajam ukaz, ki prenaša približno 4-5 % modela, nato se povezava ponastavi, odjemalec se "sesuje" in se vedno znova zažene od 0 %. ollama pull deepseek-r1:8b

Zdi se, da nisem edini:Prijava do hiperpovezave je vidna.

Opomba: uporabljam Ollama 0.5.7 in najverjetneje bodo težavo odpravili v naslednji izdaji.

rešitev

Nekdo je prijazno objavil rešitev, tj. bash skripto, ki pokliče Ollama odjemalca in nadaljuje prenos tam, kjer je končal (Ollama odjemalec bi to moral zmoti, vendar tega ne more pravilno narediti, ko se sesuje).

Shrani ta skript v takšno datotekoollama-pull.shin ga narediti izvedljivega z naslednjim ukazomchmod +x ollama-pull.sh


Prenesite scenarij neposredno: ollama-pull.sh (1.42 KB, Število prenosov: 0, 售价: 5 粒MB)

In zaženi skripto takole:


(Zamenjajte deepseek-r1:8b z name:tag za model, ki ga želite pridobiti)

Izvirno:Prijava do hiperpovezave je vidna.




Prejšnji:[AI] (7) Uporabiti llama.cpp za lokalno uvedbo modela DeepSeek-R1
Naslednji:Vodič za nakup poslovne programske opreme Xshell PLUS
Disclaimer:
Vsa programska oprema, programski materiali ali članki, ki jih izdaja Code Farmer Network, so namenjeni zgolj učnim in raziskovalnim namenom; Zgornja vsebina ne sme biti uporabljena v komercialne ali nezakonite namene, sicer uporabniki nosijo vse posledice. Informacije na tej strani prihajajo z interneta, spori glede avtorskih pravic pa nimajo nobene zveze s to stranjo. Zgornjo vsebino morate popolnoma izbrisati z računalnika v 24 urah po prenosu. Če vam je program všeč, podprite pristno programsko opremo, kupite registracijo in pridobite boljše pristne storitve. Če pride do kakršne koli kršitve, nas prosimo kontaktirajte po elektronski pošti.

Mail To:help@itsvse.com