Tento článek je zrcadlovým článkem o strojovém překladu, klikněte zde pro přechod na původní článek.

Pohled: 3511|Odpověď: 0

Jak vyřešit problém tažení modelu Ollama

[Kopírovat odkaz]
Zveřejněno 2025-2-8 08:31:40 | | |
Posledních pár dní mám tento otravný problém při extrakci modelů z Ollamy: spouštím příkaz a stáhne se asi 4-5 % modelu, pak se připojení resetuje, klient "spadne" a vždy se restartuje od 0 %. Ollama pull deepseek-R1:8B

Zdá se, že nejsem sám:Přihlášení k hypertextovému odkazu je viditelné.

Poznámka: Používám Ollama 0.5.7 a pravděpodobně problém opraví v příštím vydání.

řešení

Někdo laskavě zveřejnil řešení, tj. bash skript, který zavolá klienta Ollama a pokračuje ve stahování tam, kde skončil (klient Ollama by to měl umět, ale při pádu to neumí správně).

Uložte tento skript do souboru jako je tentoollama-pull.sha učinit ji spustitelnou následujícím příkazemchmod +x ollama-pull.sh


Stáhněte si scénář přímo: ollama-pull.sh (1.42 KB, Počet stažení: 0, 售价: 5 粒MB)

A spusťte skript takto:


(Nahraďte deepseek-r1:8b za name:tag pro model, který chcete stáhnout)

Původní:Přihlášení k hypertextovému odkazu je viditelné.




Předchozí:[AI] (7) Použít llama.cpp k nasazení modelu DeepSeek-R1 přímo na místě
Další:Návod na nákup obchodního softwaru pro Xshell PLUS
Zřeknutí se:
Veškerý software, programovací materiály nebo články publikované organizací Code Farmer Network slouží pouze k učení a výzkumu; Výše uvedený obsah nesmí být používán pro komerční ani nelegální účely, jinak nesou všechny důsledky uživatelé. Informace na tomto webu pocházejí z internetu a spory o autorská práva s tímto webem nesouvisí. Musíte výše uvedený obsah ze svého počítače zcela smazat do 24 hodin od stažení. Pokud se vám program líbí, podporujte prosím originální software, kupte si registraci a získejte lepší skutečné služby. Pokud dojde k jakémukoli porušení, kontaktujte nás prosím e-mailem.

Mail To:help@itsvse.com