この記事は機械翻訳のミラー記事です。元の記事にジャンプするにはこちらをクリックしてください。

眺める: 3511|答える: 0

オラマモデル引力問題の解法

[リンクをコピー]
2025年2月8日 08:31:40に投稿 | | |
ここ数日、Ollamaからモデルを抽出しようとするときに厄介な問題が発生しています。コマンドを実行していると、モデルの約4〜5%をダウンロードしているのに、接続がリセットされるとクライアントが「クラッシュ」し、常に0%から再起動します。 オラマ プル ディープシーク-R1:8B

どうやら私だけではないようです:ハイパーリンクのログインが見えます。

注:私はOllama 0.5.7を使っていますが、次のリリースで問題が修正される可能性が高いです。

解決

誰かが親切にも回避策を投稿してくれました。つまり、Ollamaクライアントを呼び出してダウンロードを中断したところから再開するbashスクリプトです(Ollamaクライアントはこれができるはずですが、クラッシュすると正しくできません)。

このスクリプトをこのようなファイルに保存してくださいollama-pull.shそして次のコマンドで実行可能にしますchmod +x ollama-pull.sh


脚本を直接ダウンロードしてください: ollama-pull.sh (1.42 KB, ダウンロード数: 0, 售价: 5 粒MB)

スクリプトは次のように実行します:


(引き出したいモデルの deepseek-r1:8b を name:tag に置き換えてください)

翻訳元:ハイパーリンクのログインが見えます。




先の:[AI] (7) llama.cppを使ってDeepSeek-R1モデルをオンプレミスで展開
次に:Xshell PLUSビジネスソフトウェア購入チュートリアル
免責事項:
Code Farmer Networkが発行するすべてのソフトウェア、プログラミング資料、記事は学習および研究目的のみを目的としています。 上記の内容は商業的または違法な目的で使用されてはならず、そうでなければ利用者はすべての結果を負うことになります。 このサイトの情報はインターネットからのものであり、著作権紛争はこのサイトとは関係ありません。 ダウンロード後24時間以内に上記の内容を完全にパソコンから削除してください。 もしこのプログラムを気に入ったら、正規のソフトウェアを支持し、登録を購入し、より良い本物のサービスを受けてください。 もし侵害があれば、メールでご連絡ください。

Mail To:help@itsvse.com