この記事は機械翻訳のミラー記事です。元の記事にジャンプするにはこちらをクリックしてください。

眺める: 2031|答える: 1

[AI] (4) Open WebUIを使ってDeepSeek-R1モデルを呼び出す

[リンクをコピー]
2025年2月6日 21:21:14に投稿 | | | |
要件:DeepSeek-R1モデルはollamaで展開され、ダイアログツールで呼び出し、端末は単にテストに使われていました。 Open WebUIパネルをインストールすれば、会話用のモデルを呼び出すことができます。

復習:

【AI】(3) Tencent CloudがHAIチュートリアル付きDeepSeek-R1を展開
https://www.itsvse.com/thread-10931-1-1.html

Open WebUIは、スケーラブルで機能豊富かつユーザーフレンドリーなセルフホスト型AIプラットフォームで、完全にオフラインで動作するよう設計されています。 OllamaやOpenAI互換APIなどの様々なLLMランナーをサポートし、組み込みのRAG推論エンジンを備えているため、AI展開の強力なソリューションとなっています。

GitHubアドレス:ハイパーリンクのログインが見えます。
ドキュメンテーション:ハイパーリンクのログインが見えます。
環境変数構成:ハイパーリンクのログインが見えます。

Ubuntu 20.04 インストール Docker コンテナ

この記事では、Dockerを使ってOpen-webUIを展開するには、まずDockerコンテナをインストールする必要があります。インストールコマンドは以下の通りです:


オラマはdeepseek-r1:32bモデルを展開しています

次のコマンドを実行します:


DockerがOpen WebUIを展開

すでにOllamaをネイティブでインストールし、同時にサーバーにインストールしているので、/data/open-webuiフォルダの下に新しいcompose.yamlファイルを作成し、次の内容を読みます:


以下のコマンドを実行してコンテナを起動します:


以下に示すように:



ファイアウォールセキュリティグループルールはTCP 3000ポートを数分間使わせた後、ブラウザを使ってアクセスします。以下の図に示されています:



初回訪問では、以下の図のように管理者アカウントとパスワードを設定します:



下図のようにDeepSeek-R1モデルダイアログ機能をテストしてください:


(終わり)




先の:【AI】(3) Tencent CloudがHAIチュートリアル付きDeepSeek-R1を展開
次に:[AI] (5) オリャマのリクエスト情報を印刷してください
 地主| 2025年2月19日 09:09:00に投稿 |
フロントエンドの大規模モデル対話オープンソースプロジェクトに似ています

次のチャット:ハイパーリンクのログインが見えます。
ローブチャット:ハイパーリンクのログインが見えます。
Ollama LLMのフル機能ウェブインターフェース:ハイパーリンクのログインが見えます。
免責事項:
Code Farmer Networkが発行するすべてのソフトウェア、プログラミング資料、記事は学習および研究目的のみを目的としています。 上記の内容は商業的または違法な目的で使用されてはならず、そうでなければ利用者はすべての結果を負うことになります。 このサイトの情報はインターネットからのものであり、著作権紛争はこのサイトとは関係ありません。 ダウンロード後24時間以内に上記の内容を完全にパソコンから削除してください。 もしこのプログラムを気に入ったら、正規のソフトウェアを支持し、登録を購入し、より良い本物のサービスを受けてください。 もし侵害があれば、メールでご連絡ください。

Mail To:help@itsvse.com