Anforderungen: Das DeepSeek-R1-Modell wurde mit Ollama bereitgestellt, ein Dialogwerkzeug wurde verwendet, um es aufzurufen; das Terminal wurde lediglich zum Testen genutzt. Man kann ein Open-WebUI-Panel installieren, um Modelle für Gespräche aufzurufen.
Rezension:
Open WebUI ist eine skalierbare, funktionsreiche und benutzerfreundliche, selbstgehostete KI-Plattform, die vollständig offline laufen soll. Es unterstützt verschiedene LLM-Runner wie Ollama und OpenAI-kompatible APIs mit einer integrierten RAG-Inferenz-Engine, was es zu einer leistungsstarken Lösung für die KI-Implementierung macht.
GitHub-Adresse:Der Hyperlink-Login ist sichtbar. Dokumentation:Der Hyperlink-Login ist sichtbar. Konfiguration der Umgebungsvariablen:Der Hyperlink-Login ist sichtbar.
Ubuntu 20.04 installiert Docker-Container
In diesem Artikel müssen Sie zum Deployen von Open-WebUI mit Docker zunächst den Docker-Container installieren; der Installationsbefehl lautet wie folgt:
Ollama setzt das deepseek-r1:32b-Modell ein
Führe folgenden Befehl aus:
Docker stellt Open WebUI bereit
Da wir Ollama bereits nativ und gleichzeitig auf einem Server installiert haben, ist in/data/open-webuiErstelle eine neue compose.yaml-Datei unter dem Ordner, die lautet:
Führen Sie folgenden Befehl aus, um den Container zu starten:
Wie unten gezeigt:
Die Firewall-Sicherheitsgruppenregel lässt den TCP 3000-Port für einige Momente frei und nutzt dann einen Browser, um darauf zuzugreifen, wie in der folgenden Abbildung gezeigt:
Beim ersten Besuch richten Sie das Administratorkonto und das Passwort ein, wie in der folgenden Abbildung gezeigt:
Testen Sie die Dialogfunktion des DeepSeek-R1-Modells, wie in der untenstehenden Abbildung gezeigt:
(Ende) |