Exigences : Le modèle DeepSeek-R1 a été déployé en utilisant ollama, un outil de dialogue a été utilisé pour l’appeler, et le terminal a simplement servi à des tests. Vous pouvez installer un panneau Open WebUI pour invoquer des modèles pour la conversation.
Révision:
Open WebUI est une plateforme d’IA auto-hébergée évolutive, riche en fonctionnalités et conviviale, conçue pour fonctionner entièrement hors ligne. Il prend en compte divers runners de LLM comme Ollama et les API compatibles OpenAI, avec un moteur d’inférence RAG intégré, ce qui en fait une solution puissante pour le déploiement de l’IA.
Adresse GitHub :La connexion hyperlientérée est visible. Documentation:La connexion hyperlientérée est visible. Configuration des variables d’environnement :La connexion hyperlientérée est visible.
Ubuntu 20.04 installe des conteneurs Docker
Dans cet article, pour déployer une interface open-webui avec Docker, vous devez d’abord installer le conteneur Docker, la commande d’installation est la suivante :
Ollama déploie le modèle deepseek-r1:32b
Exécutez la commande suivante :
Docker déploie Open WebUI
Puisque nous avons déjà Ollama installé nativement et en même temps sur un serveur, dans/data/open-webuiCréez un nouveau fichier compose.yaml sous le dossier, qui indique :
Exécutez la commande suivante pour lancer le conteneur :
Comme montré ci-dessous :
La règle du groupe de sécurité du pare-feu laisse fonctionner le port TCP 3000 pendant quelques instants, puis utilise un navigateur pour y accéder, comme montré dans la figure suivante :
Pour la première visite, configurez le compte administrateur et le mot de passe, comme montré dans la figure suivante :
Testez la fonction de dialogue du modèle DeepSeek-R1 comme illustré dans la figure ci-dessous :
(Fin) |