Requisitos: El modelo DeepSeek-R1 se desplegó usando ollama, y se utilizó una herramienta de diálogo para llamarlo, y el terminal se utilizó simplemente para pruebas. Puedes instalar un panel de OpenWebUI para invocar modelos para la conversación.
Revisión:
Open WebUI es una plataforma de IA autoalojada escalable, rica en funciones y fácil de usar, diseñada para funcionar completamente offline. Soporta varios ejecutores de LLM como Ollama y APIs compatibles con OpenAI, con un motor de inferencia RAG integrado, lo que lo convierte en una solución potente para el despliegue de IA.
Dirección de GitHub:El inicio de sesión del hipervínculo es visible. Documentación:El inicio de sesión del hipervínculo es visible. Configuración de variables de entorno:El inicio de sesión del hipervínculo es visible.
Ubuntu 20.04 instala contenedores Docker
En este artículo, para desplegar open-webui usando Docker, primero necesitas instalar el contenedor Docker, el comando de instalación es el siguiente:
Ollama despliega el modelo deepseek-r1:32b
Ejecuta el siguiente comando:
Docker despliega Open WebUI
Como ya tenemos Ollama instalado de forma nativa y al mismo tiempo en un servidor, en/data/open-webuiCrea un nuevo archivo compose.yaml debajo de la carpeta, que dice:
Ejecuta el siguiente comando para iniciar el contenedor:
Como se muestra a continuación:
La regla del grupo de seguridad del firewall deja funcionar el puerto TCP 3000 durante unos momentos y luego utiliza un navegador para acceder a él, como se muestra en la siguiente figura:
Para la primera visita, configura la cuenta de administrador y la contraseña, como se muestra en la siguiente figura:
Prueba la función de diálogo del modelo DeepSeek-R1 como se muestra en la figura siguiente:
(Fin) |