Requisiti: Il modello DeepSeek-R1 veniva implementato usando ollama, e veniva utilizzato uno strumento di dialogo per chiamarlo, mentre il terminale veniva semplicemente usato per i test. Puoi installare un pannello Open WebUI per evocare modelli per la conversazione.
Recensione:
Open WebUI è una piattaforma AI auto-ospitata scalabile, ricca di funzionalità e facile da usare, progettata per funzionare completamente offline. Supporta vari LLM runner come Ollama e API compatibili con OpenAI, con un motore di inferenza RAG integrato, rendendolo una soluzione potente per il deployment dell'IA.
Indirizzo GitHub:Il login del link ipertestuale è visibile. Documentazione:Il login del link ipertestuale è visibile. Configurazione delle variabili ambientali:Il login del link ipertestuale è visibile.
Ubuntu 20.04 installa i container Docker
In questo articolo, per distribuire open-webui usando Docker, devi prima installare il container Docker, il comando di installazione è il seguente:
Ollama implementa il modello deepseek-r1:32b
Esegui il seguente comando:
Docker distribuisce Open WebUI
Dato che abbiamo già Ollama installato nativamente e contemporaneamente su un server, in/data/open-webuiCrea un nuovo file compose.yaml sotto la cartella, che recita:
Esegui il seguente comando per avviare il container:
Come mostrato di seguito:
La regola del gruppo di sicurezza del firewall lascia attivare la porta TCP 3000 per qualche istante, poi utilizza un browser per accedervi, come mostrato nella figura seguente:
Per la prima visita, imposta l'account amministratore e la password, come mostrato nella figura seguente:
Testa la funzione di dialogo del modello DeepSeek-R1 come mostrato nella figura sottostante:
(Fine) |