Cerințe: Modelul DeepSeek-R1 a fost implementat folosind ollama, iar un instrument de dialog a fost folosit pentru a-l numi, iar terminalul a fost folosit pur și simplu pentru testare. Poți instala un panou Open WebUI pentru a invoca modele pentru conversație.
Recenzie:
Open WebUI este o platformă AI auto-găzduită, scalabilă, bogată în funcții și ușor de folosit, concepută să ruleze complet offline. Suportă diverse curse LLM precum Ollama și API-uri compatibile OpenAI, cu un motor de inferență RAG integrat, ceea ce îl face o soluție puternică pentru implementarea AI.
Adresă GitHub:Autentificarea cu hyperlink este vizibilă. Documentație:Autentificarea cu hyperlink este vizibilă. Configurația variabilelor de mediu:Autentificarea cu hyperlink este vizibilă.
Ubuntu 20.04 instalează containerele Docker
În acest articol, pentru a implementa open-webui folosind Docker, trebuie mai întâi să instalezi containerul Docker, comanda de instalare fiind următoarea:
Ollama implementează modelul deepseek-r1:32b
Rulează următoarea comandă:
Docker implementează OpenWebUI
Deoarece avem deja Ollama instalat nativ și în același timp pe un server, în/data/open-webuiCreează un nou fișier compose.yaml sub folder, care spune:
Rulați următoarea comandă pentru a porni containerul:
Așa cum se arată mai jos:
Regula grupului de securitate a firewall-ului permite portului TCP 3000 să acționeze pentru câteva momente, apoi folosește un browser pentru a-l accesa, așa cum se arată în figura următoare:
Pentru prima vizită, configurați contul de administrator și parola, așa cum se vede în figura următoare:
Testează funcția de dialog a modelului DeepSeek-R1, așa cum este prezentat în figura de mai jos:
(Sfârșit) |