Denne artikkelen er en speilartikkel om maskinoversettelse, vennligst klikk her for å hoppe til originalartikkelen.

Utsikt: 2031|Svare: 1

[AI] (4) Bruk Open WebUI for å kalle DeepSeek-R1-modellen

[Kopier lenke]
Publisert 6.02.2025 kl. 21:21:14 | | | |
Krav: DeepSeek-R1-modellen ble distribuert ved bruk av ollama, og et dialogverktøy ble brukt for å kalle den, og terminalen ble kun brukt til testing. Du kan installere et Open WebUI-panel for å påkalle modeller for samtale.

Anmeldelse:

【AI】(3) Tencent Cloud deployerer DeepSeek-R1 med HAI-veiledning
https://www.itsvse.com/thread-10931-1-1.html

Open WebUI er en skalerbar, funksjonsrik og brukervennlig selvhostet AI-plattform designet for å kjøre helt offline. Den støtter ulike LLM-løpere som Ollama og OpenAI-kompatible API-er, med en innebygd RAG-inferensmotor, noe som gjør den til en kraftig løsning for AI-distribusjon.

GitHub-adresse:Innloggingen med hyperkoblingen er synlig.
Dokumentasjon:Innloggingen med hyperkoblingen er synlig.
Konfigurasjon av miljøvariabler:Innloggingen med hyperkoblingen er synlig.

Ubuntu 20.04 installerer Docker-containere

I denne artikkelen, for å distribuere open-webui med Docker, må du først installere Docker-containeren, installasjonskommandoen er som følger:


Ollama bruker deepseek-r1:32b-modellen

Kjør følgende kommando:


Docker distribuerer Open WebUI

Siden vi allerede har Ollama installert både nativt og samtidig på en server, i/data/open-webuiOpprett en ny compose.yaml-fil under mappen, som lyder:


Kjør følgende kommando for å starte containeren:


Som vist nedenfor:



Regelen for brannmurens sikkerhetsgruppe lar TCP 3000-porten gå noen øyeblikk, og bruker deretter en nettleser for å få tilgang til den, som vist i følgende figur:



For første besøk, sett opp administratorkonto og passord, som vist i følgende figur:



Test dialogfunksjonen til DeepSeek-R1-modellen som vist i figuren nedenfor:


(Slutt)




Foregående:【AI】(3) Tencent Cloud deployerer DeepSeek-R1 med HAI-veiledning
Neste:[AI] (5) Skriv ut informasjonen om Ollamas forespørsel
 Vert| Publisert 2025-2-19 09:09:00 |
Ligner på front-end store modelldialog åpen kildekode-prosjektet

NextChat:Innloggingen med hyperkoblingen er synlig.
Lobe Chat:Innloggingen med hyperkoblingen er synlig.
Ollama LLMs fullverdige webgrensesnitt:Innloggingen med hyperkoblingen er synlig.
Ansvarsfraskrivelse:
All programvare, programmeringsmateriell eller artikler publisert av Code Farmer Network er kun for lærings- og forskningsformål; Innholdet ovenfor skal ikke brukes til kommersielle eller ulovlige formål, ellers skal brukerne bære alle konsekvenser. Informasjonen på dette nettstedet kommer fra Internett, og opphavsrettstvister har ingenting med dette nettstedet å gjøre. Du må fullstendig slette innholdet ovenfor fra datamaskinen din innen 24 timer etter nedlasting. Hvis du liker programmet, vennligst støtt ekte programvare, kjøp registrering, og få bedre ekte tjenester. Hvis det foreligger noen krenkelse, vennligst kontakt oss på e-post.

Mail To:help@itsvse.com