Dieser Artikel ist ein Spiegelartikel der maschinellen Übersetzung, bitte klicken Sie hier, um zum Originalartikel zu springen.

Ansehen: 1610|Antwort: 2

[KI] (5) Drucke die Olama-Anfrageinformationen aus

[Link kopieren]
Veröffentlicht am 06.02.2025, 21:48:36 | | | |
Anforderungen: Ich habe das DeepSeek-R1-Modell mit Ollama bereitgestellt und wollte die Anfrageinformationen einiger Plugins einsehen, um die Details zu verstehen. Zum Beispiel: Open WebUI, continue, cline, Roo Code usw.

Rezension:

【AI】(3) Tencent Cloud setzt DeepSeek-R1 mit HAI-Tutorial ein
https://www.itsvse.com/thread-10931-1-1.html

[KI] (4) Open WebUI verwenden, um das DeepSeek-R1-Modell aufzurufen
https://www.itsvse.com/thread-10934-1-1.html

Um die Eingabeanfrage auf der Serverseite auszudrucken, musst du den Debug-Modus aktivieren. redigieren/etc/systemd/system/ollama.service.d/override.confDatei hinzufügen Sie folgende Konfiguration:


Laden Sie neu und starten Sie den Ollama-Dienst mit folgendem Befehl:


Verwenden Sie journalctl, um die Service-Ausgabeprotokolle mit folgendem Befehl anzusehen:


Verwenden Sie Open WebUI, um Ollama zum Testen aufzurufen, wie im untenstehenden Bild gezeigt:



Die Protokolle sind wie folgt:

Feb 06 21:25:48 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:25:48 | 200 |  6.186257471s |      172.18.0.2 | POST: "/api/chat"
06. Feb 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:407 msg="context for request finished"
06. Feb 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:339 msg="Runner mit nicht-null Dauer ist inaktiv, Timer wird hinzugefügt" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 Dauer=2562047h47m16,854775807s
Feb 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:357 msg="after processing request ended event modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 refCount=0
Feb 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93
06. Feb 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt=<|User|>Mein Name ist Xiao Zha, wer sind Sie? <|Assistant|>
Feb 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=728 prompt=13 used=2 remaining=11
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:02 | 200 |  7.642182053s |      172.18.0.2 | POST: "/api/chat"
06. Feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:407 msg="context for request completed"
06. Feb. 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:339 msg="Runner mit nicht null Dauer ist inaktiv, Timer wird hinzugefügt" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 Dauer=2562047h47m16,854775807s
06. Feb. 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 refCount=0
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>### Aufgabe:\nErstellen Sie einen prägnanten, 3-5 Wörter langen Titel mit einem Emoji, das den Chatverlauf zusammenfasst.\n### Richtlinien:\n- Der Titel sollte klar das Hauptthema oder Thema des Gesprächs darstellen.\ n- Verwenden Sie Emojis, die das Verständnis des Themas verbessern, aber vermeiden Sie Anführungszeichen oder spezielle Formatierungen.\n- Schreiben Sie den Titel in der Hauptsprache des Chats; standardmäßig auf Englisch zurück, wenn mehrsprachig.\n Genauigkeit über übermäßige Kreativität priorisieren; halte es klar und einfach.\n### Output:\nJSON-Format: { \"title\": \"dein prägnanter Titel hier\" }\n### Beispiel:\n- { \"title\": \" Stock Market Trends\" },\n- { \"title\": \" Perfect Chocolate Chip-Rezept\" },\n- { \"title\": \"Evolution of Music Streaming\" },\n- { \"title\": \"Remote Work Productivity Tips\" },\n- { \"title\": \"Künstliche Intelligenz im Gesundheitswesen\" },\n- { \" Titel\": \" Videospielentwicklungs-Einblicke\" }\n### Chatverlauf:\n<chat_history>\nNUTZER: Mein Name ist Xiao Zha, wer bist du? \nASSISTENT: Hallo, kleiner Dreckskerl! Ich bin DeepSeek-R1-Lite-Preview, ein intelligenter Assistent, der von DeepSeek entwickelt wurde, und ich werde mein Bestes tun, um Ihnen zu helfen. Kann ich irgendetwas für Sie tun? \n</chat_history><|Assistent|>"
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=567 prompt=312 used=6 remaining= 306
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:14 | 200 | 12.263297485s |      172.18.0.2 | POST: "/api/chat"
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:407 msg="context for request finished"
06. Feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:339 msg="Runner mit nicht-null Dauer ist inaktiv, Timer wird hinzugefügt" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 Dauer=2562047h47m16,854775807s
06. Feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:357 msg="after processing request abgeschlossen Ereignis" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 refCount=0
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93
06. Feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>### Aufgabe:\nGeneriere 1-3 breite Tags, die die Hauptthemen der Chat-Geschichte kategorisieren, zusammen mit 1-3 spezifischeren Unterthemen-Tags.\n\n### Richtlinien:\n- Beginne mit hochrangigen Domains (z. B. Wissenschaft, Technologie, Philosophie, Kunst, Politik, Wirtschaft, Gesundheit, Sport, Unterhaltung, Bildung) – Erwägen Sie, relevante Teilbereiche/Teilbereiche einzubeziehen, wenn diese stark sind im gesamten Gespräch vertreten\n- Wenn der Inhalt zu kurz ist (weniger als 3 Nachrichten) oder zu vielfältig, verwenden Sie nur [\"Allgemein\"]\n- Verwenden Sie die Hauptsprache des Chats; standardmäßig auf Englisch, wenn mehrsprachig – Genauigkeit über Spezifität priorisieren\n\n### Ausgabe:\nJSON-Format: { \"tags\": [\"tag1\", \"tag2\", \"tag3\"] }\n\n### Chatverlauf:\n<chat_history>\nNUTZER: Mein Name ist Xiao Zha, wer bist du? \nASSISTENT: Hallo, kleiner Dreckskerl! Ich bin DeepSeek-R1-Lite-Preview, ein intelligenter Assistent, der von DeepSeek entwickelt wurde, und ich werde mein Bestes tun, um Ihnen zu helfen. Kann ich irgendetwas für Sie tun? \n</chat_history><|Assistent|>"
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=637 prompt=249 used=7 remaining= 242
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go:966 msg="neuer Läufer erkannt, Lademodell für CGO-Tokenisierung"
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Laden Metadaten mit 26 Schlüssel-Wert-Paaren und 771 Tensoren aus /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 (Version GGUF V3 (neueste))
06. Feb. 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Metadatenschlüssel/-werte werden abgeworfen. Hinweis: KV-Überschreibungen gelten in diesem Ausgang nicht.
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 0: general.architecture str = qwen2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 1: general.type str = model
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 2: general.name str = DeepSeek R1 Distill Qwen 32B
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 3: general.basename str = DeepSeek-R1-Distill-Qwen
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 4: general.size_label str = 32B
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 5: qwen2.block_count u32 = 64
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 6: qwen2.context_length u32 = 131072
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 7: qwen2.embedding_length u32 = 5120
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 8: qwen2.feed_forward_length u32 = 27648
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 9: qwen2.attention.head_count u32 = 40
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 10: qwen2.attention.head_count_kv u32 = 8
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 11: qwen2.rope.freq_base f32 = 1000000.000000
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 12: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000010
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 13: general.file_type u32 = 15
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 14: tokenizer.ggml.model str = gpt2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 15: tokenizer.ggml.pre str = deepseek-r1-qwen
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 16: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ...
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 17: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 18: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 19: tokenizer.ggml.bos_token_id u32 = 151646
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 20: tokenizer.ggml.eos_token_id u32 = 151643
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 21: tokenizer.ggml.padding_token_id u32 = 151643
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 22: tokenizer.ggml.add_bos_token bool = true
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 23: tokenizer.ggml.add_eos_token bool = false
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 24: tokenizer.chat_template str = {% if not add_generation_prompt is de...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 25: general.quantization_version u32 = 2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - Typ f32: 321 Tensoren
06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - Typ q4_K: 385 Tensoren
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - Typ q6_K: 65 Tensoren
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: fehlender oder nicht erkannter Pre-Tokenizer-Typ, verwendet: 'default'
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special_eos_id ist nicht in special_eog_ids – die Tokenizer-Konfiguration könnte falsch sein
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: spezielle Tokens Cache-Größe = 22
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: Token-zu-Stück Cache-Größe = 0,9310 MB
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: format = GGUF V3 (neueste)
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: arch = qwen2
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab type = BPE
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_vocab = 152064
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_merges = 151387
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab_only = 1
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model type = ? B
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model ftype = all F32
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model params = 32.76 B
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: Modellgröße = 18,48 GiB (4,85 BPW)
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: general.name = DeepSeek R1 Distill Qwen 32B
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: BOS token = 151646 '<|Anfang des Satzes|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOS token = 151643 '<|Satzende|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOT token = 151643 '<|Ende des Satzes|>'
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: PAD token = 151643 '<|Ende des Satzes|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: LF token = 148848 'ÄĬ'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PRE token = 151659 '<|fim_prefix|>'
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SUF token = 151661 '<|fim_suffix|>'
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM MID token = 151660 '<|fim_middle|>'
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PAD token = 151662 '<|fim_pad|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM REP token = 151663 '<|repo_name|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SEP token = 151664 '<|file_sep|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151643 '<|Satzende|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151662 '<|fim_pad|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151663 '<|repo_name|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151664 '<|file_sep|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: maximale Tokenlänge = 256
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llama_model_load: nur Vokabeln – Tensoren überspringen
06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>Mein Name ist Xiao Zha, wer sind Sie? <|Assistent|>\nHallo, kleiner Dreckskerl! Ich bin DeepSeek-R1-Lite-Preview, ein intelligenter Assistent, der von DeepSeek entwickelt wurde, und ich werde mein Bestes tun, um Ihnen zu helfen. Kann ich irgendetwas für Sie tun? <|Satzende|><|User|>Hello DeepSeek-R1<|Assistant|>"
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=223 prompt=64 used=13 remaining= 51
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 |  6.737131375s |      172.18.0.2 | POST: "/api/chat"
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:407 msg="context for request abgeschlossen"
06. Feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:357 msg="after processing request ended event abgeschlossen" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=1
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 | 10.172441322s |      172.18.0.2 | POST: "/api/chat"
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:407 msg="context for request finished"
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:339 msg="Runner mit nicht-null Dauer ist inaktiv, Timer wird hinzugefügt" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 Dauer=2562047h47m16,854775807s
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:357 msg="after processing request ended event beendet" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 refCount=0

Referenz:
Der Hyperlink-Login ist sichtbar.
Der Hyperlink-Login ist sichtbar.




Vorhergehend:[KI] (4) Open WebUI verwenden, um das DeepSeek-R1-Modell aufzurufen
Nächster:[KI] (6) Eine kurze Einführung in das Großmodell-Dateiformat GGUF
 Vermieter| Veröffentlicht am 06.02.2025, 21:53:55 |
Sie können die Olama-Service-Datei auch mit folgendem Befehl bearbeiten:


Wenn du diesen Befehl ausführst, öffnet sich ein Texteditor (meist vi oder nano) und lässt dich die Datei /etc/systemd/system/ollama.service bearbeiten.
 Vermieter| Veröffentlicht am 07.2.2025, 09:08:25 |
Linux betrachtet die Logausgabe des Systemd-Dienstes
https://www.itsvse.com/thread-10154-1-1.html
Verzichtserklärung:
Alle von Code Farmer Network veröffentlichten Software, Programmiermaterialien oder Artikel dienen ausschließlich Lern- und Forschungszwecken; Die oben genannten Inhalte dürfen nicht für kommerzielle oder illegale Zwecke verwendet werden, andernfalls tragen die Nutzer alle Konsequenzen. Die Informationen auf dieser Seite stammen aus dem Internet, und Urheberrechtsstreitigkeiten haben nichts mit dieser Seite zu tun. Sie müssen die oben genannten Inhalte innerhalb von 24 Stunden nach dem Download vollständig von Ihrem Computer löschen. Wenn Ihnen das Programm gefällt, unterstützen Sie bitte echte Software, kaufen Sie die Registrierung und erhalten Sie bessere echte Dienstleistungen. Falls es eine Verletzung gibt, kontaktieren Sie uns bitte per E-Mail.

Mail To:help@itsvse.com