|
|
Veröffentlicht am 06.02.2025, 21:48:36
|
|
|
|

Anforderungen: Ich habe das DeepSeek-R1-Modell mit Ollama bereitgestellt und wollte die Anfrageinformationen einiger Plugins einsehen, um die Details zu verstehen. Zum Beispiel: Open WebUI, continue, cline, Roo Code usw.
Rezension:
Um die Eingabeanfrage auf der Serverseite auszudrucken, musst du den Debug-Modus aktivieren. redigieren/etc/systemd/system/ollama.service.d/override.confDatei hinzufügen Sie folgende Konfiguration:
Laden Sie neu und starten Sie den Ollama-Dienst mit folgendem Befehl:
Verwenden Sie journalctl, um die Service-Ausgabeprotokolle mit folgendem Befehl anzusehen:
Verwenden Sie Open WebUI, um Ollama zum Testen aufzurufen, wie im untenstehenden Bild gezeigt:
Die Protokolle sind wie folgt:
Feb 06 21:25:48 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:25:48 | 200 | 6.186257471s | 172.18.0.2 | POST: "/api/chat" 06. Feb 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:407 msg="context for request finished" 06. Feb 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:339 msg="Runner mit nicht-null Dauer ist inaktiv, Timer wird hinzugefügt" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 Dauer=2562047h47m16,854775807s Feb 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:357 msg="after processing request ended event modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 refCount=0 Feb 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 06. Feb 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt=<|User|>Mein Name ist Xiao Zha, wer sind Sie? <|Assistant|> Feb 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=728 prompt=13 used=2 remaining=11 Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:02 | 200 | 7.642182053s | 172.18.0.2 | POST: "/api/chat" 06. Feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:407 msg="context for request completed" 06. Feb. 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:339 msg="Runner mit nicht null Dauer ist inaktiv, Timer wird hinzugefügt" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 Dauer=2562047h47m16,854775807s 06. Feb. 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 refCount=0 Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>### Aufgabe:\nErstellen Sie einen prägnanten, 3-5 Wörter langen Titel mit einem Emoji, das den Chatverlauf zusammenfasst.\n### Richtlinien:\n- Der Titel sollte klar das Hauptthema oder Thema des Gesprächs darstellen.\ n- Verwenden Sie Emojis, die das Verständnis des Themas verbessern, aber vermeiden Sie Anführungszeichen oder spezielle Formatierungen.\n- Schreiben Sie den Titel in der Hauptsprache des Chats; standardmäßig auf Englisch zurück, wenn mehrsprachig.\n Genauigkeit über übermäßige Kreativität priorisieren; halte es klar und einfach.\n### Output:\nJSON-Format: { \"title\": \"dein prägnanter Titel hier\" }\n### Beispiel:\n- { \"title\": \" Stock Market Trends\" },\n- { \"title\": \" Perfect Chocolate Chip-Rezept\" },\n- { \"title\": \"Evolution of Music Streaming\" },\n- { \"title\": \"Remote Work Productivity Tips\" },\n- { \"title\": \"Künstliche Intelligenz im Gesundheitswesen\" },\n- { \" Titel\": \" Videospielentwicklungs-Einblicke\" }\n### Chatverlauf:\n<chat_history>\nNUTZER: Mein Name ist Xiao Zha, wer bist du? \nASSISTENT: Hallo, kleiner Dreckskerl! Ich bin DeepSeek-R1-Lite-Preview, ein intelligenter Assistent, der von DeepSeek entwickelt wurde, und ich werde mein Bestes tun, um Ihnen zu helfen. Kann ich irgendetwas für Sie tun? \n</chat_history><|Assistent|>" Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=567 prompt=312 used=6 remaining= 306 Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:14 | 200 | 12.263297485s | 172.18.0.2 | POST: "/api/chat" Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:407 msg="context for request finished" 06. Feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:339 msg="Runner mit nicht-null Dauer ist inaktiv, Timer wird hinzugefügt" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 Dauer=2562047h47m16,854775807s 06. Feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:357 msg="after processing request abgeschlossen Ereignis" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 refCount=0 Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 06. Feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>### Aufgabe:\nGeneriere 1-3 breite Tags, die die Hauptthemen der Chat-Geschichte kategorisieren, zusammen mit 1-3 spezifischeren Unterthemen-Tags.\n\n### Richtlinien:\n- Beginne mit hochrangigen Domains (z. B. Wissenschaft, Technologie, Philosophie, Kunst, Politik, Wirtschaft, Gesundheit, Sport, Unterhaltung, Bildung) – Erwägen Sie, relevante Teilbereiche/Teilbereiche einzubeziehen, wenn diese stark sind im gesamten Gespräch vertreten\n- Wenn der Inhalt zu kurz ist (weniger als 3 Nachrichten) oder zu vielfältig, verwenden Sie nur [\"Allgemein\"]\n- Verwenden Sie die Hauptsprache des Chats; standardmäßig auf Englisch, wenn mehrsprachig – Genauigkeit über Spezifität priorisieren\n\n### Ausgabe:\nJSON-Format: { \"tags\": [\"tag1\", \"tag2\", \"tag3\"] }\n\n### Chatverlauf:\n<chat_history>\nNUTZER: Mein Name ist Xiao Zha, wer bist du? \nASSISTENT: Hallo, kleiner Dreckskerl! Ich bin DeepSeek-R1-Lite-Preview, ein intelligenter Assistent, der von DeepSeek entwickelt wurde, und ich werde mein Bestes tun, um Ihnen zu helfen. Kann ich irgendetwas für Sie tun? \n</chat_history><|Assistent|>" Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=637 prompt=249 used=7 remaining= 242 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go:966 msg="neuer Läufer erkannt, Lademodell für CGO-Tokenisierung" 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Laden Metadaten mit 26 Schlüssel-Wert-Paaren und 771 Tensoren aus /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 (Version GGUF V3 (neueste)) 06. Feb. 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Metadatenschlüssel/-werte werden abgeworfen. Hinweis: KV-Überschreibungen gelten in diesem Ausgang nicht. 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 0: general.architecture str = qwen2 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 1: general.type str = model Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 2: general.name str = DeepSeek R1 Distill Qwen 32B 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 3: general.basename str = DeepSeek-R1-Distill-Qwen 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 4: general.size_label str = 32B Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 5: qwen2.block_count u32 = 64 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 6: qwen2.context_length u32 = 131072 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 7: qwen2.embedding_length u32 = 5120 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 8: qwen2.feed_forward_length u32 = 27648 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 9: qwen2.attention.head_count u32 = 40 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 10: qwen2.attention.head_count_kv u32 = 8 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 11: qwen2.rope.freq_base f32 = 1000000.000000 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 12: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000010 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 13: general.file_type u32 = 15 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 14: tokenizer.ggml.model str = gpt2 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 15: tokenizer.ggml.pre str = deepseek-r1-qwen 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 16: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ... 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 17: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ... Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 18: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",... 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 19: tokenizer.ggml.bos_token_id u32 = 151646 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 20: tokenizer.ggml.eos_token_id u32 = 151643 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 21: tokenizer.ggml.padding_token_id u32 = 151643 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 22: tokenizer.ggml.add_bos_token bool = true Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 23: tokenizer.ggml.add_eos_token bool = false Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 24: tokenizer.chat_template str = {% if not add_generation_prompt is de... Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 25: general.quantization_version u32 = 2 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - Typ f32: 321 Tensoren 06. Feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - Typ q4_K: 385 Tensoren Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - Typ q6_K: 65 Tensoren 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: fehlender oder nicht erkannter Pre-Tokenizer-Typ, verwendet: 'default' 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special_eos_id ist nicht in special_eog_ids – die Tokenizer-Konfiguration könnte falsch sein 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: spezielle Tokens Cache-Größe = 22 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: Token-zu-Stück Cache-Größe = 0,9310 MB Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: format = GGUF V3 (neueste) Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: arch = qwen2 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab type = BPE Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_vocab = 152064 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_merges = 151387 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab_only = 1 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model type = ? B Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model ftype = all F32 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model params = 32.76 B Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: Modellgröße = 18,48 GiB (4,85 BPW) Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: general.name = DeepSeek R1 Distill Qwen 32B 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: BOS token = 151646 '<|Anfang des Satzes|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOS token = 151643 '<|Satzende|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOT token = 151643 '<|Ende des Satzes|>' 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: PAD token = 151643 '<|Ende des Satzes|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: LF token = 148848 'ÄĬ' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PRE token = 151659 '<|fim_prefix|>' 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SUF token = 151661 '<|fim_suffix|>' 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM MID token = 151660 '<|fim_middle|>' 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PAD token = 151662 '<|fim_pad|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM REP token = 151663 '<|repo_name|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SEP token = 151664 '<|file_sep|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151643 '<|Satzende|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151662 '<|fim_pad|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151663 '<|repo_name|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151664 '<|file_sep|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: maximale Tokenlänge = 256 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llama_model_load: nur Vokabeln – Tensoren überspringen 06. Feb 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>Mein Name ist Xiao Zha, wer sind Sie? <|Assistent|>\nHallo, kleiner Dreckskerl! Ich bin DeepSeek-R1-Lite-Preview, ein intelligenter Assistent, der von DeepSeek entwickelt wurde, und ich werde mein Bestes tun, um Ihnen zu helfen. Kann ich irgendetwas für Sie tun? <|Satzende|><|User|>Hello DeepSeek-R1<|Assistant|>" Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=223 prompt=64 used=13 remaining= 51 Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 | 6.737131375s | 172.18.0.2 | POST: "/api/chat" Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:407 msg="context for request abgeschlossen" 06. Feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:357 msg="after processing request ended event abgeschlossen" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=1 Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 | 10.172441322s | 172.18.0.2 | POST: "/api/chat" Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:407 msg="context for request finished" Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:339 msg="Runner mit nicht-null Dauer ist inaktiv, Timer wird hinzugefügt" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 Dauer=2562047h47m16,854775807s Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:357 msg="after processing request ended event beendet" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec5c613e93 refCount=0 Referenz:
Der Hyperlink-Login ist sichtbar.
Der Hyperlink-Login ist sichtbar. |
Vorhergehend:[KI] (4) Open WebUI verwenden, um das DeepSeek-R1-Modell aufzurufenNächster:[KI] (6) Eine kurze Einführung in das Großmodell-Dateiformat GGUF
|