Exigences : J’ai déployé le modèle DeepSeek-R1 avec Ollama et je voulais consulter les informations de demande provenant de certains plugins pour en comprendre les détails. Par exemple : Ouvrir WebUI, continuer, cline, Roo Code, etc.
Révision:
Pour imprimer la requête d’entrée côté serveur, vous devez activer le mode Débogage. éditer/etc/systemd/system/ollama.service.d/override.confAjoutez la configuration suivante :
Rechargez et lancez le service ollama avec la commande suivante :
Utilisez journalctl pour consulter les journaux de sortie du service avec la commande suivante :
Utilisez Open WebUI pour appeler ollama afin de tester, comme montré dans l’image ci-dessous :
Les journaux sont les suivants :
06 févr. 21:25:48 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 06 - 21:25:48 | 200 | 6.186257471s | 172.18.0.2 | POST : « /api/chat » 06 févr. 21:25:48 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminé » 6 févr. 21:25:48 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go :339 msg="le coureur à durée non nulle est devenu inactif, ajout du minuteur » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durée=2562047h47m16.854775807s 6 févr. 21:25:48 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0 6 févr. 21:25:54 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go :575 msg="évaluation déjà chargé » modèle=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 06 févr. 21:25:54 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go :1470 msg="chat request » images=0 prompt=<|Utilisateur|>Je m’appelle Xiao Zha, qui êtes-vous ? <|Assistant|> 6 févr. 21:25:54 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go :104 msg="chargement de cache slot » id=0 cache=728 prompt=13 utilisé=2 restant=11 06 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 - 21:26:02 | 200 | 7.642182053s | 172.18.0.2 | POST : « /api/chat » 06 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminée » 06 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go :339 msg="le coureur à durée non nulle est devenu inactif, ajout du minuteur » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durée=2562047h47m16.854775807s 6 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0 6 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go :575 msg="évaluation déjà chargé » modèle=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 6 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go :1470 msg="chat request » images=0 prompt="<|User|>### Tâche : Générez un titre concis de 3 à 5 mots avec un emoji résumant l’historique du chat.\n### Directives : - Le titre doit clairement représenter le thème principal ou le sujet de la conversation. n- Utilisez des emojis qui améliorent la compréhension du sujet, mais évitez les guillemets ou la mise en forme spéciale.\n- Écrivez le titre dans la langue principale du chat ; par défaut en anglais si vous êtes multilingue. \n - Privilégiez la précision plutôt que la créativité excessive ; Reste clair et simple.\n### Sortie : \nJSON format : { \"title\ » : \"your brief title ici\ » }\n### Exemples : \n- { \"title\ » : \"Tendances du marché boursier » },\n- { \"title\ » : \ » Perfect Chocolate Recette de chip\ » },\n- { \"titre\ » : \"Évolution du streaming musical » },\n- { \"titre\ » : \"Conseils de productivité en télétravail » },\n- { \"titre\ » : \"Intelligence artificielle dans la santé » },\n- { \ » titre\ » : \ » Analyses sur le développement de jeux vidéo » }\n### Historique du chat :\n<chat_history>\nUTILISATEUR : Je m’appelle Xiao Zha, qui êtes-vous ? \nASSISTANT : Bonjour, petit ! Je suis DeepSeek-R1-Lite-Preview, un assistant intelligent développé par DeepSeek, et je ferai de mon mieux pour vous aider. Y a-t-il quelque chose que je puisse faire pour vous ? \n</chat_history><|Assistant|>" 6 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go :104 msg="chargement de l’emplacement cache » id=1 cache=567 prompt=312 used=6 restant= 306 06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 - 21:26:14 | 200 | 12.263297485s | 172.18.0.2 | POST : « /api/chat » 6 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminée » 06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go :339 msg="le coureur à durée non nulle est devenu inactif, ajout du minuteur » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durée=2562047h47m16.854775807s 06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0 06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go :575 msg="évaluation déjà chargé » modèle=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go :1470 msg="chat request » images=0 prompt="<|User|>### Tâche : Générer 1 à 3 balises larges catégorisant les thèmes principaux de l’historique du chat, ainsi que 1 à 3 balises de sous-thèmes plus spécifiques.\n### Directives : Commencez par des domaines de haut niveau (par exemple, Sciences, Technologie, Philosophie, Arts, Politique, Commerce, Santé, Sport, Divertissement, Éducation)\n - Envisagez d’inclure des sous-domaines/sous-domaines pertinents s’ils sont fortement représenté tout au long de la conversation\n- Si le contenu est trop court (moins de 3 messages) ou trop varié, utilisez uniquement [\"General\"]\n- Utilisez la langue principale du chat ; par défaut, en anglais si vous êtes multilingue\n- Privilégiez la précision à la spécificité\n\n### Sortie : \nJSON format : { \"tags\ » : [\"tag1\ », \"tag2\ », \"tag3\"] }\n\n### Historique du chat :\n<chat_history>\nUSER : Je m’appelle Xiao Zha, qui êtes-vous ? \nASSISTANT : Bonjour, petit ! Je suis DeepSeek-R1-Lite-Preview, un assistant intelligent développé par DeepSeek, et je ferai de mon mieux pour vous aider. Y a-t-il quelque chose que je puisse faire pour vous ? \n</chat_history><|Assistant|>" 6 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go :104 msg="chargement de l’emplacement cache » id=1 cache=637 prompt=249 used=7 restant= 242 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go :575 msg="évaluation déjà chargé » modèle=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go :966 msg="nouveau runner détecté, chargement du modèle pour la tokenisation cgo » 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : chargé des métadonnées avec 26 paires clé-valeur et 771 tenseurs de /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 (version GGUF V3 (la dernière version)) 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : Vidage des clés/valeurs de métadonnées. Note : les dérogations KV ne s’appliquent pas dans cette sortie. 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 0 : general.architecture str = qwen2 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 1 : general.type str = model 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 2 : general.name str = DeepSeek R1 Distill Qwen 32B 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 3 : general.basename str = DeepSeek-R1-Distill-Qwen 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 4 : general.size_label str = 32B 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 5 : qwen2.block_count u32 = 64 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 6 : qwen2.context_length u32 = 131072 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 7 : qwen2.embedding_length u32 = 5120 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 8 : qwen2.feed_forward_length u32 = 27648 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 9 : qwen2.attention.head_count u32 = 40 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 10 : qwen2.attention.head_count_kv u32 = 8 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 11 : qwen2.rope.freq_base f32 = 1000000.00000 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 12 : qwen2.attention.layer_norm_rms_epsilon f32 = 0,000010 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 13 : general.file_type u32 = 15 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 14 : tokenizer.ggml.model str = gpt2 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 15 : tokenizer.ggml.pre str = deepseek-r1-qwen 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 16 : tokenizer.ggml.tokens arr[str,152064] = [ » ! », « \" », « # », « $ », « % », « & », « ' », ... 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 17 : tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ... 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 18 : tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ », « ĠĠ ĠĠ », « i n », « Ġ t »,... 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 19 : tokenizer.ggml.bos_token_id u32 = 151646 6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 20 : tokenizer.ggml.eos_token_id u32 = 151643 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 21 : tokenizer.ggml.padding_token_id u32 = 151643 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 22 : tokenizer.ggml.add_bos_token bool = vrai 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 23 : tokenizer.ggml.add_eos_token bool = faux 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 24 : tokenizer.chat_template str = { % si ce n’est add_generation_prompt est de... 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 25 : general.quantization_version u32 = 2 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - type f32 : 321 tenseurs 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - type q4_K : 385 tensors 06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - type q6_K : 65 tenseurs 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_vocab : type de pré-tokenizer manquant ou non reconnu, utilisant : 'default' 6 février 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_vocab : special_eos_id n’est pas dans special_eog_ids - la configuration du tokenizer peut être incorrecte 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_vocab : jetons spéciaux taille du cache = 22 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_vocab : token to piece cache size = 0,9310 MB 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : format = GGUF V3 (la plus récente) 06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : arch = qwen2 06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : type de vocabulaire = BPE 06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : n_vocab = 152064 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : n_merges = 151387 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : vocab_only = 1 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : type de modèle = ? B 06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : model ftype = all F32 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : params de modèle = 32,76 B 06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : taille du modèle = 18,48 Gio (4,85 BPW) 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : general.name = DeepSeek R1 Distill Qwen 32B 06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : BOS token = 151646 '<|début de phrase|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : EOS token = 151643 '<|fin de la phrase|>' 06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : jeton EOT = 151643 '<|fin de phrase|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : PAD token = 151643 '<|fin de la phrase|>' 06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : LF token = 148848 'ÄĬ' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : FIM PRE token = 151659 '<|fim_prefix|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : token FIM SUF = 151661 '<|fim_suffix|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : FIM MID token = 151660 '<|fim_middle|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : token FIM PAD = 151662 '<|fim_pad|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : FIM REP token = 151663 '<|repo_name|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : FIM SEP token = 151664 '<|file_sep|>' 06 fév 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : EOG token = 151643 '<|fin de phrase|>' 06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : token EOG = 151662 '<|fim_pad|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : EOG token = 151663 '<|repo_name|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : EOG token = 151664 '<|file_sep|>' 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : longueur maximale du token = 256 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llama_model_load : vocabulaire uniquement - saut de tenseurs 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go :1470 msg="request chat » images=0 prompt="<|Utilisateur|>Je m’appelle Xiao Zha, qui êtes-vous ? <|Assistant|>\nBonjour, petit ! Je suis DeepSeek-R1-Lite-Preview, un assistant intelligent développé par DeepSeek, et je ferai de mon mieux pour vous aider. Y a-t-il quelque chose que je puisse faire pour vous ? <|fin de la phrase|><|Utilisateur|>Bonjour DeepSeek-R1<|Assistant|>" 6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go :104 msg="chargement du slot cache » id=0 cache=223 prompt=64 utilisé=13 restants= 51 06 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 - 21:26:24 | 200 | 6.737131375s | 172.18.0.2 | POST : « /api/chat » 06 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminé » 6 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=1 06 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 - 21:26:24 | 200 | 10.172441322s | 172.18.0.2 | POST : « /api/chat » 06 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminée » 6 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go :339 msg="le coureur à durée non nulle est inactif, ajout du minuteur » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durée=2562047h47m16.854775807s 6 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0 Référence:
La connexion hyperlientérée est visible.
La connexion hyperlientérée est visible. |