Cet article est un article miroir de traduction automatique, veuillez cliquer ici pour accéder à l’article original.

Vue: 1610|Répondre: 2

[IA] (5) Imprimez les informations de la demande Ollama

[Copié le lien]
Publié le 6-02-2025 à 21:48:36 | | | |
Exigences : J’ai déployé le modèle DeepSeek-R1 avec Ollama et je voulais consulter les informations de demande provenant de certains plugins pour en comprendre les détails. Par exemple : Ouvrir WebUI, continuer, cline, Roo Code, etc.

Révision:

【AI】(3) Tencent Cloud déploie DeepSeek-R1 avec un tutoriel HAI
https://www.itsvse.com/thread-10931-1-1.html

[IA] (4) Utiliser Open WebUI pour appeler le modèle DeepSeek-R1
https://www.itsvse.com/thread-10934-1-1.html

Pour imprimer la requête d’entrée côté serveur, vous devez activer le mode Débogage. éditer/etc/systemd/system/ollama.service.d/override.confAjoutez la configuration suivante :


Rechargez et lancez le service ollama avec la commande suivante :


Utilisez journalctl pour consulter les journaux de sortie du service avec la commande suivante :


Utilisez Open WebUI pour appeler ollama afin de tester, comme montré dans l’image ci-dessous :



Les journaux sont les suivants :

06 févr. 21:25:48 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 06 - 21:25:48 | 200 |  6.186257471s |      172.18.0.2 | POST : « /api/chat »
06 févr. 21:25:48 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminé »
6 févr. 21:25:48 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go :339 msg="le coureur à durée non nulle est devenu inactif, ajout du minuteur » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durée=2562047h47m16.854775807s
6 févr. 21:25:48 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
6 févr. 21:25:54 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go :575 msg="évaluation déjà chargé » modèle=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 févr. 21:25:54 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go :1470 msg="chat request » images=0 prompt=<|Utilisateur|>Je m’appelle Xiao Zha, qui êtes-vous ? <|Assistant|>
6 févr. 21:25:54 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go :104 msg="chargement de cache slot » id=0 cache=728 prompt=13 utilisé=2 restant=11
06 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 - 21:26:02 | 200 |  7.642182053s |      172.18.0.2 | POST : « /api/chat »
06 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminée »
06 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go :339 msg="le coureur à durée non nulle est devenu inactif, ajout du minuteur » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durée=2562047h47m16.854775807s
6 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
6 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go :575 msg="évaluation déjà chargé » modèle=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
6 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go :1470 msg="chat request » images=0 prompt="<|User|>### Tâche : Générez un titre concis de 3 à 5 mots avec un emoji résumant l’historique du chat.\n### Directives : - Le titre doit clairement représenter le thème principal ou le sujet de la conversation. n- Utilisez des emojis qui améliorent la compréhension du sujet, mais évitez les guillemets ou la mise en forme spéciale.\n- Écrivez le titre dans la langue principale du chat ; par défaut en anglais si vous êtes multilingue. \n - Privilégiez la précision plutôt que la créativité excessive ; Reste clair et simple.\n### Sortie : \nJSON format : { \"title\ » : \"your brief title ici\ » }\n### Exemples : \n- { \"title\ » : \"Tendances du marché boursier » },\n- { \"title\ » : \ » Perfect Chocolate Recette de chip\ » },\n- { \"titre\ » : \"Évolution du streaming musical » },\n- { \"titre\ » : \"Conseils de productivité en télétravail » },\n- { \"titre\ » : \"Intelligence artificielle dans la santé » },\n- { \ » titre\ » : \ » Analyses sur le développement de jeux vidéo » }\n### Historique du chat :\n<chat_history>\nUTILISATEUR : Je m’appelle Xiao Zha, qui êtes-vous ? \nASSISTANT : Bonjour, petit ! Je suis DeepSeek-R1-Lite-Preview, un assistant intelligent développé par DeepSeek, et je ferai de mon mieux pour vous aider. Y a-t-il quelque chose que je puisse faire pour vous ? \n</chat_history><|Assistant|>"
6 févr. 21:26:02 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go :104 msg="chargement de l’emplacement cache » id=1 cache=567 prompt=312 used=6 restant= 306
06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 - 21:26:14 | 200 | 12.263297485s |      172.18.0.2 | POST : « /api/chat »
6 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminée »
06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go :339 msg="le coureur à durée non nulle est devenu inactif, ajout du minuteur » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durée=2562047h47m16.854775807s
06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go :575 msg="évaluation déjà chargé » modèle=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go :1470 msg="chat request » images=0 prompt="<|User|>### Tâche : Générer 1 à 3 balises larges catégorisant les thèmes principaux de l’historique du chat, ainsi que 1 à 3 balises de sous-thèmes plus spécifiques.\n### Directives : Commencez par des domaines de haut niveau (par exemple, Sciences, Technologie, Philosophie, Arts, Politique, Commerce, Santé, Sport, Divertissement, Éducation)\n - Envisagez d’inclure des sous-domaines/sous-domaines pertinents s’ils sont fortement représenté tout au long de la conversation\n- Si le contenu est trop court (moins de 3 messages) ou trop varié, utilisez uniquement [\"General\"]\n- Utilisez la langue principale du chat ; par défaut, en anglais si vous êtes multilingue\n- Privilégiez la précision à la spécificité\n\n### Sortie : \nJSON format : { \"tags\ » : [\"tag1\ », \"tag2\ », \"tag3\"] }\n\n### Historique du chat :\n<chat_history>\nUSER : Je m’appelle Xiao Zha, qui êtes-vous ? \nASSISTANT : Bonjour, petit ! Je suis DeepSeek-R1-Lite-Preview, un assistant intelligent développé par DeepSeek, et je ferai de mon mieux pour vous aider. Y a-t-il quelque chose que je puisse faire pour vous ? \n</chat_history><|Assistant|>"
6 févr. 21:26:14 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go :104 msg="chargement de l’emplacement cache » id=1 cache=637 prompt=249 used=7 restant= 242
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go :575 msg="évaluation déjà chargé » modèle=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go :966 msg="nouveau runner détecté, chargement du modèle pour la tokenisation cgo »
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : chargé des métadonnées avec 26 paires clé-valeur et 771 tenseurs de /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 (version GGUF V3 (la dernière version))
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : Vidage des clés/valeurs de métadonnées. Note : les dérogations KV ne s’appliquent pas dans cette sortie.
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 0 : general.architecture str = qwen2
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 1 : general.type str = model
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 2 : general.name str = DeepSeek R1 Distill Qwen 32B
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 3 : general.basename str = DeepSeek-R1-Distill-Qwen
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 4 : general.size_label str = 32B
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 5 : qwen2.block_count u32 = 64
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 6 : qwen2.context_length u32 = 131072
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 7 : qwen2.embedding_length u32 = 5120
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 8 : qwen2.feed_forward_length u32 = 27648
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 9 : qwen2.attention.head_count u32 = 40
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 10 : qwen2.attention.head_count_kv u32 = 8
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 11 : qwen2.rope.freq_base f32 = 1000000.00000
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 12 : qwen2.attention.layer_norm_rms_epsilon f32 = 0,000010
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 13 : general.file_type u32 = 15
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 14 : tokenizer.ggml.model str = gpt2
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 15 : tokenizer.ggml.pre str = deepseek-r1-qwen
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 16 : tokenizer.ggml.tokens arr[str,152064] = [ » ! », « \" », « # », « $ », « % », « & », « ' », ...
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 17 : tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 18 : tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ », « ĠĠ ĠĠ », « i n », « Ġ t »,...
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 19 : tokenizer.ggml.bos_token_id u32 = 151646
6 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 20 : tokenizer.ggml.eos_token_id u32 = 151643
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 21 : tokenizer.ggml.padding_token_id u32 = 151643
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 22 : tokenizer.ggml.add_bos_token bool = vrai
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 23 : tokenizer.ggml.add_eos_token bool = faux
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 24 : tokenizer.chat_template str = { % si ce n’est add_generation_prompt est de...
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - kv 25 : general.quantization_version u32 = 2
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - type f32 : 321 tenseurs
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - type q4_K : 385 tensors
06 févr. 21:26:17 VM-0-8-ubuntu ollama[13503] : llama_model_loader : - type q6_K : 65 tenseurs
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_vocab : type de pré-tokenizer manquant ou non reconnu, utilisant : 'default'
6 février 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_vocab : special_eos_id n’est pas dans special_eog_ids - la configuration du tokenizer peut être incorrecte
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_vocab : jetons spéciaux taille du cache = 22
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_vocab : token to piece cache size = 0,9310 MB
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : format = GGUF V3 (la plus récente)
06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : arch = qwen2
06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : type de vocabulaire = BPE
06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : n_vocab = 152064
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : n_merges = 151387
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : vocab_only = 1
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : type de modèle = ? B
06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : model ftype = all F32
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : params de modèle = 32,76 B
06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : taille du modèle = 18,48 Gio (4,85 BPW)
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : general.name = DeepSeek R1 Distill Qwen 32B
06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : BOS token = 151646 '<|début de phrase|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : EOS token = 151643 '<|fin de la phrase|>'
06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : jeton EOT = 151643 '<|fin de phrase|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : PAD token = 151643 '<|fin de la phrase|>'
06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : LF token = 148848 'ÄĬ'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : FIM PRE token = 151659 '<|fim_prefix|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : token FIM SUF = 151661 '<|fim_suffix|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : FIM MID token = 151660 '<|fim_middle|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : token FIM PAD = 151662 '<|fim_pad|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : FIM REP token = 151663 '<|repo_name|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : FIM SEP token = 151664 '<|file_sep|>'
06 fév 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : EOG token = 151643 '<|fin de phrase|>'
06 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : token EOG = 151662 '<|fim_pad|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : EOG token = 151663 '<|repo_name|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : EOG token = 151664 '<|file_sep|>'
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llm_load_print_meta : longueur maximale du token = 256
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : llama_model_load : vocabulaire uniquement - saut de tenseurs
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go :1470 msg="request chat » images=0 prompt="<|Utilisateur|>Je m’appelle Xiao Zha, qui êtes-vous ? <|Assistant|>\nBonjour, petit ! Je suis DeepSeek-R1-Lite-Preview, un assistant intelligent développé par DeepSeek, et je ferai de mon mieux pour vous aider. Y a-t-il quelque chose que je puisse faire pour vous ? <|fin de la phrase|><|Utilisateur|>Bonjour DeepSeek-R1<|Assistant|>"
6 févr. 21:26:18 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go :104 msg="chargement du slot cache » id=0 cache=223 prompt=64 utilisé=13 restants= 51
06 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 - 21:26:24 | 200 |  6.737131375s |      172.18.0.2 | POST : « /api/chat »
06 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminé »
6 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=1
06 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : [GIN] 02/02/2025 - 21:26:24 | 200 | 10.172441322s |      172.18.0.2 | POST : « /api/chat »
06 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go :407 msg="contexte pour la requête terminée »
6 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go :339 msg="le coureur à durée non nulle est inactif, ajout du minuteur » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durée=2562047h47m16.854775807s
6 févr. 21:26:24 VM-0-8-ubuntu ollama[13503] : time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go :357 msg="after processing request ended event » modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0

Référence:
La connexion hyperlientérée est visible.
La connexion hyperlientérée est visible.




Précédent:[IA] (4) Utiliser Open WebUI pour appeler le modèle DeepSeek-R1
Prochain:[IA] (6) Brève introduction au format de fichier grand modèle GGUF
 Propriétaire| Publié le 6-02-2025 à 21:53:55 |
Vous pouvez également modifier le fichier de service ollama à l’aide de la commande suivante :


Lorsque vous exécutez cette commande, un éditeur de texte (généralement vi ou nano) s’ouvre et vous permet d’éditer le fichier /etc/systemd/system/ollama.service.
 Propriétaire| Publié le 07-02-2025 à 09:08:25 |
Linux examine la sortie journalière du service Systemd
https://www.itsvse.com/thread-10154-1-1.html
Démenti:
Tous les logiciels, supports de programmation ou articles publiés par Code Farmer Network sont uniquement destinés à l’apprentissage et à la recherche ; Le contenu ci-dessus ne doit pas être utilisé à des fins commerciales ou illégales, sinon les utilisateurs assumeront toutes les conséquences. Les informations sur ce site proviennent d’Internet, et les litiges de droits d’auteur n’ont rien à voir avec ce site. Vous devez supprimer complètement le contenu ci-dessus de votre ordinateur dans les 24 heures suivant le téléchargement. Si vous aimez le programme, merci de soutenir un logiciel authentique, d’acheter l’immatriculation et d’obtenir de meilleurs services authentiques. En cas d’infraction, veuillez nous contacter par e-mail.

Mail To:help@itsvse.com