Questo articolo è un articolo speculare di traduzione automatica, clicca qui per saltare all'articolo originale.

Vista: 1610|Risposta: 2

[AI] (5) Stampa le informazioni della richiesta Ollama

[Copiato link]
Pubblicato il 6-2-2025 21:48:36 | | | |
Requisiti: Ho distribuito il modello DeepSeek-R1 usando Ollama e volevo visualizzare le informazioni richieste da alcuni plugin per capirne i dettagli. Ad esempio: Open WebUI, continue, cline, Roo Code, ecc.

Recensione:

【AI】(3) Tencent Cloud distribuisce DeepSeek-R1 con tutorial HAI
https://www.itsvse.com/thread-10931-1-1.html

[AI] (4) Usa OpenWebUI per chiamare il modello DeepSeek-R1
https://www.itsvse.com/thread-10934-1-1.html

Per stampare la richiesta di input lato server, devi abilitare la modalità Debug. redigere/etc/systemd/system/ollama.service.d/override.conffile, aggiungi la seguente configurazione:


Ricarica e avvia il servizio ollama con il seguente comando:


Usa journalctl per visualizzare i log di output del servizio con il seguente comando:


Usa Open WebUI per chiamare ollama per i test, come mostrato nell'immagine qui sotto:



I registri sono i seguenti:

Feb 06 21:25:48 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:25:48 | 200 |  6.186257471s |      172.18.0.2 | POST "/api/chat"
Feb 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:407 msg="contesto per la richiesta completato"
Feb 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:339 msg="il runner con durata non zero è andato inattivo, aggiungo timer" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durata=2562047h47m16.854775807s
06 feb 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:357 msg="dopo aver elaborato la richiesta evento terminato" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
Feb 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go:575 msg="valutazione già caricato" modello=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
Feb 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go:1470 msg="chat request" immagini=0 prompt=<|Utente|>Mi chiamo Xiao Zha, chi sei? <|Assistente|>
06 feb 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=728 prompt=13 used=2 remaining=11
06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 - 21:26:02 | 200 |  7.642182053s |      172.18.0.2 | POST "/api/chat"
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:407 msg="contesto per la richiesta completata"
06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:339 msg="il runner con durata non zero è andato inattivo, aggiunge timer" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durata=2562047h47m16.854775807s
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:357 msg="dopo l'elaborazione della richiesta evento terminato" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go:575 msg="valutazione già caricato" modello=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go:1470 msg="chat request" immagini=0 prompt="<|User|>### Compito:\nGenera un titolo conciso di 3-5 parole con un'emoji che riassuma la cronologia della chat.\n### Linee guida:\n- Il titolo dovrebbe rappresentare chiaramente il tema principale o l'argomento della conversazione.\ n- Usa emoji che migliorano la comprensione dell'argomento, ma evita virgolette o formattazioni speciali.\n- Scrivi il titolo nella lingua principale della chat; predefinito all'inglese se sono multilingue.\n- Dare priorità alla precisione rispetto alla creatività eccessiva; Tieni tutto chiaro e semplice.\n### Output:\nJSON format: { \"titolo\": \"il tuo titolo conciso qui\" }\n### Esempi: \n- { \"titolo\": \"Tendenze del Borsa\" },\n- { \"titolo\": \" Cioccolato Perfetto Ricetta delle patatini\" },\n- { \"titolo": \"Evoluzione dello streaming musicale" },\n- { \"titolo": \"Consigli per la produttività nel lavoro da remoto" },\n- { \"titolo": \"Intelligenza Artificiale nella Salute" },\n- { \" titolo\": \" Video Game Development Insights\" }\n### Cronologia chat:\n<chat_history>\nUSER: Mi chiamo Xiao Zha, chi sei? \nASSISTENTE: Ciao, piccolo bastardo! Sono DeepSeek-R1-Lite-Preview, un assistente intelligente sviluppato da DeepSeek, e farò del mio meglio per aiutarti. C'è qualcosa che posso fare per te? \n</chat_history><|Assistente|>"
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go:104 msg="caricamento slot cache" id=1 cache=567 prompt=312 used=6 rimanente= 306
06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 06 - 21:26:14 | 200 | 12.263297485s |      172.18.0.2 | POST "/api/chat"
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:407 msg="contesto per la richiesta completata"
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:339 msg="il runner con durata non zero è andato inattivo, aggiungo timer" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durata=2562047h47m16.854775807s
06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" modello=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>### Compito:\nGenera 1-3 tag generici che categorizzino i temi principali della cronologia della chat, insieme a 1-3 tag sotto-topic più specifici.\n### Linee guida:\n- Inizia con domini di alto livello (ad esempio, Scienza, Tecnologia, Filosofia, Arti, Politica, Economia, Salute, Sport, Intrattenimento, Educazione)\n- Considera di includere sottocampi/sottodomini rilevanti se sono fortemente rappresentata durante la conversazione\n- Se il contenuto è troppo breve (meno di 3 messaggi) o troppo vario, usa solo [\"General\"]\n- Usa la lingua principale della chat; predefinito all'inglese se sono multilingue\n- Dare priorità all'accuratezza rispetto alla specificità\n\n### Output:\nJSON format: { \"tags\": [\"tag1\", \"tag2\", \"tag3\"] }\n\n### Cronologia chat:\n<chat_history>\nUSER: Mi chiamo Xiao Zha, chi sei? \nASSISTENTE: Ciao, piccolo bastardo! Sono DeepSeek-R1-Lite-Preview, un assistente intelligente sviluppato da DeepSeek, e farò del mio meglio per aiutarti. C'è qualcosa che posso fare per te? \n</chat_history><|Assistente|>"
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go:104 msg="carica cache slot" id=1 cache=637 prompt=249 used=7 remaine= 242
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" modello=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go:966 msg="nuovo runner rilevato, modello di caricamento per la tokenizzazione cgo"
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: caricato metadati con 26 coppie chiave-valore e 771 tensori da /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 (versione GGUF V3 (ultima))
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Dump delle chiavi/valori dei metadati. Nota: le sovrascritture KV non si applicano in questa uscita.
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 0: general.architecture str = qwen2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 1: general.type str = model
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 2: general.name str = DeepSeek R1 Distill Qwen 32B
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv   3:                           general.basename str              = DeepSeek-R1-Distill-Qwen
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 4: general.size_label str = 32B
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 5: qwen2.block_count u32 = 64
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 6: qwen2.context_length u32 = 131072
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 7: qwen2.embedding_length u32 = 5120
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 8: qwen2.feed_forward_length u32 = 27648
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 9: qwen2.attention.head_count u32 = 40
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 10: qwen2.attention.head_count_kv u32 = 8
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 11: qwen2.rope.freq_base f32 = 1000000.00000
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 12: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000010
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 13: general.file_type u32 = 15
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 14: tokenizer.ggml.model str = gpt2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 15: tokenizer.ggml.pre str = deepseek-r1-qwen
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 16: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ...
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 17: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 18: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 19: tokenizer.ggml.bos_token_id u32 = 151646
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 20: tokenizer.ggml.eos_token_id u32 = 151643
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 21: tokenizer.ggml.padding_token_id u32 = 151643
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 22: tokenizer.ggml.add_bos_token bool = true
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 23: tokenizer.ggml.add_eos_token bool = false
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 24: tokenizer.chat_template str = {% se non add_generation_prompt è de...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 25: general.quantization_version u32 = 2
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo f32: 321 tensori
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo q4_K: 385 tensori
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo q6_K: 65 tensori
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: tipo pre-tokenizzatore mancante o non riconosciuto, utilizzando: 'default'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special_eos_id non è in special_eog_ids - la configurazione del tokenizer potrebbe essere errata
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special tokens cache size = 22
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: dimensione cache del token a pezzo = 0,9310 MB
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: format = GGUF V3 (ultimo)
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: arch = qwen2
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab type       = BPE
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_vocab = 152064
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_merges = 151387
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab_only = 1
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: modello tipo = ? B
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model ftype      = all F32
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model params = 32.76 B
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: dimensione modello = 18,48 GiB (4,85 BPW)
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: general.name = DeepSeek R1 Distill Qwen 32B
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token BOS = 151646 '<|inizio frase|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOS token = 151643 '<|fine della frase|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOT token = 151643 '<|fine della frase|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: PAD token = 151643 '<|fine della frase|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: LF token = 148848 'ÄĬ'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PRE token = 151659 '<|fim_prefix|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM SUF = 151661 '<|fim_suffix|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM MID token = 151660 '<|fim_middle|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM PAD = 151662 '<|fim_pad|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token REP FIM = 151663 '<|repo_name|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SEP token = 151664 '<|file_sep|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151643 '<|fine della frase|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151662 '<|fim_pad|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151663 '<|repo_name|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151664 '<|file_sep|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: lunghezza massima del token = 256
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llama_model_load: solo vocabolario - saltando i tensori
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go:1470 msg="chat request" immagini=0 prompt="<|Utente|>Mi chiamo Xiao Zha, chi sei? <|Assistente|>\nCiao, piccolo bastardo! Sono DeepSeek-R1-Lite-Preview, un assistente intelligente sviluppato da DeepSeek, e farò del mio meglio per aiutarti. C'è qualcosa che posso fare per te? <|fine della frase|><|Utente|>Ciao DeepSeek-R1<|Assistente|>"
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go:104 msg="carica slot cache" id=0 cache=223 prompt=64 used=13 rimanenti= 51
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 - 21:26:24 | 200 |  6.737131375s |      172.18.0.2 | POST "/api/chat"
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:407 msg="contesto per la richiesta completata"
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=1
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 - 21:26:24 | 200 | 10.172441322s |      172.18.0.2 | POST "/api/chat"
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:407 msg="contesto per la richiesta terminato"
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:339 msg="il runner con durata non zero è andato inattivo, aggiungo timer" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 durata=2562047h47m16.854775807s
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0

Riferimento:
Il login del link ipertestuale è visibile.
Il login del link ipertestuale è visibile.




Precedente:[AI] (4) Usa OpenWebUI per chiamare il modello DeepSeek-R1
Prossimo:[AI] (6) Una breve introduzione al formato file di grande modello GGUF
 Padrone di casa| Pubblicato il 6-2-2025 21:53:55 |
Puoi anche modificare il file di servizio ollama usando il seguente comando:


Quando esegui questo comando, si apre un editor di testo (di solito vi o nano) che ti permette di modificare il file /etc/systemd/system/ollama.service.
 Padrone di casa| Pubblicato il 7-2-2025 09:08:25 |
Linux esamina l'output log del servizio Systemd
https://www.itsvse.com/thread-10154-1-1.html
Disconoscimento:
Tutto il software, i materiali di programmazione o gli articoli pubblicati dalla Code Farmer Network sono destinati esclusivamente all'apprendimento e alla ricerca; I contenuti sopra elencati non devono essere utilizzati per scopi commerciali o illegali, altrimenti gli utenti dovranno sostenere tutte le conseguenze. Le informazioni su questo sito provengono da Internet, e le controversie sul copyright non hanno nulla a che fare con questo sito. Devi eliminare completamente i contenuti sopra elencati dal tuo computer entro 24 ore dal download. Se ti piace il programma, ti preghiamo di supportare software autentico, acquistare la registrazione e ottenere servizi autentici migliori. In caso di violazione, vi preghiamo di contattarci via email.

Mail To:help@itsvse.com