Este artigo é um artigo espelhado de tradução automática, por favor clique aqui para ir para o artigo original.

Vista: 1610|Resposta: 2

[IA] (5) Imprima as informações do pedido Ollama

[Copiar link]
Postado em 2025-2-6 21:48:36 | | | |
Requisitos: Implantei o modelo DeepSeek-R1 usando o Ollama e queria visualizar as informações de solicitação de alguns plugins para entender os detalhes. Por exemplo: Open WebUI, continue, cline, Roo Code, etc.

Revisar:

【AI】(3) Tencent Cloud implanta DeepSeek-R1 com tutorial de HAI
https://www.itsvse.com/thread-10931-1-1.html

[IA] (4) Use o OpenWebUI para chamar o modelo DeepSeek-R1
https://www.itsvse.com/thread-10934-1-1.html

Para imprimir a solicitação de entrada no lado do servidor, você precisa ativar o modo Debug. editar/etc/systemd/system/ollama.service.d/override.confArquivo, adicione a seguinte configuração:


Recarregue e inicie o serviço ollama com o seguinte comando:


Use journalctl para visualizar os logs de saída do serviço com o seguinte comando:


Use o Open WebUI para chamar ollama para testes, como mostrado na imagem abaixo:



Os registros são os seguintes:

06 de fevereiro 21:25:48 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 06 - 21:25:48 | 200 |  6.186257471s |      172.18.0.2 | POST "/api/chat"
06 de fevereiro 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:407 msg="contexto para requisição finalizado"
06 fev 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:339 msg="runner com duração diferente de zero ficou ocioso, adicionando temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duração=2562047h47m16.854775807s
06 de fevereiro 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:357 msg="após processar o evento finalizou a solicitação" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
06 fev 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go:575 msg="avaliando já carregado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 de fevereiro 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imagens=0 prompt=<|Usuário|>Meu nome é Xiao Zha, quem é você? <|Assistente|>
06 fev 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go:104 msg="carregando slot de cache" id=0 cache=728 prompt=13 used=2 restantes=11
06 fev 21:26:02 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 - 21:26:02 | 200 |  7.642182053s |      172.18.0.2 | POST "/api/chat"
06 de fevereiro 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:407 msg="contexto para requisição finalizada"
06 de fevereiro 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:339 msg="runner com duração diferente de zero ficou ocioso, adicionando temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duração=2562047h47m16.854775807s
06 fev 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:357 msg="após processar o pedido evento finalizado" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
06 fev 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go:575 msg="avaliando já carregado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 de fevereiro 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imagens=0 prompt="<|Usuário|>### Tarefa:\nGerar um título conciso, de 3-5 palavras, com um emoji resumindo o histórico do chat.\n### Diretrizes:\n- O título deve representar claramente o tema principal ou assunto da conversa.\ n- Use emojis que melhorem a compreensão do assunto, mas evite aspas ou formatação especial.\n- Escreva o título no idioma principal do chat; padrão para o inglês se for multilíngue. Priorize a precisão em vez da criatividade excessiva; mantenha claro e simples.\n### Saída:\nJSON formato: { \"título\": \"seu título conciso aqui\" }\n### Exemplos:\n- { \"título\": \"Tendências do Mercado de Ações\" },\n- { \"título\": \" Chocolate Perfeito Receita de Batatas Fritas\" },\n- { \"título\": \"Evolução do Streaming de Música" },\n- { \"título\": \"Dicas de Produtividade no Trabalho Remoto" },\n- { \"título\": \"Inteligência Artificial na Saúde" },\n- { \" título\": \" Insights sobre Desenvolvimento de Videogame\" }\n### Histórico de Chat:\n<chat_history>\nUSUÁRIO: Meu nome é Xiao Zha, quem é você? \nASSISTENTE: Olá, seu pequeno! Sou DeepSeek-R1-Lite-Preview, um assistente inteligente desenvolvido pela DeepSeek, e farei o possível para ajudar vocês. Posso fazer algo por você? \n</chat_history><|Assistente|>"
06 fev 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go:104 msg="carregando slot de cache" id=1 cache=567 prompt=312 used=6 restantes= 306
06 de fevereiro 21:26:14 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 - 21:26:14 | 200 | 12.263297485s |      172.18.0.2 | POST "/api/chat"
06 fev 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:407 msg="contexto para solicitação finalizada"
06 de fevereiro 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:339 msg="runner com duração diferente de zero ficou ocioso, adicionando temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duração=2562047h47m16.854775807s
06 fev 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:357 msg="após processar o evento finalizado da solicitação" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
06 fev 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go:575 msg="avaliando já carregado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 fev 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>### Tarefa: Gerar de 1 a 3 tags amplas categorizando os principais temas do histórico do chat, junto com 1 a 3 tags de subtópico mais específicas. Diretrizes: Comece com domínios de alto nível (por exemplo, Ciência, Tecnologia, Filosofia, Artes, Política, Negócios, Saúde, Esportes, Entretenimento, Educação)\n - Considere incluir subáreas/subdomínios relevantes se forem fortes representado ao longo da conversa\n- Se o conteúdo for muito curto (menos de 3 mensagens) ou muito diverso, use apenas [\"General\"]\n- Use o idioma principal do chat; padrão para inglês se for multilíngue\n- Priorize a precisão em vez da especificidade\n### Saída:\nJSON formato: { \"tags\": [\"tag1\", \"tag2\", \"tag3\"] }\n\n### Histórico de Chat:\n<chat_history>\nUSUÁRIO: Meu nome é Xiao Zha, quem é você? \nASSISTENTE: Olá, seu pequeno! Sou DeepSeek-R1-Lite-Preview, um assistente inteligente desenvolvido pela DeepSeek, e farei o possível para ajudar vocês. Posso fazer algo por você? \n</chat_history><|Assistente|>"
06 fev 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go:104 msg="carregando slot de cache" id=1 cache=637 prompt=249 used=7 restantes= 242
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go:575 msg="avaliando já carregado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go:966 msg="novo runner detectado, carregando modelo para tokenização cgo"
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: carregado metadados com 26 pares chave-valor e 771 tensores de /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 (versão GGUF V3 (mais recente))
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Despejando chaves/valores de metadados. Nota: As sobreposições KV não se aplicam nesta saída.
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 0: general.architecture str = qwen2
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 1: general.type str = model
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 2: general.name str = DeepSeek R1 Distill Qwen 32B
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 3: general.basename str = DeepSeek-R1-Distill-Qwen
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 4: general.size_label str = 32B
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 5: qwen2.block_count u32 = 64
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 6: qwen2.context_length u32 = 131072
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 7: qwen2.embedding_length u32 = 5120
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 8: qwen2.feed_forward_length u32 = 27648
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 9: qwen2.attention.head_count u32 = 40
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 10: qwen2.attention.head_count_kv u32 = 8
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 11: qwen2.rope.freq_base f32 = 1000000.00000
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 12: qwen2.attention.layer_norm_rms_epsilon f32 = 0,000010
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 13: general.file_type u32 = 15
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 14: tokenizer.ggml.model str = gpt2
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 15: tokenizer.ggml.pre str = deepseek-r1-qwen
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 16: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ...
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 17: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 18: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 19: tokenizer.ggml.bos_token_id u32 = 151646
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 20: tokenizer.ggml.eos_token_id u32 = 151643
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 21: tokenizer.ggml.padding_token_id u32 = 151643
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 22: tokenizer.ggml.add_bos_token bool = true
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 23: tokenizer.ggml.add_eos_token bool = false
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 24: tokenizer.chat_template str = {% se não add_generation_prompt é de...
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 25: general.quantization_version u32 = 2
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo f32: 321 tensores
06 fev 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo q4_K: 385 tensores
06 de fevereiro 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo q6_K: 65 tensores
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: tipo pré-tokenizador ausente ou não reconhecido, usando: 'default'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special_eos_id não está em special_eog_ids - a configuração do tokenizer pode estar incorreta
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: token especiais tamanho do cache = 22
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: token para cache de peça = 0,9310 MB
06 fev 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: format = GGUF V3 (mais recente)
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: arch = qwen2
06 fev 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocabulário tipo = BPE
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_vocab = 152064
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_merges = 151387
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab_only = 1
06 fev 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: tipo de modelo = ? B
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model ftype = all F32
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: parâmetros modelo = 32,76 B
06 fev 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: tamanho do modelo = 18,48 GiB (4,85 BPW)
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: general.name = DeepSeek R1 Distill Qwen 32B
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token BOS = 151646 '<|início da frase|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token EOS = 151643 '<|fim da frase|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token EOT = 151643 '<|fim da frase|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: PAD token = 151643 '<|fim da frase|>'
06 fev 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token LF = 148848 'ÄĬ'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token PRE FIM = 151659 '<|fim_prefix|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM SUF = 151661 '<|fim_suffix|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token MID FIM = 151660 '<|fim_middle|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM PAD = 151662 '<|fim_pad|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token REP FIM = 151663 '<|repo_name|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token SEP FIM = 151664 '<|file_sep|>'
06 fev 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token EOG = 151643 '<|fim da frase|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token EOG = 151662 '<|fim_pad|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token EOG = 151663 '<|repo_name|>'
06 fev 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151664 '<|file_sep|>'
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: comprimento máximo do token = 256
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: llama_model_load: apenas vocabulário - pulando tensores
06 de fevereiro 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imagens=0 prompt="<|Usuário|>Meu nome é Xiao Zha, quem é você? <|Assistente|>\nOlá, seu pequeno! Sou DeepSeek-R1-Lite-Preview, um assistente inteligente desenvolvido pela DeepSeek, e farei o possível para ajudar vocês. Posso fazer algo por você? <|fim da frase|><|Usuário|>Olá DeepSeek-R1<|Assistente|>"
06 fev 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go:104 msg="carregando slot de cache" id=0 cache=223 prompt=64 used=13 restantes= 51
06 de fevereiro 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 - 21:26:24 | 200 |  6.737131375s |      172.18.0.2 | POST "/api/chat"
06 fev 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:407 msg="contexto para requisição finalizada"
06 fev 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:357 msg="após processar o pedido finalizou evento" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=1
06 de fevereiro 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 - 21:26:24 | 200 | 10.172441322s |      172.18.0.2 | POST "/api/chat"
06 de fevereiro 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:407 msg="contexto para requisição concluído"
06 de fevereiro 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:339 msg="runner com duração diferente de zero ficou ocioso, adicionando temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duração=2562047h47m16.854775807s
06 de fevereiro 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:357 msg="após processar o pedido finalizou evento" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0

Referência:
O login do hiperlink está visível.
O login do hiperlink está visível.




Anterior:[IA] (4) Use o OpenWebUI para chamar o modelo DeepSeek-R1
Próximo:[IA] (6) Uma breve introdução ao formato de arquivo de modelo grande GGUF
 Senhorio| Postado em 2025-2-6 21:53:55 |
Você também pode editar o arquivo de serviço ollama usando o seguinte comando:


Quando você executa esse comando, um editor de texto (geralmente vi ou nano) se abre e permite editar o arquivo /etc/systemd/system/ollama.service.
 Senhorio| Postado em 09:08:25 em 2025 |
O Linux analisa a saída de logs do serviço Systemd
https://www.itsvse.com/thread-10154-1-1.html
Disclaimer:
Todo software, material de programação ou artigos publicados pela Code Farmer Network são apenas para fins de aprendizado e pesquisa; O conteúdo acima não deve ser usado para fins comerciais ou ilegais, caso contrário, os usuários terão todas as consequências. As informações deste site vêm da Internet, e disputas de direitos autorais não têm nada a ver com este site. Você deve deletar completamente o conteúdo acima do seu computador em até 24 horas após o download. Se você gosta do programa, por favor, apoie um software genuíno, compre o registro e obtenha serviços genuínos melhores. Se houver qualquer infração, por favor, entre em contato conosco por e-mail.

Mail To:help@itsvse.com