Este artículo es un artículo espejo de traducción automática, por favor haga clic aquí para saltar al artículo original.

Vista: 1610|Respuesta: 2

[IA] (5) Imprimir la información de la solicitud Ollama

[Copiar enlace]
Publicado el 6-2025 21:48:36 | | | |
Requisitos: Desplegé el modelo DeepSeek-R1 usando Ollama y quería ver la información de las solicitudes de algunos plugins para entender los detalles. Por ejemplo: Abrir WebUI, continuar, cline, Roo Code, etc.

Revisión:

【AI】(3) Tencent Cloud despliega DeepSeek-R1 con un tutorial de HAI
https://www.itsvse.com/thread-10931-1-1.html

[IA] (4) Usar OpenWebUI para llamar al modelo DeepSeek-R1
https://www.itsvse.com/thread-10934-1-1.html

Para imprimir la solicitud de entrada en el lado del servidor, necesitas activar el modo Debug. editar/etc/systemd/system/ollama.service.d/override.confArchivo, añade la siguiente configuración:


Recarga y comienza el servicio ollama con el siguiente comando:


Utiliza journalctl para ver los registros de salida del servicio con el siguiente comando:


Utiliza Open WebUI para llamar a ollama y hacer pruebas, como se muestra en la imagen de abajo:



Los registros son los siguientes:

06 feb 21:25:48 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/06 2025 - 21:25:48 | 200 |  6.186257471s |      172.18.0.2 | POST "/api/chat"
06 feb 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:407 msg="contexto para la solicitud finalizada"
6 de febrero 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:339 msg="el corredor con duración distinta de cero ha quedado inactivo, añadiendo temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duración=2562047h47m16.854775807s
06 feb 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
06 feb 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go:575 msg="evaluando ya cargado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
6 de febrero 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imágenes=0 prompt=<|Usuario|>Me llamo Xiao Zha, ¿quién eres? <|Asistente|>
06 feb 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 caché=728 prompt=13 used=2 remaining=11
06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 - 21:26:02 | 200 |  7.642182053s |      172.18.0.2 | POST "/api/chat"
06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:407 msg="contexto para la solicitud finalizada"
6 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:339 msg="el corredor con duración distinta de cero ha quedado inactivo, añadiendo temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duración=2562047h47m16.854775807s
06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go:575 msg="evaluando ya cargado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
6 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imágenes=0 prompt="<|Usuario|>### Tarea:\nGenera un título conciso de 3-5 palabras con un emoji resumiendo el historial del chat.\n### Directrices:\n- El título debe representar claramente el tema principal o el tema de la conversación.\ n- Usa emojis que mejoren la comprensión del tema, pero evita comillas o formatos especiales.\n- Escribe el título en el idioma principal del chat; por defecto al inglés si es multilingüe.\n- Prioriza la precisión sobre la creatividad excesiva; mantenlo claro y sencillo.\n### Salida:\nJSON formato: { \"título\": \"tu título conciso aquí\" }\n### Ejemplos:\n- { \"título\": \" Tendencias del mercado bursátil" },\n- { \"título\": \" Chocolate perfecto Receta de patatas fritas },\n- { \"título\": \"Evolución del streaming musical" },\n- { \"título\": \"Consejos para la productividad en el trabajo remoto" },\n- { \"título\": \"Inteligencia Artificial en la Salud" },\n- { \" título\": \" Análisis de Desarrollo de Videojuegos" }\n### Historial de chat:\n<chat_history>\nUSUARIO: Me llamo Xiao Zha, ¿quién eres? \nASISTENTE: ¡Hola, pequeño desgraciado! Soy DeepSeek-R1-Lite-Preview, un asistente inteligente desarrollado por DeepSeek, y haré todo lo posible por ayudarte. ¿Hay algo en lo que pueda ayudarte? \n</chat_history><|Asistente|>"
06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 caché=567 prompt=312 used=6 restantes= 306
06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/06 2025 - 21:26:14 | 200 | 12.263297485s |      172.18.0.2 | POST "/api/chat"
06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:407 msg="contexto para solicitud finalizada"
06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:339 msg="el corredor con duración distinta de cero ha quedado inactivo, añadiendo temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duración=2562047h47m16.854775807s
06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0
06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go:575 msg="evaluando ya cargado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imágenes=0 prompt="<|Usuario|>### Tarea: Genera de 1 a 3 etiquetas generales que categoricen los temas principales del historial de chat, junto con 1 a 3 etiquetas de subtema más específicas. Directrices: Empieza con dominios de alto nivel (por ejemplo, Ciencia, Tecnología, Filosofía, Artes, Política, Negocios, Salud, Deportes, Entretenimiento, Educación)\n- Considera incluir subcampos/subdominios relevantes si son fuertemente representado a lo largo de la conversación\n- Si el contenido es demasiado corto (menos de 3 mensajes) o demasiado diverso, usa solo [\"General\"]\n- Usa el idioma principal del chat; por defecto al inglés si es multilingüe\n- Prioriza la precisión sobre la especificidad\n\n### Salida:\nJSON formato: { \"tags\": [\"tag1\", \"tag2\", \"tag3\"] }\n\n### Historial de chat:\n<chat_history>\nUSUARIO: Me llamo Xiao Zha, ¿quién eres? \nASISTENTE: ¡Hola, pequeño desgraciado! Soy DeepSeek-R1-Lite-Preview, un asistente inteligente desarrollado por DeepSeek, y haré todo lo posible por ayudarte. ¿Hay algo en lo que pueda ayudarte? \n</chat_history><|Asistente|>"
06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=637 prompt=249 used=7 restantes= 242
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go:575 msg="evaluando ya cargado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go:966 msg="nuevo runner detectado, modelo de carga para tokenización de cgo"
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: cargado metadatos con 26 pares clave-valor y 771 tensores de /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 (versión GGUF V3 (última))
6 de febrero 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Volcar claves/valores de metadatos. Nota: Las sobrescrituras KV no se aplican en esta salida.
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 0: general.architecture str = qwen2
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 1: general.type str = model
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 2: general.name str = DeepSeek R1 Distill Qwen 32B
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 3: general.basename str = DeepSeek-R1-Distill-Qwen
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 4: general.size_label str = 32B
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 5: qwen2.block_count u32 = 64
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 6: qwen2.context_length u32 = 131072
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 7: qwen2.embedding_length u32 = 5120
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 8: qwen2.feed_forward_length u32 = 27648
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 9: qwen2.attention.head_count u32 = 40
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 10: qwen2.attention.head_count_kv u32 = 8
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 11: qwen2.rope.freq_base f32 = 1000000.00000
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 12: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000010
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 13: general.file_type u32 = 15
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 14: tokenizer.ggml.model str = gpt2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 15: tokenizer.ggml.pre str = deepseek-r1-qwen
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 16: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ...
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 17: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 18: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 19: tokenizer.ggml.bos_token_id u32 = 151646
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 20: tokenizer.ggml.eos_token_id u32 = 151643
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 21: tokenizer.ggml.padding_token_id u32 = 151643
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 22: tokenizer.ggml.add_bos_token bool = true
6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 23: tokenizer.ggml.add_eos_token bool = false
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 24: tokenizer.chat_template str = {% si no add_generation_prompt es de...
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 25: general.quantization_version u32 = 2
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo f32: 321 tensores
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo q4_K: 385 tensores
06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo q6_K: 65 tensores
6 de febrero 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: falta o no reconoce el tipo de pre-tokenizador, usando: 'default'
06 de febrero 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special_eos_id no está en special_eog_ids - la configuración del tokenizador puede ser incorrecta
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: token especiales tamaño de caché = 22
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: token a pieza tamaño caché = 0,9310 MB
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: format = GGUF V3 (más reciente)
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: arch = qwen2
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: tipo de vocabulario = BPE
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_vocab = 152064
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_merges = 151387
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab_only = 1
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: tipo de modelo = ? B
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model ftype = all F32
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model params = 32.76 B
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: tamaño del modelo = 18,48 GiB (4,85 BPW)
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: general.name = DeepSeek R1 Distill Qwen 32B
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: BOS token = 151646 '<|inicio de la frase|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOS token = 151643 '<|fin de la frase|>'
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOT token = 151643 '<|fin de frase|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: PAD token = 151643 '<|fin de la frase|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: LF token = 148848 'ÄĬ'
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PRE token = 151659 '<|fim_prefix|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM SUF = 151661 '<|fim_suffix|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM MID token = 151660 '<|fim_middle|>'
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM PAD = 151662 '<|fim_pad|>'
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM REP = 151663 '<|repo_name|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token SEP FIM = 151664 '<|file_sep|>'
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151643 '<|fin de la frase|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151662 '<|fim_pad|>'
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151663 '<|repo_name|>'
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151664 '<|file_sep|>'
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: longitud máxima del token = 256
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llama_model_load: solo vocabulario - saltándose tensores
6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imágenes=0 prompt="<|Usuario|>Me llamo Xiao Zha, ¿quién eres? <|Asistente|>\n¡Hola, pequeño desgraciado! Soy DeepSeek-R1-Lite-Preview, un asistente inteligente desarrollado por DeepSeek, y haré todo lo posible por ayudarte. ¿Hay algo en lo que pueda ayudarte? <|fin de la frase|><|Usuario|>Hola DeepSeek-R1<|Asistente|>"
06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=223 prompt=64 used=13 restantes= 51
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 06 - 21:26:24 | 200 |  6.737131375s |      172.18.0.2 | POST "/api/chat"
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:407 msg="contexto para la solicitud finalizada"
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:357 msg="tras procesar evento finalizado la solicitud" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=1
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 06 - 21:26:24 | 200 | 10.172441322s |      172.18.0.2 | POST "/api/chat"
06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:407 msg="contexto para la solicitud finalizada"
6 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:339 msg="el corredor con duración distinta de cero ha quedado inactivo, añadiendo temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duración=2562047h47m16.854775807s
6 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:357 msg="tras procesar la solicitud finalizó evento" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0

Referencia:
El inicio de sesión del hipervínculo es visible.
El inicio de sesión del hipervínculo es visible.




Anterior:[IA] (4) Usar OpenWebUI para llamar al modelo DeepSeek-R1
Próximo:[IA] (6) Una breve introducción al formato de archivo de modelo grande GGUF
 Propietario| Publicado el 6-2025 21:53:55 |
También puedes editar el archivo de servicio ollama usando el siguiente comando:


Cuando ejecutas este comando, se abre un editor de texto (normalmente vi o nano) que te permite editar el archivo /etc/systemd/system/ollama.service.
 Propietario| Publicado el 7-02-2025 09:08:25 |
Linux analiza la salida de registro del servicio Systemd
https://www.itsvse.com/thread-10154-1-1.html
Renuncia:
Todo el software, materiales de programación o artículos publicados por Code Farmer Network son únicamente para fines de aprendizaje e investigación; El contenido anterior no se utilizará con fines comerciales o ilegales; de lo contrario, los usuarios asumirán todas las consecuencias. La información de este sitio proviene de Internet, y las disputas de derechos de autor no tienen nada que ver con este sitio. Debes eliminar completamente el contenido anterior de tu ordenador en un plazo de 24 horas desde la descarga. Si te gusta el programa, por favor apoya el software genuino, compra el registro y obtén mejores servicios genuinos. Si hay alguna infracción, por favor contáctanos por correo electrónico.

Mail To:help@itsvse.com