Requisitos: Desplegé el modelo DeepSeek-R1 usando Ollama y quería ver la información de las solicitudes de algunos plugins para entender los detalles. Por ejemplo: Abrir WebUI, continuar, cline, Roo Code, etc.
Revisión:
Para imprimir la solicitud de entrada en el lado del servidor, necesitas activar el modo Debug. editar/etc/systemd/system/ollama.service.d/override.confArchivo, añade la siguiente configuración:
Recarga y comienza el servicio ollama con el siguiente comando:
Utiliza journalctl para ver los registros de salida del servicio con el siguiente comando:
Utiliza Open WebUI para llamar a ollama y hacer pruebas, como se muestra en la imagen de abajo:
Los registros son los siguientes:
06 feb 21:25:48 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/06 2025 - 21:25:48 | 200 | 6.186257471s | 172.18.0.2 | POST "/api/chat" 06 feb 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:407 msg="contexto para la solicitud finalizada" 6 de febrero 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:339 msg="el corredor con duración distinta de cero ha quedado inactivo, añadiendo temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duración=2562047h47m16.854775807s 06 feb 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0 06 feb 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go:575 msg="evaluando ya cargado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 6 de febrero 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imágenes=0 prompt=<|Usuario|>Me llamo Xiao Zha, ¿quién eres? <|Asistente|> 06 feb 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 caché=728 prompt=13 used=2 remaining=11 06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 - 21:26:02 | 200 | 7.642182053s | 172.18.0.2 | POST "/api/chat" 06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:407 msg="contexto para la solicitud finalizada" 6 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:339 msg="el corredor con duración distinta de cero ha quedado inactivo, añadiendo temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duración=2562047h47m16.854775807s 06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0 06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go:575 msg="evaluando ya cargado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 6 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imágenes=0 prompt="<|Usuario|>### Tarea:\nGenera un título conciso de 3-5 palabras con un emoji resumiendo el historial del chat.\n### Directrices:\n- El título debe representar claramente el tema principal o el tema de la conversación.\ n- Usa emojis que mejoren la comprensión del tema, pero evita comillas o formatos especiales.\n- Escribe el título en el idioma principal del chat; por defecto al inglés si es multilingüe.\n- Prioriza la precisión sobre la creatividad excesiva; mantenlo claro y sencillo.\n### Salida:\nJSON formato: { \"título\": \"tu título conciso aquí\" }\n### Ejemplos:\n- { \"título\": \" Tendencias del mercado bursátil" },\n- { \"título\": \" Chocolate perfecto Receta de patatas fritas },\n- { \"título\": \"Evolución del streaming musical" },\n- { \"título\": \"Consejos para la productividad en el trabajo remoto" },\n- { \"título\": \"Inteligencia Artificial en la Salud" },\n- { \" título\": \" Análisis de Desarrollo de Videojuegos" }\n### Historial de chat:\n<chat_history>\nUSUARIO: Me llamo Xiao Zha, ¿quién eres? \nASISTENTE: ¡Hola, pequeño desgraciado! Soy DeepSeek-R1-Lite-Preview, un asistente inteligente desarrollado por DeepSeek, y haré todo lo posible por ayudarte. ¿Hay algo en lo que pueda ayudarte? \n</chat_history><|Asistente|>" 06 feb 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 caché=567 prompt=312 used=6 restantes= 306 06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/06 2025 - 21:26:14 | 200 | 12.263297485s | 172.18.0.2 | POST "/api/chat" 06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:407 msg="contexto para solicitud finalizada" 06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:339 msg="el corredor con duración distinta de cero ha quedado inactivo, añadiendo temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duración=2562047h47m16.854775807s 06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:357 msg="after processing request completed event" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0 06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go:575 msg="evaluando ya cargado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imágenes=0 prompt="<|Usuario|>### Tarea: Genera de 1 a 3 etiquetas generales que categoricen los temas principales del historial de chat, junto con 1 a 3 etiquetas de subtema más específicas. Directrices: Empieza con dominios de alto nivel (por ejemplo, Ciencia, Tecnología, Filosofía, Artes, Política, Negocios, Salud, Deportes, Entretenimiento, Educación)\n- Considera incluir subcampos/subdominios relevantes si son fuertemente representado a lo largo de la conversación\n- Si el contenido es demasiado corto (menos de 3 mensajes) o demasiado diverso, usa solo [\"General\"]\n- Usa el idioma principal del chat; por defecto al inglés si es multilingüe\n- Prioriza la precisión sobre la especificidad\n\n### Salida:\nJSON formato: { \"tags\": [\"tag1\", \"tag2\", \"tag3\"] }\n\n### Historial de chat:\n<chat_history>\nUSUARIO: Me llamo Xiao Zha, ¿quién eres? \nASISTENTE: ¡Hola, pequeño desgraciado! Soy DeepSeek-R1-Lite-Preview, un asistente inteligente desarrollado por DeepSeek, y haré todo lo posible por ayudarte. ¿Hay algo en lo que pueda ayudarte? \n</chat_history><|Asistente|>" 06 feb 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=637 prompt=249 used=7 restantes= 242 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go:575 msg="evaluando ya cargado" modelo=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go:966 msg="nuevo runner detectado, modelo de carga para tokenización de cgo" 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: cargado metadatos con 26 pares clave-valor y 771 tensores de /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 (versión GGUF V3 (última)) 6 de febrero 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Volcar claves/valores de metadatos. Nota: Las sobrescrituras KV no se aplican en esta salida. 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 0: general.architecture str = qwen2 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 1: general.type str = model 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 2: general.name str = DeepSeek R1 Distill Qwen 32B 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 3: general.basename str = DeepSeek-R1-Distill-Qwen 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 4: general.size_label str = 32B 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 5: qwen2.block_count u32 = 64 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 6: qwen2.context_length u32 = 131072 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 7: qwen2.embedding_length u32 = 5120 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 8: qwen2.feed_forward_length u32 = 27648 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 9: qwen2.attention.head_count u32 = 40 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 10: qwen2.attention.head_count_kv u32 = 8 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 11: qwen2.rope.freq_base f32 = 1000000.00000 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 12: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000010 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 13: general.file_type u32 = 15 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 14: tokenizer.ggml.model str = gpt2 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 15: tokenizer.ggml.pre str = deepseek-r1-qwen 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 16: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ... 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 17: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ... 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 18: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",... 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 19: tokenizer.ggml.bos_token_id u32 = 151646 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 20: tokenizer.ggml.eos_token_id u32 = 151643 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 21: tokenizer.ggml.padding_token_id u32 = 151643 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 22: tokenizer.ggml.add_bos_token bool = true 6 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 23: tokenizer.ggml.add_eos_token bool = false 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 24: tokenizer.chat_template str = {% si no add_generation_prompt es de... 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 25: general.quantization_version u32 = 2 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo f32: 321 tensores 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo q4_K: 385 tensores 06 feb 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - tipo q6_K: 65 tensores 6 de febrero 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: falta o no reconoce el tipo de pre-tokenizador, usando: 'default' 06 de febrero 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special_eos_id no está en special_eog_ids - la configuración del tokenizador puede ser incorrecta 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: token especiales tamaño de caché = 22 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: token a pieza tamaño caché = 0,9310 MB 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: format = GGUF V3 (más reciente) 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: arch = qwen2 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: tipo de vocabulario = BPE 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_vocab = 152064 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_merges = 151387 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab_only = 1 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: tipo de modelo = ? B 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model ftype = all F32 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model params = 32.76 B 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: tamaño del modelo = 18,48 GiB (4,85 BPW) 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: general.name = DeepSeek R1 Distill Qwen 32B 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: BOS token = 151646 '<|inicio de la frase|>' 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOS token = 151643 '<|fin de la frase|>' 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOT token = 151643 '<|fin de frase|>' 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: PAD token = 151643 '<|fin de la frase|>' 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: LF token = 148848 'ÄĬ' 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PRE token = 151659 '<|fim_prefix|>' 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM SUF = 151661 '<|fim_suffix|>' 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM MID token = 151660 '<|fim_middle|>' 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM PAD = 151662 '<|fim_pad|>' 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token FIM REP = 151663 '<|repo_name|>' 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: token SEP FIM = 151664 '<|file_sep|>' 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151643 '<|fin de la frase|>' 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151662 '<|fim_pad|>' 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151663 '<|repo_name|>' 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151664 '<|file_sep|>' 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: longitud máxima del token = 256 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: llama_model_load: solo vocabulario - saltándose tensores 6 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go:1470 msg="chat request" imágenes=0 prompt="<|Usuario|>Me llamo Xiao Zha, ¿quién eres? <|Asistente|>\n¡Hola, pequeño desgraciado! Soy DeepSeek-R1-Lite-Preview, un asistente inteligente desarrollado por DeepSeek, y haré todo lo posible por ayudarte. ¿Hay algo en lo que pueda ayudarte? <|fin de la frase|><|Usuario|>Hola DeepSeek-R1<|Asistente|>" 06 feb 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=223 prompt=64 used=13 restantes= 51 06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 06 - 21:26:24 | 200 | 6.737131375s | 172.18.0.2 | POST "/api/chat" 06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:407 msg="contexto para la solicitud finalizada" 06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:357 msg="tras procesar evento finalizado la solicitud" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=1 06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 02/02/2025 06 - 21:26:24 | 200 | 10.172441322s | 172.18.0.2 | POST "/api/chat" 06 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:407 msg="contexto para la solicitud finalizada" 6 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:339 msg="el corredor con duración distinta de cero ha quedado inactivo, añadiendo temporizador" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duración=2562047h47m16.854775807s 6 feb 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:357 msg="tras procesar la solicitud finalizó evento" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 refCount=0 Referencia:
El inicio de sesión del hipervínculo es visible.
El inicio de sesión del hipervínculo es visible. |