απαιτήσεις: Ανέπτυξα το μοντέλο DeepSeek-R1 χρησιμοποιώντας το Ollama και ήθελα να δω τις πληροφορίες αιτήματος από ορισμένες προσθήκες για να κατανοήσω τις λεπτομέρειες. Για παράδειγμα: Ανοίξτε το WebUI, συνέχεια, cline, Roo Code κ.λπ.
Αναθεώρηση:
Για να εκτυπώσετε το αίτημα εισαγωγής από την πλευρά του διακομιστή, πρέπει να ενεργοποιήσετε τη λειτουργία εντοπισμού σφαλμάτων. επεξεργασία/etc/systemd/system/ollama.service.d/override.confαρχείο, προσθέστε την ακόλουθη διαμόρφωση:
Φορτώστε ξανά και ξεκινήστε την υπηρεσία ollama με την ακόλουθη εντολή:
Χρησιμοποιήστε το journalctl για να δείτε τα αρχεία καταγραφής εξόδου της υπηρεσίας με την ακόλουθη εντολή:
Χρησιμοποιήστε το Open WebUI για να καλέσετε το ollama για δοκιμή, όπως φαίνεται στην παρακάτω εικόνα:
Τα αρχεία καταγραφής είναι τα εξής:
Φεβ 06 21:25:48 VM-0-8-ubuntu ollama[13503]: [ΤΖΙΝ] 2025/02/06 - 21:25:48 | 200 | 6.186257471s | 172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat" Φεβ 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε" Φεβ 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:339 msg="Ο δρομέας με μη μηδενική διάρκεια έχει μείνει αδρανής, προσθέτοντας χρονόμετρο" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 διάρκεια=2562047h47m16.854775807s Φεβ 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=0 Φεβ 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go:575 msg="αξιολόγηση ήδη φορτωμένο" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 Feb 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt=<|User|>Με λένε Xiao Zha, ποιος είσαι; <|Βοηθός|> Φεβ 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=728 prompt=13 used=2 remaining=11 Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:02 | 200 | 7.642182053 δευτ | 172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat" Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε" Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:339 msg="ο δρομέας με μη μηδενική διάρκεια έχει πάει σε αδράνεια, προσθέτοντας χρονόμετρο" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 διάρκεια=2562047h47m16.854775807s Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=0 Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go:575 msg="αξιολόγηση ήδη φορτωμένο" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go:1470 msg="αίτημα συνομιλίας" images=0 prompt="<|Χρήστης|>### Εργασία:\nΔημιουργήστε έναν συνοπτικό τίτλο 3-5 λέξεων με ένα emoji που συνοψίζει το ιστορικό συνομιλίας.\n### Οδηγίες:\n- Ο τίτλος πρέπει να αντιπροσωπεύει ξεκάθαρα το κύριο θέμα ή θέμα της συνομιλίας.\ n- Χρησιμοποιήστε emojis που ενισχύουν την κατανόηση του θέματος, αλλά αποφύγετε τα εισαγωγικά ή την ειδική μορφοποίηση.\n- Γράψτε τον τίτλο στην κύρια γλώσσα της συνομιλίας. προεπιλογή στα αγγλικά εάν είναι πολύγλωσσα.\n- Δώστε προτεραιότητα στην ακρίβεια έναντι της υπερβολικής δημιουργικότητας. κρατήστε το σαφές και απλό.\n### Έξοδος:\nΜορφή JSON: { \"title\": \"ο συνοπτικός τίτλος σας εδώ\" }\n### Παραδείγματα:\n- { \"title\": \" Τάσεις του χρηματιστηρίου\" },\n- { \"title\": \" Τέλεια σοκολάτα Συνταγή τσιπ\" },\n- { \"title\": \"Εξέλιξη της ροής μουσικής\" },\n- { \"title\": \"Συμβουλές παραγωγικότητας απομακρυσμένης εργασίας\" },\n- { \"title\": \"Τεχνητή νοημοσύνη στην υγειονομική περίθαλψη\" },\n- { \" title\": \" Video Game Development Insights\" }\n### Ιστορικό συνομιλίας:\n<chat_history>\nΧΡΗΣΤΗΣ: Το όνομά μου είναι Xiao Zha, ποιος είσαι; \nΒΟΗΘΟΣ: Γεια σου, μικρό κάθαρμα! Είμαι ο DeepSeek-R1-Lite-Preview, ένας έξυπνος βοηθός που αναπτύχθηκε από την DeepSeek, και θα κάνω ό,τι καλύτερο μπορώ για να σας βοηθήσω. Υπάρχει κάτι που μπορώ να κάνω για σένα; \n</chat_history><|Βοηθός|>" Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go:104 msg="φόρτωση υποδοχής προσωρινής μνήμης" id=1 cache=567 prompt=312 used=6 remaining= 306 Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:14 | 200 | 12.263297485 δευτ. 172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat" Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε" Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:339 msg="Ο δρομέας με μη μηδενική διάρκεια έχει μείνει αδρανής, προσθέτοντας χρονόμετρο" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 διάρκεια=2562047h47m16.854775807s Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=0 Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go:1470 msg="αίτημα συνομιλίας" images=0 prompt="<|Χρήστης|>### Εργασία:\nΔημιουργήστε 1-3 ευρείες ετικέτες που κατηγοριοποιούν τα κύρια θέματα του ιστορικού συνομιλιών, μαζί με 1-3 πιο συγκεκριμένες ετικέτες υποθεμάτων.\n\n### Οδηγίες:\n- Ξεκινήστε με τομείς υψηλού επιπέδου (π.χ. Επιστήμη, Τεχνολογία, Φιλοσοφία, Τέχνες, Πολιτική, Επιχειρήσεις, Υγεία, Αθλητισμός, Ψυχαγωγία, Εκπαίδευση)\n- Εξετάστε το ενδεχόμενο να συμπεριλάβετε σχετικά υποπεδία/υποτομείς εάν είναι έντονα αντιπροσωπεύεται σε όλη τη συνομιλία\n- Εάν το περιεχόμενο είναι πολύ σύντομο (λιγότερα από 3 μηνύματα) ή πολύ διαφορετικό, χρησιμοποιήστε μόνο [\"Γενικά\"]\n- Χρησιμοποιήστε την κύρια γλώσσα της συνομιλίας. προεπιλογή στα Αγγλικά εάν είναι πολύγλωσσα\n- Προτεραιότητα στην ακρίβεια έναντι της ειδικότητας\n\n### Έξοδος:\nΜορφή JSON: { \"tags\": [\"tag1\", \"tag2\", \"tag3\"] }\n\n### Ιστορικό συνομιλίας:\n<chat_history>\nΧΡΗΣΤΗΣ: Το όνομά μου είναι Xiao Zha, ποιος είσαι; \nΒΟΗΘΟΣ: Γεια σου, μικρό κάθαρμα! Είμαι ο DeepSeek-R1-Lite-Preview, ένας έξυπνος βοηθός που αναπτύχθηκε από την DeepSeek, και θα κάνω ό,τι καλύτερο μπορώ για να σας βοηθήσω. Υπάρχει κάτι που μπορώ να κάνω για σένα; \n</chat_history><|Βοηθός|>" Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=637 prompt=249 used=7 remaining= 242 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 Φεβ 06 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go:966 msg="εντοπίστηκε νέος δρομέας, φόρτωση μοντέλου για cgo tokenization" Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: φορτωμένα μεταδεδομένα με 26 ζεύγη κλειδιών-τιμών και 771 τανυστές από /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 (έκδοση GGUF V3 (τελευταία)) Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Απόρριψη κλειδιών/τιμών μεταδεδομένων. Σημείωση: Οι παρακάμψεις KV δεν εφαρμόζονται σε αυτήν την έξοδο. Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 0: general.architecture str = qwen2 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 1: general.type str = μοντέλο Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 2: general.name str = DeepSeek R1 Distill Qwen 32B Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 3: general.basename str = DeepSeek-R1-Distill-Qwen Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 4: general.size_label str = 32B Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 5: qwen2.block_count u32 = 64 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 6: qwen2.context_length u32 = 131072 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 7: qwen2.embedding_length u32 = 5120 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 8: qwen2.feed_forward_length u32 = 27648 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 9: qwen2.attention.head_count u32 = 40 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 10: qwen2.attention.head_count_kv u32 = 8 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 11: qwen2.rope.freq_base f32 = 1000000.0000000 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 12: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000010 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 13: general.file_type u32 = 15 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 14: tokenizer.ggml.model str = gpt2 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 15: tokenizer.ggml.pre str = deepseek-r1-qwen 06 Φεβρουαρίου 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 16: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ... Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - KV 17: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ... Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 18: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",... Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 19: tokenizer.ggml.bos_token_id u32 = 151646 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 20: tokenizer.ggml.eos_token_id u32 = 151643 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 21: tokenizer.ggml.padding_token_id u32 = 151643 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 22: tokenizer.ggml.add_bos_token bool = αληθές Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 23: tokenizer.ggml.add_eos_token bool = false Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 24: tokenizer.chat_template str = {% αν όχι add_generation_prompt είναι de... Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kV 25: general.quantization_version u32 = 2 Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - Τύπος F32: 321 τανυστές Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - τύπος q4_K: 385 τανυστές Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - τύπος q6_K: 65 τανυστές Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: λείπει ή δεν αναγνωρίζεται ο τύπος pre-tokenizer, χρησιμοποιώντας: 'default' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special_eos_id δεν είναι σε special_eog_ids - η διαμόρφωση του tokenizer μπορεί να είναι λανθασμένη Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: μέγεθος προσωρινής μνήμης ειδικών διακριτικών = 22 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: μέγεθος κρυφής μνήμης διακριτικού σε κομμάτι = 0.9310 MB Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: format = GGUF V3 (πιο πρόσφατο) Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: arch = qwen2 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab type = BPE Φεβ 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_vocab = 152064 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_merges = 151387 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab_only = 1 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: τύπος μοντέλου = ? B Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: μοντέλο ftype = όλα F32 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: παράμετροι μοντέλου = 32.76 B Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: μέγεθος μοντέλου = 18.48 GiB (4.85 BPW) Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: general.name = DeepSeek R1 Distill Qwen 32B Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: BOS token = 151646 '<|αρχή πρότασης|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOS token = 151643 '<|τέλος πρότασης|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOT token = 151643 '<|τέλος πρότασης|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: PAD token = 151643 '<|τέλος πρότασης|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: LF token = 148848 'ÄĬ' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PRE token = 151659 '<|fim_prefix|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SUF token = 151661 '<|fim_suffix|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM MID token = 151660 '<|fim_middle|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PAD token = 151662 '<|fim_pad|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM REP token = 151663 '<|repo_name|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SEP token = 151664 '<|file_sep|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151643 '<|τέλος πρότασης|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151662 '<|fim_pad|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151663 '<|repo_name|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151664 '<|file_sep|>' Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: μέγιστο μήκος διακριτικού = 256 Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llama_model_load: vocab only - παράλειψη τανυστών Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>Με λένε Xiao Zha, ποιος είσαι; <|Βοηθός|>\nΓεια σου, μικρό κάθαρμα! Είμαι ο DeepSeek-R1-Lite-Preview, ένας έξυπνος βοηθός που αναπτύχθηκε από την DeepSeek, και θα κάνω ό,τι καλύτερο μπορώ για να σας βοηθήσω. Υπάρχει κάτι που μπορώ να κάνω για σένα; <|τέλος πρότασης|><|Χρήστης|>Γεια σου DeepSeek-R1<|Βοηθός|>" Φεβ 06 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=223 prompt=64 used=13 remaining= 51 Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 | 6.737131375 δευτ. 172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat" Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε" Φεβ 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=1 Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 | 10.172441322 δευτ | 172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat" Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε" Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:339 msg="ο δρομέας με μη μηδενική διάρκεια έχει πάει σε αδράνεια, προσθέτοντας χρονόμετρο" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 διάρκεια=2562047h47m16.854775807s Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=0 Αναφορά:
Η σύνδεση με υπερσύνδεσμο είναι ορατή.
Η σύνδεση με υπερσύνδεσμο είναι ορατή. |