Αυτό το άρθρο είναι ένα άρθρο καθρέφτη της αυτόματης μετάφρασης, κάντε κλικ εδώ για να μεταβείτε στο αρχικό άρθρο.

Άποψη: 1610|Απάντηση: 2

[AI] (5) Εκτυπώστε τις πληροφορίες αιτήματος Ollama

[Αντιγραφή συνδέσμου]
Δημοσιεύτηκε στις 2025-2-6 21:48:36 | | | |
απαιτήσεις: Ανέπτυξα το μοντέλο DeepSeek-R1 χρησιμοποιώντας το Ollama και ήθελα να δω τις πληροφορίες αιτήματος από ορισμένες προσθήκες για να κατανοήσω τις λεπτομέρειες. Για παράδειγμα: Ανοίξτε το WebUI, συνέχεια, cline, Roo Code κ.λπ.

Αναθεώρηση:

【AI】(3) Το Tencent Cloud αναπτύσσει το DeepSeek-R1 με εκμάθηση HAI
https://www.itsvse.com/thread-10931-1-1.html

[AI] (4) Χρησιμοποιήστε το Open WebUI για να καλέσετε το μοντέλο DeepSeek-R1
https://www.itsvse.com/thread-10934-1-1.html

Για να εκτυπώσετε το αίτημα εισαγωγής από την πλευρά του διακομιστή, πρέπει να ενεργοποιήσετε τη λειτουργία εντοπισμού σφαλμάτων. επεξεργασία/etc/systemd/system/ollama.service.d/override.confαρχείο, προσθέστε την ακόλουθη διαμόρφωση:


Φορτώστε ξανά και ξεκινήστε την υπηρεσία ollama με την ακόλουθη εντολή:


Χρησιμοποιήστε το journalctl για να δείτε τα αρχεία καταγραφής εξόδου της υπηρεσίας με την ακόλουθη εντολή:


Χρησιμοποιήστε το Open WebUI για να καλέσετε το ollama για δοκιμή, όπως φαίνεται στην παρακάτω εικόνα:



Τα αρχεία καταγραφής είναι τα εξής:

Φεβ 06 21:25:48 VM-0-8-ubuntu ollama[13503]: [ΤΖΙΝ] 2025/02/06 - 21:25:48 | 200 |  6.186257471s |      172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat"
Φεβ 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε"
Φεβ 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:339 msg="Ο δρομέας με μη μηδενική διάρκεια έχει μείνει αδρανής, προσθέτοντας χρονόμετρο" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 διάρκεια=2562047h47m16.854775807s
Φεβ 06 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=0
Φεβ 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go:575 msg="αξιολόγηση ήδη φορτωμένο" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93
Feb 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt=<|User|>Με λένε Xiao Zha, ποιος είσαι; <|Βοηθός|>
Φεβ 06 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=728 prompt=13 used=2 remaining=11
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:02 | 200 |  7.642182053 δευτ |      172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat"
Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε"
Feb 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:339 msg="ο δρομέας με μη μηδενική διάρκεια έχει πάει σε αδράνεια, προσθέτοντας χρονόμετρο" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 διάρκεια=2562047h47m16.854775807s
Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=0
Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go:575 msg="αξιολόγηση ήδη φορτωμένο" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93
Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go:1470 msg="αίτημα συνομιλίας" images=0 prompt="<|Χρήστης|>### Εργασία:\nΔημιουργήστε έναν συνοπτικό τίτλο 3-5 λέξεων με ένα emoji που συνοψίζει το ιστορικό συνομιλίας.\n### Οδηγίες:\n- Ο τίτλος πρέπει να αντιπροσωπεύει ξεκάθαρα το κύριο θέμα ή θέμα της συνομιλίας.\ n- Χρησιμοποιήστε emojis που ενισχύουν την κατανόηση του θέματος, αλλά αποφύγετε τα εισαγωγικά ή την ειδική μορφοποίηση.\n- Γράψτε τον τίτλο στην κύρια γλώσσα της συνομιλίας. προεπιλογή στα αγγλικά εάν είναι πολύγλωσσα.\n- Δώστε προτεραιότητα στην ακρίβεια έναντι της υπερβολικής δημιουργικότητας. κρατήστε το σαφές και απλό.\n### Έξοδος:\nΜορφή JSON: { \"title\": \"ο συνοπτικός τίτλος σας εδώ\" }\n### Παραδείγματα:\n- { \"title\": \" Τάσεις του χρηματιστηρίου\" },\n- { \"title\": \" Τέλεια σοκολάτα Συνταγή τσιπ\" },\n- { \"title\": \"Εξέλιξη της ροής μουσικής\" },\n- { \"title\": \"Συμβουλές παραγωγικότητας απομακρυσμένης εργασίας\" },\n- { \"title\": \"Τεχνητή νοημοσύνη στην υγειονομική περίθαλψη\" },\n- { \" title\": \" Video Game Development Insights\" }\n### Ιστορικό συνομιλίας:\n<chat_history>\nΧΡΗΣΤΗΣ: Το όνομά μου είναι Xiao Zha, ποιος είσαι; \nΒΟΗΘΟΣ: Γεια σου, μικρό κάθαρμα! Είμαι ο DeepSeek-R1-Lite-Preview, ένας έξυπνος βοηθός που αναπτύχθηκε από την DeepSeek, και θα κάνω ό,τι καλύτερο μπορώ για να σας βοηθήσω. Υπάρχει κάτι που μπορώ να κάνω για σένα; \n</chat_history><|Βοηθός|>"
Φεβ 06 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go:104 msg="φόρτωση υποδοχής προσωρινής μνήμης" id=1 cache=567 prompt=312 used=6 remaining= 306
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:14 | 200 | 12.263297485 δευτ.      172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat"
Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε"
Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:339 msg="Ο δρομέας με μη μηδενική διάρκεια έχει μείνει αδρανής, προσθέτοντας χρονόμετρο" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 διάρκεια=2562047h47m16.854775807s
Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=0
Feb 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93
Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go:1470 msg="αίτημα συνομιλίας" images=0 prompt="<|Χρήστης|>### Εργασία:\nΔημιουργήστε 1-3 ευρείες ετικέτες που κατηγοριοποιούν τα κύρια θέματα του ιστορικού συνομιλιών, μαζί με 1-3 πιο συγκεκριμένες ετικέτες υποθεμάτων.\n\n### Οδηγίες:\n- Ξεκινήστε με τομείς υψηλού επιπέδου (π.χ. Επιστήμη, Τεχνολογία, Φιλοσοφία, Τέχνες, Πολιτική, Επιχειρήσεις, Υγεία, Αθλητισμός, Ψυχαγωγία, Εκπαίδευση)\n- Εξετάστε το ενδεχόμενο να συμπεριλάβετε σχετικά υποπεδία/υποτομείς εάν είναι έντονα αντιπροσωπεύεται σε όλη τη συνομιλία\n- Εάν το περιεχόμενο είναι πολύ σύντομο (λιγότερα από 3 μηνύματα) ή πολύ διαφορετικό, χρησιμοποιήστε μόνο [\"Γενικά\"]\n- Χρησιμοποιήστε την κύρια γλώσσα της συνομιλίας. προεπιλογή στα Αγγλικά εάν είναι πολύγλωσσα\n- Προτεραιότητα στην ακρίβεια έναντι της ειδικότητας\n\n### Έξοδος:\nΜορφή JSON: { \"tags\": [\"tag1\", \"tag2\", \"tag3\"] }\n\n### Ιστορικό συνομιλίας:\n<chat_history>\nΧΡΗΣΤΗΣ: Το όνομά μου είναι Xiao Zha, ποιος είσαι; \nΒΟΗΘΟΣ: Γεια σου, μικρό κάθαρμα! Είμαι ο DeepSeek-R1-Lite-Preview, ένας έξυπνος βοηθός που αναπτύχθηκε από την DeepSeek, και θα κάνω ό,τι καλύτερο μπορώ για να σας βοηθήσω. Υπάρχει κάτι που μπορώ να κάνω για σένα; \n</chat_history><|Βοηθός|>"
Φεβ 06 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=637 prompt=249 used=7 remaining= 242
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go:575 msg="evaluating already loaded" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93
Φεβ 06 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go:966 msg="εντοπίστηκε νέος δρομέας, φόρτωση μοντέλου για cgo tokenization"
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: φορτωμένα μεταδεδομένα με 26 ζεύγη κλειδιών-τιμών και 771 τανυστές από /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 (έκδοση GGUF V3 (τελευταία))
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Απόρριψη κλειδιών/τιμών μεταδεδομένων. Σημείωση: Οι παρακάμψεις KV δεν εφαρμόζονται σε αυτήν την έξοδο.
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 0: general.architecture str = qwen2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 1: general.type str = μοντέλο
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 2: general.name str = DeepSeek R1 Distill Qwen 32B
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 3: general.basename str = DeepSeek-R1-Distill-Qwen
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 4: general.size_label str = 32B
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 5: qwen2.block_count u32 = 64
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 6: qwen2.context_length u32 = 131072
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 7: qwen2.embedding_length u32 = 5120
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 8: qwen2.feed_forward_length u32 = 27648
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 9: qwen2.attention.head_count u32 = 40
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 10: qwen2.attention.head_count_kv u32 = 8
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 11: qwen2.rope.freq_base f32 = 1000000.0000000
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 12: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000010
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 13: general.file_type u32 = 15
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 14: tokenizer.ggml.model str = gpt2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 15: tokenizer.ggml.pre str = deepseek-r1-qwen
06 Φεβρουαρίου 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 16: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - KV 17: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 18: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 19: tokenizer.ggml.bos_token_id u32 = 151646
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 20: tokenizer.ggml.eos_token_id u32 = 151643
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 21: tokenizer.ggml.padding_token_id u32 = 151643
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 22: tokenizer.ggml.add_bos_token bool = αληθές
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 23: tokenizer.ggml.add_eos_token bool = false
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 24: tokenizer.chat_template str = {% αν όχι add_generation_prompt είναι de...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kV 25: general.quantization_version u32 = 2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - Τύπος F32: 321 τανυστές
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - τύπος q4_K: 385 τανυστές
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - τύπος q6_K: 65 τανυστές
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: λείπει ή δεν αναγνωρίζεται ο τύπος pre-tokenizer, χρησιμοποιώντας: 'default'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special_eos_id δεν είναι σε special_eog_ids - η διαμόρφωση του tokenizer μπορεί να είναι λανθασμένη
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: μέγεθος προσωρινής μνήμης ειδικών διακριτικών = 22
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: μέγεθος κρυφής μνήμης διακριτικού σε κομμάτι = 0.9310 MB
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: format = GGUF V3 (πιο πρόσφατο)
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: arch = qwen2
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab type = BPE
Φεβ 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_vocab = 152064
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_merges = 151387
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab_only = 1
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: τύπος μοντέλου = ? B
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: μοντέλο ftype = όλα F32
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: παράμετροι μοντέλου = 32.76 B
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: μέγεθος μοντέλου = 18.48 GiB (4.85 BPW)
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: general.name = DeepSeek R1 Distill Qwen 32B
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: BOS token = 151646 '<|αρχή πρότασης|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOS token = 151643 '<|τέλος πρότασης|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOT token = 151643 '<|τέλος πρότασης|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: PAD token = 151643 '<|τέλος πρότασης|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: LF token = 148848 'ÄĬ'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PRE token = 151659 '<|fim_prefix|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SUF token = 151661 '<|fim_suffix|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM MID token = 151660 '<|fim_middle|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PAD token = 151662 '<|fim_pad|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM REP token = 151663 '<|repo_name|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SEP token = 151664 '<|file_sep|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151643 '<|τέλος πρότασης|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151662 '<|fim_pad|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151663 '<|repo_name|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151664 '<|file_sep|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: μέγιστο μήκος διακριτικού = 256
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llama_model_load: vocab only - παράλειψη τανυστών
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>Με λένε Xiao Zha, ποιος είσαι; <|Βοηθός|>\nΓεια σου, μικρό κάθαρμα! Είμαι ο DeepSeek-R1-Lite-Preview, ένας έξυπνος βοηθός που αναπτύχθηκε από την DeepSeek, και θα κάνω ό,τι καλύτερο μπορώ για να σας βοηθήσω. Υπάρχει κάτι που μπορώ να κάνω για σένα; <|τέλος πρότασης|><|Χρήστης|>Γεια σου DeepSeek-R1<|Βοηθός|>"
Φεβ 06 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=223 prompt=64 used=13 remaining= 51
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 |  6.737131375 δευτ.      172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat"
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε"
Φεβ 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=1
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 | 10.172441322 δευτ |      172.18.0.2 | ΑΝΑΡΤΗΣΗ "/api/chat"
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:407 msg="το πλαίσιο για το αίτημα ολοκληρώθηκε"
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:339 msg="ο δρομέας με μη μηδενική διάρκεια έχει πάει σε αδράνεια, προσθέτοντας χρονόμετρο" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 διάρκεια=2562047h47m16.854775807s
Feb 06 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:357 msg="μετά την επεξεργασία του αιτήματος ολοκληρώθηκε συμβάν" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ec613e93 refCount=0

Αναφορά:
Η σύνδεση με υπερσύνδεσμο είναι ορατή.
Η σύνδεση με υπερσύνδεσμο είναι ορατή.




Προηγούμενος:[AI] (4) Χρησιμοποιήστε το Open WebUI για να καλέσετε το μοντέλο DeepSeek-R1
Επόμενος:[AI] (6) Μια σύντομη εισαγωγή στη μορφή αρχείου μεγάλου μοντέλου GGUF
 Σπιτονοικοκύρης| Δημοσιεύτηκε στις 2025-2-6 21:53:55 |
Μπορείτε επίσης να επεξεργαστείτε το αρχείο υπηρεσίας ollama χρησιμοποιώντας την ακόλουθη εντολή:


Όταν εκτελείτε αυτήν την εντολή, ανοίγει ένας επεξεργαστής κειμένου (συνήθως vi ή nano) και σας επιτρέπει να επεξεργαστείτε το αρχείο /etc/systemd/system/ollama.service.
 Σπιτονοικοκύρης| Δημοσιεύτηκε στις 2025-2-7 09:08:25 |
Το Linux εξετάζει την έξοδο καταγραφής της υπηρεσίας Systemd
https://www.itsvse.com/thread-10154-1-1.html
Αποκήρυξη:
Όλο το λογισμικό, το υλικό προγραμματισμού ή τα άρθρα που δημοσιεύονται από το Code Farmer Network προορίζονται μόνο για μαθησιακούς και ερευνητικούς σκοπούς. Το παραπάνω περιεχόμενο δεν θα χρησιμοποιηθεί για εμπορικούς ή παράνομους σκοπούς, άλλως οι χρήστες θα υποστούν όλες τις συνέπειες. Οι πληροφορίες σε αυτόν τον ιστότοπο προέρχονται από το Διαδίκτυο και οι διαφορές πνευματικών δικαιωμάτων δεν έχουν καμία σχέση με αυτόν τον ιστότοπο. Πρέπει να διαγράψετε εντελώς το παραπάνω περιεχόμενο από τον υπολογιστή σας εντός 24 ωρών από τη λήψη. Εάν σας αρέσει το πρόγραμμα, υποστηρίξτε γνήσιο λογισμικό, αγοράστε εγγραφή και λάβετε καλύτερες γνήσιες υπηρεσίες. Εάν υπάρχει οποιαδήποτε παραβίαση, επικοινωνήστε μαζί μας μέσω email.

Mail To:help@itsvse.com