Эта статья является зеркальной статьёй машинного перевода, пожалуйста, нажмите здесь, чтобы перейти к оригиналу.

Вид: 1610|Ответ: 2

[ИИ] (5) Распечатать информацию о запросе оллам

[Скопировать ссылку]
Опубликовано 2025-2-6 21:48:36 | | | |
Требования: я развернул модель DeepSeek-R1 с помощью Ollama и хотел просмотреть информацию о запросах из некоторых плагинов, чтобы понять детали. Например: Open WebUI, continue, cline, Roo Code и т.д.

Обзор:

【AI】(3) Tencent Cloud развёртает DeepSeek-R1 с обучанием по HAI
https://www.itsvse.com/thread-10931-1-1.html

[AI] (4) Используйте Open WebUI для вызова модели DeepSeek-R1
https://www.itsvse.com/thread-10934-1-1.html

Чтобы распечатать запрос на сервере, нужно включить режим отладки. редактировать/etc/systemd/system/ollama.service.d/override.confДобавьте следующую конфигурацию:


Перезагрузите и запустите сервис олламы следующей командой:


Используйте journalctl для просмотра журналов выходных сервисов с помощью следующей команды:


Используйте Open WebUI для вызова оллам для тестирования, как показано на изображении ниже:



Журналы следующие:

06 фев 21:25:48 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:25:48 | 200 |  6.186257471 |      172.18.0.2 | ПОСТ «/api/chat»
06 фев 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:407 msg="context for request finish"
06 фев 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:339 msg="runner с ненулевой длительностью ушёл в простой, добавив таймер" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duration=2562047h47m16.85475807s
06 фев 21:25:48 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:48.411+08:00 level=DEBUG source=sched.go:357 msg="после обработки запрос завершил событие" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=0
06 фев 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.834+08:00 level=DEBUG source=sched.go:575 msg="оценка уже загружена" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93
06 фев 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.835+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt=<|Пользователь|>Меня зовут Сяо Чжа, кто вы? <|Ассистент|>
06 фев 21:25:54 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:25:54.836+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=728 prompt=13 used=2 remaining=11
06 фев 21:26:02 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:02 | 200 |  7.642182053 |      172.18.0.2 | ПОСТ «/api/chat»
06 фев 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:407 msg="context for request finish"
06 фев 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:339 msg="runner с ненулевой длительностью простоял, добавляя таймер" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duration=2562047h47m16.85475807s
06 фев 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.454+08:00 level=DEBUG source=sched.go:357 msg="после обработки запроса завершено событие" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=0
06 фев 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=sched.go:575 msg="оценка уже загружена" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93
06 фев 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.491+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>### Задача:\nСгенерируйте краткое заголовок из 3-5 слов с эмодзи, обобщающим историю чата.\n### Правила:\n- Заголовок должен чётко отражать основную тему или тему разговора.\ n- Используйте эмодзи, которые лучше понимают тему, но избегайте кавычек и специального форматирования.\n- Пишите название на основном языке чата; по умолчанию используйте английский, если многоязычный.\n- Ставьте точность выше чрезмерного творчества; Держите всё ясным и простым.\n### Вывод:\nJSON формат: { \"title\": \"ваш краткий заголовок здесь\" }\n### Примеры:\n- { \"title\": \" Тренды фондового рынка\" },\n- { \"title\": \" Идеальный шоколад Рецепт чипов\" },\n- { \"title\": \"Эволюция музыкального стриминга\" },\n- { \"title\": \"Советы по продуктивности удалённой работы\" },\n- { \"title\": \"Искусственный интеллект в здравоохранении\" },\n- { \" title\": \" Инсайты по разработке видеоигр\" }\n### История чата:\n<chat_history>\nПОЛЬЗОВАТЕЛЬ: Меня зовут Сяо Чжа, а вы кто? \nАССИСТЕНТ: Привет, маленький мерзавец! Я DeepSeek-R1-Lite-Preview, интеллектуальный ассистент, разработанный DeepSeek, и я сделаю всё возможное, чтобы помочь вам. Могу ли я чем-то помочь? \n</chat_history><|Ассистент|>"
06 фев 21:26:02 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:02.495+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=567 prompt=312 used=6 оставших= 306
06 фев 21:26:14 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:14 | 200 | 12.263297485 |      172.18.0.2 | ПОСТ «/api/chat»
06 фев 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:407 msg="context for request finish"
06 фев 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:339 msg="runner с ненулевой длительностью простоял, добавляя таймер" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duration=2562047h47m16.85475807s
06 фев 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.731+08:00 level=DEBUG source=sched.go:357 msg="после обработки запрос завершил событие" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=0
06 фев 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=sched.go:575 msg="оценка уже загружена" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93
06 фев 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.769+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>### Задача:\nГенерируйте 1-3 широких тега, категоризирующих основные темы истории чата, а также 1-3 более конкретных подтега.\n\n### Рекомендации:\n- Начните с высокоуровневых доменов (например, Наука, технологии, философия, искусство, политика, бизнес, здравоохранение, спорт, развлечения, образование) \n- Рассмотрите возможность включения соответствующих подобластей/подобластей, если они сильные представлено на протяжении всего разговора\n- Если контент слишком короткий (менее 3 сообщений) или слишком разнообразен, используйте только [\"General\"]\n- Используйте основной язык чата; по умолчанию английский, если многоязычный\n- Ставь точность выше конкретики\n\n### Вывод:\nJSON формат: { \"tags\": [\"tag1\", \"tag2\", \"tag3\"] }\n\n### История чата:\n<chat_history>\nПОЛЬЗОВАТЕЛЬ: Меня зовут Сяо Чжа, а вы кто? \nАССИСТЕНТ: Привет, маленький мерзавец! Я DeepSeek-R1-Lite-Preview, интеллектуальный ассистент, разработанный DeepSeek, и я сделаю всё возможное, чтобы помочь вам. Могу ли я чем-то помочь? \n</chat_history><|Ассистент|>"
06 фев 21:26:14 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:14.773+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=1 cache=637 prompt=249 used=7 оставших= 242
06 фев 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.717+08:00 level=DEBUG source=sched.go:575 msg="оценка уже загруженного" model=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93
06 фев 21:26:17 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:17.718+08:00 level=DEBUG source=server.go:966 msg="обнаружен новый раннер, загрузка модели для cgo tokenization"
06 фев 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: загружен метаданные с 26 парами ключ-значений и 771 тензором из /data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 (версия GGUF V3 (последняя версия))
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: Дамп ключевых ключей/значений метаданных. Примечание: KV-переопределения не применяются в этом выходе.
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 0: general.architecture str = qwen2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 1: general.type str = model
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 2: general.name str = DeepSeek R1 Distill Qwen 32B
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 3: general.basename str = DeepSeek-R1-Distill-Qwen
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 4: general.size_label str = 32B
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 5: qwen2.block_count u32 = 64
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 6: qwen2.context_length u32 = 131072
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 7: qwen2.embedding_length u32 = 5120
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 8: qwen2.feed_forward_length u32 = 27648
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 9: qwen2.attention.head_count u32 = 40
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 10: qwen2.attention.head_count_kv u32 = 8
06 фев 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 11: qwen2.rope.freq_base f32 = 1000000.000000
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 12: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000010
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 13: general.file_type u32 = 15
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 14: tokenizer.ggml.model str = gpt2
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 15: tokenizer.ggml.pre str = deepseek-r1-qwen
06 фев 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 16: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ...
06 фев 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 17: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 18: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 19: tokenizer.ggml.bos_token_id u32 = 151646
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 20: tokenizer.ggml.eos_token_id u32 = 151643
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 21: tokenizer.ggml.padding_token_id u32 = 151643
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 22: tokenizer.ggml.add_bos_token bool = true
06 фев 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 23: tokenizer.ggml.add_eos_token bool = false
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 24: tokenizer.chat_template str = {% if not add_generation_prompt is de...
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - kv 25: general.quantization_version u32 = 2
06 фев 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - тип f32: 321 тензоры
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - type q4_K: 385 tensors
Feb 06 21:26:17 VM-0-8-ubuntu ollama[13503]: llama_model_loader: - тип q6_K: 65 тензоров
06 фев 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: отсутствует или не распознается тип пре-токенайзера, использует: 'default'
06 фев 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: special_eos_id не в special_eog_ids — конфигурация токенайзера может быть некорректной
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: размер кэша специальных токенов = 22
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_vocab: token to piece cache size = 0.9310 MB
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: format = GGUF V3 (последняя часть)
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: arch = qwen2
06 фев 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab type = BPE
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_vocab = 152064
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: n_merges = 151387
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: vocab_only = 1
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: тип модели = ? B
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model ftype = all F32
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: model params = 32.76 B
06 фев 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: размер модели = 18.48 ГиБ (4.85 BPW)
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: general.name = DeepSeek R1 Distill Qwen 32B
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: BOS token = 151646 '<|начало предложения|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOS token = 151643 '<|конец предложения|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOT token = 151643 '<|конец предложения|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: PAD token = 151643 '<|конец предложения|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: LF token = 148848 'ÄĬ'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PRE token = 151659 '<|fim_prefix|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SUF token = 151661 '<|fim_suffix|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM MID token = 151660 '<|fim_middle|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM PAD token = 151662 '<|fim_pad|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM REP token = 151663 '<|repo_name|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: FIM SEP token = 151664 '<|file_sep|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151643 '<|конец предложения|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151662 '<|fim_pad|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151663 '<|repo_name|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: EOG token = 151664 '<|file_sep|>'
Feb 06 21:26:18 VM-0-8-ubuntu ollama[13503]: llm_load_print_meta: max token length = 256
06 фев 21:26:18 VM-0-8-ubuntu ollama[13503]: llama_model_load: только словарный запас — пропуск тензоров
06 фев 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.440+08:00 level=DEBUG source=routes.go:1470 msg="chat request" images=0 prompt="<|User|>Меня зовут Сяо Чжа, кто вы? <|Ассистент|>\nПривет, маленький мерзавец! Я DeepSeek-R1-Lite-Preview, интеллектуальный ассистент, разработанный DeepSeek, и я сделаю всё возможное, чтобы помочь вам. Могу ли я чем-то помочь? <|конец предложения|><|Пользователь|>Hello DeepSeek-R1<|Ассистент|>"
06 фев 21:26:18 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:18.491+08:00 level=DEBUG source=cache.go:104 msg="loading cache slot" id=0 cache=223 prompt=64 used=13 оставшихся= 51
06 фев 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 |  6.737131375 |      172.18.0.2 | ПОСТ «/api/chat»
06 фев 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:407 msg="context for request finish"
06 фев 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.426+08:00 level=DEBUG source=sched.go:357 msg="после завершения запроса на обработку" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=1
06 фев 21:26:24 VM-0-8-ubuntu ollama[13503]: [GIN] 2025/02/06 - 21:26:24 | 200 | 10.172441322s |      172.18.0.2 | ПОСТ «/api/chat»
6 фев 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:407 msg="context for request finish"
06 фев 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:339 msg="runner с ненулевой длительностью ушёл в простой, добавляя таймер" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531a5ecf5c613e93 duration=2562047h47m16.85475807s
06 фев 21:26:24 VM-0-8-ubuntu ollama[13503]: time=2025-02-06T21:26:24.918+08:00 level=DEBUG source=sched.go:357 msg="после завершения запроса обработки" modelPath=/data/ollama/models/blobs/sha256-6150cb382311b69f09cc0f9a1b69fc029cbd742b66bb8ec531aa5ecf5c613e93 refCount=0

Ссылка:
Вход по гиперссылке виден.
Вход по гиперссылке виден.




Предыдущий:[AI] (4) Используйте Open WebUI для вызова модели DeepSeek-R1
Следующий:[ИИ] (6) Краткое введение в формат файла большой модели GGUF
 Хозяин| Опубликовано 2025-2-6 21:53:55 |
Вы также можете отредактировать сервисный файл ollama, используя следующую команду:


Когда вы запускаете эту команду, открывается текстовый редактор (обычно vi или nano), который позволяет отредактировать файл /etc/systemd/system/ollama.service.
 Хозяин| Опубликовано 2025-2-7 09:08:25 |
Linux рассматривает лог-вывод сервиса Systemd
https://www.itsvse.com/thread-10154-1-1.html
Отказ:
Всё программное обеспечение, программные материалы или статьи, публикуемые Code Farmer Network, предназначены исключительно для учебных и исследовательских целей; Вышеуказанный контент не должен использоваться в коммерческих или незаконных целях, иначе пользователи несут все последствия. Информация на этом сайте взята из Интернета, и споры по авторским правам не имеют отношения к этому сайту. Вы должны полностью удалить вышеуказанный контент с компьютера в течение 24 часов после загрузки. Если вам нравится программа, пожалуйста, поддержите подлинное программное обеспечение, купите регистрацию и получите лучшие подлинные услуги. Если есть нарушение, пожалуйста, свяжитесь с нами по электронной почте.

Mail To:help@itsvse.com