Эта статья является зеркальной статьёй машинного перевода, пожалуйста, нажмите здесь, чтобы перейти к оригиналу.

Вид: 13134|Ответ: 0

[Создание знаний на сайте] Умные роботы, чтобы избегать паучьих чёрных дыр

[Скопировать ссылку]
Опубликовано 23.10.2014 22:44:58 | | |

Для поисковой системы Baidu spider black hole означает, что сайт создаёт большое количество параметров с очень низкой стоимостью, а динамические URL с похожим содержанием, но разными специфическими параметрами, как бесконечный цикл «чёрной дыры», ловящий пауков, Baiduspider тратит много ресурсов на обход недействительных веб-страниц.
       Например, на многих сайтах есть функция фильтрации, и страницы, генерируемые этой функцией, часто сканируются поисковыми системами, и большая часть из них имеют низкую ценность поиска, например, «аренда дома по цене от 500 до 1000», во-первых, на сайте практически нет релевантных ресурсов (включая реальность), а во-вторых, такой привычки поиска нет для пользователей сайта и поисковых систем. Такие веб-страницы обрабатываются поисковыми системами в больших количествах, которые могут занимать только ценные квоты на сайте. Так как же этого избежать?
       Возьмём, к примеру, сайт для групповых покупок в Пекине, чтобы увидеть, как сайт использует роботов, чтобы умело избегать этой паучьей чёрной дыры:

Для обычных страниц с результатами фильтра сайт выбирает статические ссылки, такие как http://bj.XXXXX.com/category/zizhucan/weigongcun
       На той же странице результатов условного фильтра, когда пользователи выбирают разные условия сортировки, будут генерироваться динамические ссылки с разными параметрами, и даже если критерии сортировки одинаковы (например, все в порядке убывания продаж), сгенерированные параметры разные. Например: http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek
http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

Для групповой покупки только поисковая система может сканировать страницу результатов фильтра, а страница сортировки результатов с различными параметрами отклоняется поисковой системой по правилам роботов.
       robots.txt имеет правило по использованию файлов: Disallow: /*?*, которое запрещает поисковым системам заходить ко всем динамическим страницам сайта. Таким образом, сайт отдаёт приоритет качественным страницам и блокирует низкокачественные страницы для Baiduspider, обеспечивая более дружелюбную структуру сайта и избегая образования чёрных дыр.






Предыдущий:Виртуальные машины VMware устанавливаются на MAC OSX Mountain Lion
Следующий:Установите Mac OS X10.9 в Win System Black Apple tutorial
Отказ:
Всё программное обеспечение, программные материалы или статьи, публикуемые Code Farmer Network, предназначены исключительно для учебных и исследовательских целей; Вышеуказанный контент не должен использоваться в коммерческих или незаконных целях, иначе пользователи несут все последствия. Информация на этом сайте взята из Интернета, и споры по авторским правам не имеют отношения к этому сайту. Вы должны полностью удалить вышеуказанный контент с компьютера в течение 24 часов после загрузки. Если вам нравится программа, пожалуйста, поддержите подлинное программное обеспечение, купите регистрацию и получите лучшие подлинные услуги. Если есть нарушение, пожалуйста, свяжитесь с нами по электронной почте.

Mail To:help@itsvse.com