Ця стаття є дзеркальною статтею машинного перекладу, будь ласка, натисніть тут, щоб перейти до оригінальної статті.

Вид: 13134|Відповідь: 0

[Знання про створення вебсайту] Розумні роботи, щоб уникати павучих чорних дір

[Копіювати посилання]
Опубліковано 23.10.2014 22:44:58 | | |

Для пошукової системи Baidu spider black hole означає, що сайт створює велику кількість параметрів за дуже низькою вартістю, а динамічні URL з подібним контентом, але різними специфічними параметрами, як нескінченний цикл «чорної діри», що ловить павуків, Baiduspider витрачає багато ресурсів на пошук недійсних веб-сторінок.
       Наприклад, багато сайтів мають функцію фільтрації, і веб-сторінки, створені цією функцією, часто скануються пошуковими системами, і значна частина з них має низьку цінність пошуку, наприклад, «оренда будинку за ціною від 500 до 1000», по-перше, на сайті практично немає релевантних ресурсів (включно з реальністю), а по-друге, немає такої звички пошуку для користувачів сайту та користувачів пошукових систем. Такий тип веб-сторінки скануються пошуковими системами у великій кількості, які можуть займати лише цінну квоту на сайті. То як цього уникнути?
       Візьмемо приклад сайту для групових покупок у Пекіні, щоб побачити, як сайт використовує роботів, щоб хитро уникати цієї павукоподібної чорної діри:

Для звичайних сторінок з результатами фільтрації сайт обирає статичні посилання, такі як http://bj.XXXXX.com/category/zizhucan/weigongcun
       На тій самій сторінці результатів умовного фільтра, коли користувачі обирають різні умови сортування, генеруються динамічні посилання з різними параметрами, і навіть якщо ті самі критерії сортування (наприклад, усі у спадному порядку продажів), згенеровані параметри відрізняються. Наприклад: http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek
http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

Для мережі групового купівлі лише пошукова система може сканувати сторінку результатів фільтра, тоді як сторінка сортування результатів з різними параметрами відхиляється пошуковою системою за допомогою правил роботів.
       robots.txt має правило щодо використання файлів: Disallow: /*?*, яке забороняє пошуковим системам доступ до всіх динамічних сторінок на сайті. Таким чином, сайт надає пріоритет якісним сторінкам і блокує низькоякісні сторінки для Baiduspider, забезпечуючи Baiduspider більш дружню структуру сайту та уникаючи утворення чорних дір.






Попередній:Віртуальні машини VMware встановлюються на MAC OSX Mountain Lion.
Наступний:Встановіть Mac OS X10.9 під Win-системою, туторіал Black Apple
Застереження:
Усе програмне забезпечення, програмні матеріали або статті, опубліковані Code Farmer Network, призначені лише для навчання та досліджень; Вищезазначений контент не повинен використовуватися в комерційних чи незаконних цілях, інакше користувачі несуть усі наслідки. Інформація на цьому сайті надходить з Інтернету, і спори щодо авторських прав не мають до цього сайту. Ви повинні повністю видалити вищезазначений контент зі свого комп'ютера протягом 24 годин після завантаження. Якщо вам подобається програма, будь ласка, підтримуйте справжнє програмне забезпечення, купуйте реєстрацію та отримайте кращі справжні послуги. Якщо є будь-яке порушення, будь ласка, зв'яжіться з нами електронною поштою.

Mail To:help@itsvse.com