|
|
|
| На одном из семинаров аналитик веб-поиска Яндекса Станислав Ставский сказал, что Яндекс снижает качественную оценку сайту, на страницах котрого имеется сортировка. Типа того, что для пользователя весьма удобно отсортировать содержимое страницы по нужному ему параметру, а вот Яндексу это не нравится, поскольку разные варианты сортировки воспринимаются как измененный контент.
Вот этого я понять никак не могу.
Если сортировка осуществляется программированием браузера, то робот видит только исходное состояние страницы (а что там делали посетители, откуда ему знать?).
Если сортировка осуществляется через AJAX, то робот её тоже инициировать не может.
Так каким же образом появляются дубликаты от сортировки? | |
|
|
|
|
|
|
|
для: Владимир55
(17.02.2012 в 18:46)
| | Это имеется в виду сортировка через GET-параметры, когда сортировкой занимается база данных на сервере. Вы полностью правы, AJAX робот действительно не увидит, но AJAX активно используется только последние три года (и на AJAX страницы невозможно сослаться, а это иногда важно), до этого использовались GET-параметры, посмотрите как у нас сделано в списке пользователей (пощелкайте по названиям столбцов), вот это не нравится роботам Яндекса.
PS Не нравится, если они наплевали на <META NAME="Robots" CONTENT="NOINDEX,NOFOLLOW"> и все-таки индексируют эту страницу. | |
|
|
|
|
|
|
|
для: cheops
(17.02.2012 в 19:00)
| | Да, отлично видно, спасибо! | |
|
|
|