|
|
|
|
|
для: Blizard
(15.08.2011 в 10:23)
| | последний вариант будет работать для всех роботов. Так что не нужно перечислять одинаковые правила для каждого по отдельности. | |
|
|
|
|
|
|
| Создал robots.txt следующего вида:
User-agent: *
User-Agent: Yandex
Disallow: /search.php?kateg=*
User-agent: Googlebot
Disallow: /search.php?kateg=*
|
пытаюсь запретить к индексации страницу search.php и все динамические её копии, но есть еще вариант сделть так:
User-Agent: Yandex
Disallow: /search.php?kateg=*
User-agent: Googlebot
Disallow: /search.php?kateg=*
|
или так:
User-agent: *
Disallow: /search.php?kateg=*
|
Подскажите, как именно будет правильно? | |
|
|
|
|