|
|
|
|
|
для: Владимир55
(08.02.2009 в 19:32)
| | Не получится по папкам, т.к. это один рнр файл...
Я поставлю наверное ноиндекс, чтобы небыло новых не нужных страниц по ссылкам, по которым может найти поисковик. А на те которые уже проиндексированы Яндексом, я поставлю запрет в robots.txt, пока их еще не так уж много...вот так я думаю оптимальный вариант | |
|
|
|
|
|
|
|
для: xpom
(08.02.2009 в 18:14)
| | А Вы не можете разместить их по папкам? И тогда запретите те папки, какие Вам требуется.
Замечу, что по телу страниц, где установлен ноиндекс, роботы всё равно ходят. Только не учитывают с них ссылки и не используют контент при ранжировании. | |
|
|
|
|
|
|
|
для: Владимир55
(08.02.2009 в 16:34)
| | Дело в том что в robots.txt получится очн. большие списки страниц...
Я бы запретил полностью с глобальной переменной id_per индексацию, но нужны некоторые страницы, а некоторые нет, в зависимости от значения пер id_per... | |
|
|
|
|
|
|
|
для: xpom
(08.02.2009 в 15:58)
| | Запретите в robots.txt индексацию отдельных страниц, директорий или всего сайта вцелом. Можно для конкретного поисковика, а можно для всех сразу.
User-agent: *
Disallow: /fv-dir/
Disallow: abc.html | |
|
|
|
|
|
|
|
для: cheops
(08.02.2009 в 13:14)
| | А можно еще поставить в конце exit?? И написать что не правильный формат запроса, поставить ссылку на главную страничку?
echo "<meta name="robots" content="noindex, nofollow" />";
exit("Не правильный запрос! и УРЛ поставить");
|
Поисковики не будут же индексировать этот текст? | |
|
|
|
|
|
|
|
для: cheops
(08.02.2009 в 13:14)
| | Если сгенерировать такую строку, тогда все поисковики не будут индексировать эти странички? И их вообще не будет в индексации?
Спасибо, большое, да так будет удобно!!! | |
|
|
|
|
|
|
|
для: xpom
(08.02.2009 в 13:11)
| | На страницах, где требуется такой запрет, сгенерируйте в шапке строку
<meta name="robots" content="noindex, nofollow" />
|
| |
|
|
|
|
|
|
| Подскажите, пожалуйста, как можно запретить индексацию динамических страниц, например: www.url.ru/fail.php?id_per=5
А нужно запретить все старницы с id_per равным в промежутке от 2 до 40...как это можно сделать? Прописывать в файле robots.txt Disallow: каждой страницы, получится очень много...Можно как-то в файле robots.txt указать промежутком с id_per = от 2 до 40? | |
|
|
|
|