|
|
|
| Добрый вечер!
Нужно сайт быстро наполнить контентом. (40 страниц) Денег на копирайтеров не выделяю. Если сейчас так сделать, поисковые системы могут забанить сайт или просто фильтры поставят? И если потом копипаст на уникальный текст заменить, фильтры спадут?
Сейчас не важно какие позиции сайт занимает, но главное, чтоб он в бан не улетел, а если фильтры будут, то чтоб их потом можно было убрать, заменив на сайте текст. | |
|
|
|
|
|
|
|
для: ladan
(06.09.2012 в 22:00)
| | Что-то не подумал о <meta name='robots' content='none'>
Поможет ли он? | |
|
|
|
|
|
|
|
для: ladan
(06.09.2012 в 22:08)
| | Если запретить сайт к индексации любым способом (например, в роботсе), то можно его наполнять чем угодно.
Если же сайт попадет под фильтр, то вытащить его оттуда проблематично. | |
|
|
|
|
|
|
|
для: Владимир55
(07.09.2012 в 12:59)
| | Спасибо, лучше тогда к индексации запретить | |
|
|
|
|
|
|
|
для: Владимир55
(07.09.2012 в 12:59)
| | У меня на хостинге сайт с именем site.com и папка для этого сайта с именем site.com. В ней - вложенная папка forum для поддомена forum.site.com. Как указать роботам индексировать форум, но не индексировать главную страницу сайта site.com ? | |
|
|
|
|
|
|
|
для: coloboc66
(10.09.2012 в 15:06)
| | Если адрес сайта site.com, то запретите его к индексации. При этом поддемен forum.site.com останется доступным для роботов.
Запретить к индексации только главную страницу сайта вряд ли удастся, поскольку ее адрес совпадает с именем домена.
Вложенность папок и техническая организация размещения страниц на сервере для роботов не имеет значения. | |
|
|
|
|
|
|
|
для: Владимир55
(10.09.2012 в 15:44)
| | Т.е. написать:
User-agent: *
Disallow: /site.com/
|
?
И вложенная папка, думаете, не будет запрещена к индексации? | |
|
|
|
|
|
|
|
для: coloboc66
(10.09.2012 в 15:55)
| | Как я предполагаю, у Вас домен и поддомен - независимые сайты. Соответственно, у каждого есть индексная страница, показывающаяся при обращении к сайту.
У сайта-домена есть корень и у сайта-поддомена есть корень. И в каждом корне должен быть свой файл роботс.
Соответственно, в роботсе сайта-домена прописываете
User-agent: *
Disallow: /
|
А в роботсе сайта-поддомена прописываете Host.
Если же домен и поддомен не являются независимыми, то так не получится.
Что именно оказалось закрытым от индексации - домен или поддомен, можно проверить в ЯндесВэбмастере.
===============
У меня сейчас как раз такая ситуация - основной сайт запрещен, а на поддоменах обкатываю решения. | |
|
|
|
|
|
|
|
для: Владимир55
(10.09.2012 в 18:48)
| | А в роботсе сайта-поддомена прописываете Host. - Вот здесь не понял, можно конкретнее, каков синтаксис? | |
|
|
|