|
|
|
|
для: ilni
(22.04.2013 в 18:39)
|
| Только общеизвестных роботов насчитывается более трехсот: http://www.robotstxt.org/db.html.
Поэтому, я полагаю, проверку нужно выполнять еще на стороне сервера. Например так:
Создаем невидимую "нормальному" пользователю ссылку:
<a href="antirobots.php" style="display:none;">boo!</a>
|
и помещаем ее срезу же после тега <body>. Реальный пользователь ее не увидит, а робот или бот имеет дело не с визуальным представлением страницы, а с ее кодом, и сразу же полезет по стой ссылке.
antirobots.php может содержать такой код:
<?php
session_start();
$_SESSION['robot']="1";
?>
|
То есть, в нем мы инициализируем сессию "robot".
А дальше, если есть у этого конкретного посетителя такая сессия, мы от него НА СЛЕДУЮЩИХ СТРАНИЦАХ ссылки и скрываем.
Вот, можно почитать: http://dn-irkutsk.ru/antispam.aspx
А сделать сокрытие на JS, по-моему, просто. Нужен объект, индексы которого являются, к примеру, id соответствующих ссылок, а его значения - их адресами.
Например, так: http://jsfiddle.net/kilotonna/aLABq/, где при помощи
мы эмулируем задержку присвоения ссылкам их адресов на одну секунду. | |
|
|