|
|
|
| Ограничение по количеству просмотренных страниц за определенный промежуток времени..
Подскажите, как можно организовать это средствами пхп, желательно с примером.. | |
|
|
|
|
|
|
|
для: webzz
(27.09.2006 в 17:42)
| | А вы какую цель преследуете - ограничиваете качальщиков и роботов или авторизованных пользователей? Дело в том, что тут придётся привязываться либо к IP-адресу, либо к сессии. Однако роботов сессией не проймёшь, они её просто не будут поддерживать. | |
|
|
|
|
|
|
|
для: cheops
(27.09.2006 в 22:49)
| | Чтобы ограничить роботов и качальщиков. Точнее просто посылать сообщение на емайл с указанием айпи, рефера, имени робота и кол-ва просмотренных/стянутых страниц. Это условие будет выполняться, если пришедший на сайт не является одним распространнёных поисковых роботов.А привязывать наверно к айпиадресу. | |
|
|
|
|
|
|
|
для: webzz
(28.09.2006 в 10:16)
| | Можно хранить все обращения посетителей за сутки в файле или базе данных и ориентироваться на те IP-адреса, с которых чаще всего обращаются, сохраняя в базе данных время обращения и USER_AGENT. Вы какой интервал времени хотите отслеживать? | |
|
|
|
|
|
|
|
для: cheops
(28.09.2006 в 13:02)
| | мне нужно чтобы в режиме реального времени, если кол-во скачиваний(просмотров) страниц составляет больше чем 2 в секунду, отправлять на емаил сообщение с указанием айпи.. | |
|
|
|
|
|
|
|
для: webzz
(28.09.2006 в 13:44)
| | Тогда просто храните в сессии время предыдующего обращения посетителя, если прошло менее 2 секунд - хотя роботов этим не проймёшь, луче сделать таблицу, где хранить обращения с текущего IP-адреса, если они происходят чаще 2 секунд, отпавлять почтовое сообщение с параметрами посетителя. Вам доступна база данных MySQL? | |
|
|
|
|
|
|
|
для: cheops
(28.09.2006 в 22:30)
| | да, конечно доступно...то что роботов эти мне проймёшь это понятно, просто если это всё блокировать, то можно нужного робота заблочить и он больше не придёт..поэтому на емайл сообщение и оперативное реагирование..
а вообще есть ли действенный способ защиты от скачиваня страниц роботами и программами специальными? | |
|
|
|
|
|
|
|
для: webzz
(29.09.2006 в 09:19)
| | а если для усложнения жизни роботам постоянно при загрузке страниц менять разметку таблицы, куда выводятся данные? скажем пустой столбец, стоблец с данными, 2 пустых столбца, и каждый раз это меняется местами..это усложнит процедуру получения информации?
не поможет..глупасть..значит вариант предыдущий нада реализовавыть.. | |
|
|
|
|
|
|
|
для: webzz
(29.09.2006 в 10:42)
| | А вот такие записи в .htaccess вообще действуют на роботов?
redirect /_vti_bin http://www.micr osoft.com
redirect /MSADC http://www.micr osoft.com
redirect /c http://www.micr osoft.com
redirect /d http://www.micr osoft.com
redirect /_mem_bin http://www.micr osoft.com
redirect /msadc http://www.micr osoft.com было ещё redirect /scripts но скрипты незаработали | |
|
|
|
|
|
|
|
для: webzz
(29.09.2006 в 10:42)
| | >постоянно при загрузке страниц менять разметку таблицы
Лучше не надо - поисковым роботам это тоже не понравится. | |
|
|
|