Форум: Форум PHPФорум ApacheФорум Регулярные ВыраженияФорум MySQLHTML+CSS+JavaScriptФорум FlashРазное
Новые темы: 0000000
Самоучитель PHP 5 / 6 (3 издание). Авторы: Кузнецов М.В., Симдянов И.В. Социальная инженерия и социальные хакеры. Авторы: Кузнецов М.В., Симдянов И.В. PHP. Практика создания Web-сайтов (второе издание). Авторы: Кузнецов М.В., Симдянов И.В. MySQL на примерах. Авторы: Кузнецов М.В., Симдянов И.В. PHP 5. На примерах. Авторы: Кузнецов М.В., Симдянов И.В., Голышев С.В.
ВСЕ НАШИ КНИГИ
Консультационный центр SoftTime

Форум PHP

Выбрать другой форум

 

Здравствуйте, Посетитель!

вид форума:
Линейный форум (новые сообщения вниз) Структурный форум

тема: Как сделать бота, который проверял ссылки на сайтах?

Сообщения:  [1-10] 

 
 автор: sim5   (22.07.2007 в 17:20)   письмо автору
 
   для: Киналь   (07.03.2007 в 22:56)
 

А если ссылки на сайте выводятся ротацией, страница и время ее появления зарание не известно? Может лучше ссылку "на себя" делать с JS чтобы она при выводе ее, отсылала запрос на сервер?

   
 
 автор: testdriver   (22.07.2007 в 16:28)   письмо автору
 
   для: runar   (22.07.2007 в 16:15)
 

а чем вариант bronenos не устраивает?

   
 
 автор: runar   (22.07.2007 в 16:15)   письмо автору
 
   для: Киналь   (07.03.2007 в 22:56)
 

может кто реализует это скрипт

   
 
 автор: Киналь   (07.03.2007 в 22:58)   письмо автору
 
   для: Paxa   (07.03.2007 в 22:54)
 

>запрашивать текст страницы инклудом include('http://...');

... и поднимать сайт из дауна с завидной регулярностью?=)

   
 
 автор: Киналь   (07.03.2007 в 22:56)   письмо автору
 
   для: Runar   (07.03.2007 в 17:02)
 

>Как сделать бота...

Взять и сделать=) Что именно вызывает затруднения? Если алгоритм. то он примерно таков:

- получаем массив из файла с сайтами;
- идем по массиву и коннектимся сокетами к каждому адресу;
- получаем содержимое главной страницы (а если надо, то и глубже);
- проверяем, есть ли в полученном содержимом нужная подстрока (ваш адрес);
- если нет, пишем в лог или отправляем письмо.

   
 
 автор: bronenos   (07.03.2007 в 22:55)   письмо автору
 
   для: Runar   (07.03.2007 в 22:46)
 

Ресурсы будет порядочно кушать
<?
$list 
file ('links.txt');
define ('url''http://mysite.ru');
foreach (
$list as $l)
{
  
$tmp file_get_contents (trim($l));
  if (
strpos($tmpurl) !== false) continue;
  
$subj 'Обход сайтов';
  
$text "Не найдена ссылка на сайте <$l>";
  
mail ('for@you.ru''=?cp1251?B?' base64_encode($subj) . '?='$text);
  
sleep (1);
}
?>

   
 
 автор: Paxa   (07.03.2007 в 22:54)   письмо автору
 
   для: Runar   (07.03.2007 в 22:46)
 

ручками :)
запрашивать текст страницы инклудом include('http://...');
используй пособия которое на этом сайте, если не найдёш то php.net поможет.

   
 
 автор: Runar   (07.03.2007 в 22:46)   письмо автору
 
   для: kasmanaft   (07.03.2007 в 18:23)
 

Да без разнице в каком формате файла хранятся

Типа работает так

1 добавляем сайты, например в site.txt все сайты в котором мои ссылки
Например, их 300

2. Скрипт берет их с(site.txt) и по отдельности проверяет 1 по 300, если ссылка на мой сайт отсутствует, присылает мне сообщение что в таком-то сайте ссылки нет

   
 
 автор: kasmanaft   (07.03.2007 в 18:23)   письмо автору
 
   для: Runar   (07.03.2007 в 17:02)
 

>> сайты храниться в текстовом файле
ничегосебе о_О :)

Не очень понятно чего вы хотите....

   
 
 автор: Runar   (07.03.2007 в 17:02)   письмо автору
 
 

Как сделать бота, который проверял ссылки на сайтах, а сайты храниться в текстовом файле

   

Сообщения:  [1-10] 

Форум разработан IT-студией SoftTime
Rambler's Top100
вверх

Rambler's Top100 Яндекс.Метрика Яндекс цитирования