| |
|
|
| | Здравствуйте! Помогите! Каким образом можно осуществить связь с др. сайтом, чтобы получать от него информацию в режиме on-line. Мне нужны данные (числовые: статистика, котировки и т.п.), которые размещаются в таблицах, формах (,имеющие идентификаторы). Можно ли написать какой-нибудь скрипт, который обращался бы к заданному сайту и передавал нужную информацию в базу данных. | |
| |
|
|
| |
|
|
| |
для: olga
(10.05.2007 в 16:18)
| | | Однако непонятно: вы хотите передавать сайту информацию или принимать с сайта информацию? | |
| |
|
|
| |
|
|
| |
для: coloboc66
(10.05.2007 в 16:31)
| | | По-моему, ясно сказано: "чтобы получать от него информацию"
olga, все зависит от конкретной страницы, которую Вы хотите "воровать". | |
| |
|
|
| |
|
|
| |
для: Unkind
(10.05.2007 в 16:34)
| | | А каким образом с др. сайта получать документы и др. обновленную информацию на сервер нашего сайта за определенный промежуток времени, если мы можем входить на этот сайт под своим логином и паролем, и получать нужную информацию? | |
| |
|
|
| |
|
|
| |
для: olga
(10.05.2007 в 16:42)
| | | Если для доступа к странице требуется авторизация, то лучше это получать файл через сокеты или cURL. Постоянно получать информацию, т.е. как Вы сказали в "режие онлайн" не рекомендую, т.к. лучше наоборот кешировать информацию, чтобы доступ к ней был почти мгновенный. | |
| |
|
|
| |
|
|
| |
для: olga
(10.05.2007 в 16:18)
| | | Если на сайте есть генератор XML / RSS то задача решается разбором XML-потока.
Если нет - то регулярными выражениями, но как правило, на свой страх и риск.
Контент в обоих случаях имеет смысл запрашивать через механизм CURL. | |
| |
|
|
| |
|
|
| |
для: Trianon
(10.05.2007 в 16:40)
| | | Спасибо!!!Не могли бы подсказать какие-нибудь примеры?!и в случаи, если есть генератор XML / RSS и, если нет . А что это за механизм CURL? | |
| |
|
|
| |
|
|
| |
для: olga
(10.05.2007 в 16:46)
| | | Пример, когда генератор XML есть, приведен в примерах скриптов. http://softtime.ru/scripts/valute.php
Там, правда, загрузка выполняется через обертку стандартного fopen, а разбор - регулярными выражениями.
Грабингу чужого HTML-конетента посвящена каждая пятая тема в разделе регулярные выражения. Решения обычно напоминают пример выше.
CURL - Client URL library functions http://php.net/manual/ru/ref.curl.php предназначены и разработаны специально для создания http-запросов к чужим серверам в сложных случаях (поддержка cookies, работа через прокси, работа с https/ssl серверами)
Пример работы через curl можно поглядеть в
http://softtime.ru/forum/read.php?id_forum=1&id_theme=34820 и в
http://softtime.ru/forum/read.php?id_forum=1&id_theme=35334
там же я описал методику и пример разбора XML чистыми методами , в отличие от неряшливых, откровенно говоря, регулярных выражений.
Подчеркну только, что никакой связи между методом вытаскивания и методом разбора контента нет. То, что в одном скрипте применен и curl и XML_parse - просто совпадение. | |
| |
|
|
| |
|
|
| |
для: Trianon
(10.05.2007 в 18:53)
| | | Огромное спасибо!!!!!!!!!!Буду разбираться!:)) | |
| |
|
|
| |
|
|
| |
для: olga
(10.05.2007 в 19:05)
| | | Здравствуйте! Спасибо за помощь!! У меня получилось сделать то, что я хотела!Все работало как нужно!!! И через несколько дней не работает!!! Показывает ошибку: Warning: file_get_contents(http://www.bdopen.ru/): failed to open stream: HTTP request failed! HTTP/1.1 500 in ....php on line 6 Что случилось?! | |
| |
|
|
| |
|
|
| |
для: olga
(17.05.2007 в 17:00)
| | | сервер перегружен | |
| |
|
|
| |
|
|
| |
для: olga
(17.05.2007 в 17:00)
| | | по-моему Вы недописали сообщение.
Но судя по всему Вас забанили.
А возможно, и вправду всего лишь перегрузка.
Если обратиться к сайту напрямую из браузера - что выходит? | |
| |
|
|