Форум: Форум PHPФорум ApacheФорум Регулярные ВыраженияФорум MySQLHTML+CSS+JavaScriptФорум FlashРазное
Новые темы: 0000000
MySQL 5. В подлиннике. Авторы: Кузнецов М.В., Симдянов И.В. PHP Puzzles. Авторы: Кузнецов М.В., Симдянов И.В. Объектно-ориентированное программирование на PHP. Авторы: Кузнецов М.В., Симдянов И.В. Социальная инженерия и социальные хакеры. Авторы: Кузнецов М.В., Симдянов И.В. PHP 5/6. В подлиннике. Авторы: Кузнецов М.В., Симдянов И.В.
ВСЕ НАШИ КНИГИ
Консультационный центр SoftTime

Форум PHP

Выбрать другой форум

 

Здравствуйте, Посетитель!

вид форума:
Линейный форум Структурный форум

тема: Защита от копирования
 
 автор: napTu3aH   (24.07.2005 в 12:53)   письмо автору
 
 

Я не силен в пхп, но мне интересен и больше по душе именно он.
У меня вопрос такого хар-ра: как защитить свой сайт или отдельные его элементы от копирования программами типа "Telepor Pro" или аналогами написанными опять же на php.
В Java есть пару приемов (открытие ссылки в новом окне и пр), но не всегда это удобно, и повторюсь мне нравитсья пхп.

Подскажите пожалуста что можно придумать, например для каталога фотографий или файлов, чтобы человек мог сохранить картинку, только из браузера, а программы по скачиванию сайтов пропускали такие ссылки

Заранее благодарен

   
 
 автор: cheops   (24.07.2005 в 13:03)   письмо автору
 
   для: napTu3aH   (24.07.2005 в 12:53)
 

Можно по USER_AGENT
<?php
if(strpos($HTTP_USER_AGENT,"Teleport Pro")!==false) exit();
?>

только его подделывают часто... можно отслеживать чтобы с одного IP-адреса качали не чаще чем одну страницу за одну секунду.

   
 
 автор: napTu3aH   (24.07.2005 в 13:14)   письмо автору
 
   для: cheops   (24.07.2005 в 13:03)
 

этот код проверяет какой брайзер подключаеться к странице?
в самом Телепорте есть функция
идентифицировать его не как программу, а например как Нетскейп или Эксплорер
, что делать в таков случае.

>с одного IP-адреса качали не чаще чем одну страницу за одну
>секунду.

если в Телепорте поставить-качать по 1 файлу, он медленно но уверенно скачает весь сайт.

можно сделать, чтобы файлы или картинки лежали в недоступном месте для броузера, а когда его хотят скачать он копировался в папку "темп" и уже оттуда происходила загрузка.?
Это может решить данную проблему?

Заранее благодарен

   
 
 автор: cheops   (24.07.2005 в 18:47)   письмо автору
 
   для: napTu3aH   (24.07.2005 в 13:14)
 

Тут ничего не поделаешь, когда содавали протоколы, которые лежат в основе Интернет о таких вещах не задумывались... а сейчас так просто уже оборудование и софт во всем мире не заменишь... Отсечёте по крайней мере часть, кому будет лень разбираться в настройках Телепорта. Это хороший компромис - всех всё равно не отсечёте - есть ещё извращенцы типа меня которые любят монотонную работу - т.е. сохранение каждой страницы в ручную, а потом расстановки гиперссылок между страницами при помощи регулярных выражений... Если вы предоставляете пользователям доступ к информации - единственный способ надёжно защитить его - вообще закрыть доступ.

   
 
 автор: napTu3aH   (24.07.2005 в 19:10)   письмо автору
 
   для: cheops   (24.07.2005 в 18:47)
 

>всех всё равно не отсечёте - есть ещё извращенцы типа меня
>которые любят монотонную работу - т.е. сохранение каждой
>страницы в ручную, а потом расстановки гиперссылок между
>страницами при помощи регулярных выражений...
:) это надо ООЧень любить монотонную работу :)
на днях попросили скачать сайт
[url]www.dic.academic.ru[/url]
после пары часов за компом я решил найти и скачать все словари отдельно по 1 файлу. :)

большое спасибо за понятные ответы

   
 
 автор: cheops   (24.07.2005 в 21:53)   письмо автору
 
   для: napTu3aH   (24.07.2005 в 19:10)
 

Меня хватает на 2 дня по 12 часов :)))

   
 
 автор: Akira   (24.07.2005 в 22:12)   письмо автору
 
   для: cheops   (24.07.2005 в 21:53)
 

А у меня стоит связка CoolProxy2+Proxomitron.
Все кэшируеться для просмотра в оффлайне и режеться реклама :))
Да мне даже делать не чего не надо :) Пути такие же как и на сайте.

   
 
 автор: cheops   (24.07.2005 в 22:26)   письмо автору
 
   для: Akira   (24.07.2005 в 22:12)
 

У меня к концу марафона обычно тоже возникает желание чего-нибудь поставить... но уже ни сил, ни желания не остаётся :)))

   
 
 автор: Akira   (24.07.2005 в 22:57)   письмо автору
 
   для: cheops   (24.07.2005 в 22:26)
 

А я не для этого ставил :) У меня траффик дорогой, а с этим экономия 50%.

   
 
 автор: napTu3aH   (24.07.2005 в 13:37)   письмо автору
 
   для: cheops   (24.07.2005 в 13:03)
 

что касаетсья картинок, можно ли делать так:
www\somesite.ru\img\
лежат все картинки но доступ к каталогу закрыт через браузер
php берет оттуда нужную картинку, когда к ней обращаеться пользователь, создает копию и выводит ее в браузер, без сохранения на диск, когда страница закрывается память очищаеться.

Насколько я понимаю если в браузере сохранить такую страницу с, картинки с таким скриптом не сохраняться, т.к. будут ссылатсья на несуществующий файл.
это может помочь?

спасибо

   
 
 автор: glsv (Дизайнер)   (24.07.2005 в 15:47)   письмо автору
 
   для: napTu3aH   (24.07.2005 в 13:37)
 

Все что пришло на машину пользователя можно считать потерянным. И картинки тоже. Раз они отобразились в браузере – значит они уже сохранены на диск пользователя во временных файлах. У них могут быть чудные имена (по имени скрипта с прибавлением каких-либо символов), но тем не менее их копия уже есть у пользователя.

   
 
 автор: napTu3aH   (24.07.2005 в 17:49)   письмо автору
 
   для: glsv (Дизайнер)   (24.07.2005 в 15:47)
 

в браузере пускай копирую, я только ЗА!
проблема заключаетсья в том что-бы пользователи не делали полную копию сайта
через программы типа "Телепорт Про, Офлайн Експлорер и тд"
например [url] zoneofgames.narod.ru[/url]
с сайта нельзя программами скачать НоСД
в то время как через любой браузер с вкл. java их можно скачать

как такой метод реализовать в пхп?

   
 
 автор: Никоза   (25.07.2005 в 19:31)
 
   для: napTu3aH   (24.07.2005 в 17:49)
 

Ври придёт ночью дядка Телепорт, и поукрадёт у Вас все сайты!!!

   
 
 автор: Никоза   (25.07.2005 в 19:32)
 
   для: Никоза   (25.07.2005 в 19:31)
 

Вот придёт ночью дядька Телепорт, и поукрадёт у Вас все сайты!!!

   
 
 автор: Киналь   (25.07.2005 в 20:58)   письмо автору
 
   для: Никоза   (25.07.2005 в 19:32)
 

Есть еще прием. Можно сделать ссылку типа <a href=stop.php></a> И если запустился stop.php, значит, это качалка. Что делать - зависит от воображения=) Или не ссылку, а <img src=stop.php width=1 height=1>

   
 
 автор: Spalax   (26.07.2005 в 02:07)   письмо автору
 
   для: Киналь   (25.07.2005 в 20:58)
 

Ребята защититься нельзя не от чего можно простми ыункциями ПХП просто взять и слить все под ноль к себе и никакая ссылка stop етого не заметит !

   
 
 автор: glsv (Дизайнер)   (26.07.2005 в 05:28)   письмо автору
 
   для: Spalax   (26.07.2005 в 02:07)
 

100% защититься, конечно, нельзя, но можно значительно усложнить задачу скачивания сайта программами качалками. 80-90% людей остановятся после первого же препятствия и пойдут качать другой – более лояльный сайт.

   
 
 автор: glsv (Дизайнер)   (26.07.2005 в 05:43)   письмо автору
 
   для: Киналь   (25.07.2005 в 20:58)
 

Расширю ответ Киналя.
Задача - определить кто скачивает сайт: качалка или человек. Один из приемов это сделать – разместить на странице не видимые пользователю ссылки. Либо пустые ссылки, либо ссылки на прозрачные изображения размера 1 на 1 пиксель.

<a href=stop.php></a>
<a href=stop.php><img src=img.gif width=1 height=1></a>

Пользователь такие ссылки не сможет найти, а вот программа-качалка с большой степенью вероятности по ним пройдется.
В скрипте stop.php можно разместить сигнализатор, который будет определять IP адрес, с которого происходит и закачка и заносить его в стоп-лист.
И на всех страницах сайта проверять стоп-лист : если IP-адрес посетителя занесен туда, то не отдавать страницу.

> Или не ссылку, а <img src=stop.php width=1 height=1>
А вот так сделать не получится, т.к. скрипт stop.php будет выполняться всегда при просмотре страницы браузером.

   
 
 автор: Loki   (26.07.2005 в 09:25)   письмо автору
 
   для: glsv (Дизайнер)   (26.07.2005 в 05:43)
 

По моему, тема постепенно сказывается "как не допустить индексирования сайта поисковиками":)
Собственно, я не вижу проблемы в том, чтобы кто-то выкачивал сайт: многие сидят на модеме, и им значительно удобнее читать в оффлайне.

   
 
 автор: cheops   (26.07.2005 в 12:22)   письмо автору
 
   для: Loki   (26.07.2005 в 09:25)
 

Да мы тоже отказались от такой защиты в своё время.

   
 
 автор: [CHOL]Scorpion   (26.07.2005 в 22:01)   письмо автору
 
   для: napTu3aH   (24.07.2005 в 12:53)
 

Можно попробовать неэффективный, но до ужаса параноидальный способ зажиты от качалок: все ссылки сделать с конфирмом.

   
Rambler's Top100
вверх

Rambler's Top100 Яндекс.Метрика Яндекс цитирования