|
|
|
|
|
для: добряк
(15.03.2013 в 17:06)
| | всё верно. решение - приведение типа к целому числу с помощью (int) или intval до использования в запросе. что делать с теми, кто отправляет неправильные запросы, это уже другой вопрос. и я считаю решать его нужно не с помощью php | |
|
|
|
|
|
|
|
для: psychomc
(15.03.2013 в 16:49)
| | PHP5 практика создания web-сайтов_КузнецовМаксим - 2008. стр 328
Проверка корректности чисел является важной задачей.
Разработчики наивно полагают, что....
Однако вместо чисел, может быть введен текст и даже целые минипрограммы деструктивного действия, приводящие в лучшем случае к сбою работы , а вхудшем - к взлому.
Вот это и есть моя текущая проблема.
psychomc Ваши пояснения имеют важное, даже чрезвычайно важное значение, но у меня другая сейчас проблема
Ну извините, не в тему получается, а за помощь и желание помочь большое вам спасибо | |
|
|
|
|
|
|
|
для: добряк
(15.03.2013 в 16:43)
| | удачи | |
|
|
|
|
|
|
|
для: psychomc
(15.03.2013 в 16:31)
| | У вас наверное статические страницы? И на сайте ничего не меняется?
У меня динамические.
Пользователи редактируют, удаляют, говно втыкают - и вы предлагаете что бы гугл все это все показывал и такие сайты были на первых местах.
Я потерял интерес. Вы не методологию обсуждаете а копаете под человека или под сайт.
Привожу последний пример, что я и сделал.
http://www.opennet.ru/base/dev/mysql_search.txt.html
From: Дмитрий Лебедев, Олег Юсов
Первым делом надо порезать ручками строку.
$search = substr($search, 0, 64);
64 символов пользователю будет достаточно для поиска. Теперь каленым
железом выжжем все "ненормальные" символы.
$search = preg_replace("/[^\w\x7F-\xFF\s]/", " ", $search);
|
Я обсуждаю вопрос который тут ясно постовлен как первое дело и что надо железом выжигать
Извините, ваши подозрения в мой адрес, я обсуждать не буду | |
|
|
|
|
|
|
|
для: добряк
(15.03.2013 в 16:20)
| | то зачем он гуляет по пройденным вас особо волновать не должно. дело в том, что он не гуляет по страницам, ссылок на которые нет на вашем сайте либо на других сайтах. почему у вас он это делает, в этом и надо разобраться. подозреваю, что проблема не в гугле | |
|
|
|
|
|
|
|
для: psychomc
(15.03.2013 в 15:32)
| | Ошибаюсь в чем. Во всем? Такое невозможно.
Я так не понимаю о чем.
Я о документации Гугла, что URL должен удовлетворять требованиям.
Одно из них, если у вас ЧПУ и оно случайно испортилось у пользователя, то все равно пользователь должен попасть на страницу .
Другие требования ошибки HTTP.
Если мой сайт работает нейстойчиво, то ранг будет ниже.
Иначе, ответьте на вопрос.
Зачем Гугл постоянно гуляет по пройденным страницам?
Вы ответьте на вопрос.
Мой ответ, проверяет усточивость сайта и стабильность выдачи результатов. | |
|
|
|
|
|
|
|
для: добряк
(15.03.2013 в 15:04)
| | думаю, вы ошибаетесь, проблема скорее всего где-то в вашем сайте http://otvety.google.ru/otvety/b-thread?force=1&tid=735405626f008d5a | |
|
|
|
|
|
|
|
для: psychomc
(15.03.2013 в 14:53)
| | Не знаю такой истины. У меня от него, Гугла, очень много грязи и чепухи.
Я предполагаю что он тестирует таким способом.
У гугла есть требования к URL, у него прописано, вот он наверное и проверяет сайт, тестирует
Но самые грязные и коварные оказались мелкософт, бинго.
Все языки перебирают, 20-40 роботов одновременно в секунду на разных языках запросы делают.
Причем, через минут 20-30 их меняют другие такие же но с другими IP.
Вообщем поведение у них схожее, только бинго не сканирует получается а атакует.
Сейчас их нет, но пойдет 2-3 недели появятся сновыми IP новые боты и если не успеешь например в .htaccess, то завалят либо хостер меня отключал из-за перегрузки сервера
Вот еще новенький для меня появился, сыпет одну чепуху
http://www.majestic12.co.uk/bot.php.
Банить или как то то там иначе надоест, поэтому я добавил простоотсев дурацких запросов | |
|
|
|
|
|
|
|
для: добряк
(15.03.2013 в 14:37)
| | значит копать нужно в другую сторону. гугл не может индексировать страницы на вашем сайте, на которые нету ссылок со страниц вашего сайта, либо других сайтов. | |
|
|
|
|
|
|
|
для: psychomc
(15.03.2013 в 12:40)
| | Сами роботы, Гугл дают кривые запросы. Я понимаю для того, что-бы проверить сайт на противоударность. Я же не могу Гугл .htaccess, так он для меня основной поставщик посетителей. | |
|
|
|
|