Но я robots.txt, не трогал уже очень давно. Причем подобным образом были переписаны robots.txt еще на двух моих сайтах на этом же хостинге
Что случилось? Было ли у кого такое?
![smile:ireful:](/bitrix/images/forum/smile/ireful.gif)
Изменено:
Шарко Виктор - 20 Сентября 2012 09:31
#1
20 Сентября 2012 09:31
Но я robots.txt, не трогал уже очень давно. Причем подобным образом были переписаны robots.txt еще на двух моих сайтах на этом же хостинге
![]()
Изменено:
Шарко Виктор - 20 Сентября 2012 09:31
|
#2
20 Сентября 2012 09:58
Взломали сайт и заменили роботс, такое часто бывает у людей когда ставят дырявые модули или легкие пароли
ICQ: 647366012 Skype: ftpzerocool</b> |
#3
20 Сентября 2012 14:07
ZerocooL, сам то какими модулями пользуешься? От Дольче Габбана - прямо с конвеера?
|
#4
20 Сентября 2012 17:01
|
#5
20 Сентября 2012 17:08
|
#6
20 Сентября 2012 17:26
Всё дело в драйвере hands.dll
|
#7
20 Сентября 2012 17:29
где его скачать?
|
#8
20 Сентября 2012 17:30
его не качают
![]() |
#9
20 Сентября 2012 17:50
![]() |
#10
20 Сентября 2012 19:15
самое интересное, что на сервере robots.txt старый давно не менявшийся
![]() |
#11
20 Сентября 2012 20:58
Виктор, у моего сайта такое было. Неприятно, т.к. попадали за 2 дня позиции.
Удалили роботс, залили заново и всё в норме. Был взлом какой-то хитрый. |
#12
21 Сентября 2012 09:54
Надо было мне еще вчера отписаться. Проблема решена. А была она с хостингом.
Я то написал письмо в службу поддержки. Описал ситуацию, спросил про лог всех подключавшихся, как узнать какие файлы добавились и какие изменены. А через 40 минут приходит письмо что проблема была не во взломе моих сайтов, а в том что nginx не правильно обрабатывал текстовые файлы и теперь все нормально. Я перепроверил - действительно все в порядке, но пароли все на всякий случай поменял. Тему можно закрывать. |
#13
21 Сентября 2012 13:25
|
#14
17 Марта 2014 18:50
Почитайте в яндекс справочнике как составляется роботс тхт. Он одинаков везде. Только папки разные там закрываются...
|
#15
19 Марта 2014 01:44
Всякое возможно, да и не всякий хостер признается, что сервак был взломан, темная история.
|
||||
20.02.2014 12:34 | Закрываем доступ парсерам через robots.txt |