Исключены страницы
Страницы: 1 2 След.
Исключены страницы, Подскажите
Всем привет, яндекс исключил много страниц моего сайта с поиска, проблему я нашел и решил ее. Прикол в том что страницы эти что он исключил, вылитуют оттуда только когда идет аппдейт, вот когда был нормальный шторм вылетело оттуда 100 страниц, а вот последний что был вылетело страниц 35. Можно как то ускорить это, а то пока все страницы оттуда вылетят нужно ждать аппдейтов 10.
В общем-то - вручную прописать в htaccess возврат 404 ответа на все ненужные страницы. Правда, все равно все зависит от посещаемости ботом и последующего обновления кэша ПС.
Что такое htaccess? Не со всем понял как это делается, можно пример или как то по подробнее? Оно ускорит это и быстрее выкинет страницы оттуда?
Посмотрите поиском по форуму - тема обсуждалась не раз и раскрыта хорошо.
Я просто поставил на сайт был кнопку баннера еще где то в марте, вот сам код чтоб было понятно:

<center><font color="#ffffff">Мы будем вам очень благодарны, если вы разместите нашу кнопку у себя на сайте</font><br><br><script language="JavaScript">
<!-- 
function popup1() 

prompt('Скопируйте этот код','<img src="http://мой сайт/banner.gif" alt="Читы для онлайн игр"" title="Читы для онлайн игр" width=88 height=31 border=0>'); 
return false; 

//--> 
</script> 
<a href="111111" target="_self" alt="Читы для онлайн игр"><center><img src="http://мой сайт/banner.gif" alt="Читы для онлайн игр" width=88 height=31 border=0></center>

Разместил его у себя на сайте в блоке, где 6 эдениц в коде видно выше там должен быть мой сайт прописан, а я не доглядел и так у меня все и стояло аж до сентября. А ошибки прибавлялись за этого и прибавлялись постоянно. Я просто редко заходил в вэбмастер и не видел.
После зашел в вэбмастер яндекса и увидел иключенные страницы, зашел туда и смотрю что яша приписал эти эденицы к моим считай всем файлам с которых ишла хорошая посещаемость, получилась ошибка 404. Хотя где эденицы он эти приписал ко всем файлам там идут у каждого файла разные цыфры и файлы на сайте эти не битые и рабочие.
Я вот ошибку был недавно эту нашел и исправил и страниц 150 уже вылетело за 2 аппедейта. Осталось еще 600 страниц. Ну я хочу ускорить этот процесс. И чтоб быстрее мои файлы вылители оттуда и вернулись все на свои позиции.

Писал в тех.поддержку яше мне ответил он чтоб я прописал в robots.txt 
Disallow: *111111*

Ну если я пропишу это, то страницы же оттуда не вылетят и робот их не сможет проиндексировать верно?

Дайте какие то советы пожалуйста по поводу этого, что лучше всего сделать? Буду очень вам благодарен. 

Скриншот чтоб понятно было вот:
Изменено: Doublemint - 26 Сентября 2014 21:56
Ну так что есть кто может подсказать что в такой ситуации делать, чтоб быстрее выкинуло те страницы что исключил робот и вирнулись они в поиск на свои позиции.
Цитата
Doublemint пишет:
чтоб быстрее выкинуло те страницы что исключил робот и вирнулись они в поиск на свои позиции
Это как? Что б их выкинуло и они вернулись?

Вы можете прописать запрет на свои 1111... в htaccess - это не только для яндекс поможет. В роботсе тоже можно прописать. Как - смотрите здесь, на форуме и в гугле - что новое подсказать сложно.
Самое лучшее - ModRewrite использовать и просто отсекать эти единички с 301 редиректом
Цитата
Coder пишет:
Это как? Что б их выкинуло и они вернулись?
Ну робот страницы исключил, с каждым аппдейтом страницы оттуда выходят и возращаются в поиск. Я хочу это просто искорить чтоб быстрее их выкинуло. Скриншот ниже:
Цитата
Doublemint пишет:
Я хочу это просто искорить чтоб быстрее их выкинуло
Если все-таки все правильно понял, то все, что стоит сделать, уже указано в теме (здесь, то есть). htaccess и роботс.
Цитата
Coder пишет:
Если все-таки все правильно понял, то все, что стоит сделать, уже указано в теме (здесь, то есть). htaccess и роботс.
в robots.txt поставил запрет на еденицы ети, а вот страницы будут вылитать во время аппдейта с "Исключенно роботом" ?
Цитата
Doublemint пишет:
а вот страницы будут вылитать во время аппдейта с "Исключенно роботом"
В общем-то - да, поскольку индексация и появление страниц зависит от робота(ов) - и от частоты его посещения вашего ресурса - когда обойдет все ненужные, то выбросит. Потом пройдет время, пока обновится кэш ПС.
Цитата
Coder пишет:
В общем-то - да, поскольку индексация и появление страниц зависит от робота(ов) - и от частоты его посещения вашего ресурса - когда обойдет все ненужные, то выбросит. Потом пройдет время, пока обновится кэш ПС.
просто прикол в том что пока запрета небыло страницы оттуда вылетали когда аппдейт, а вот сейчас поставил запрет на 111111 и вот мне интересно с запретом будут страницы вылетать с "Исключенно роботом" или нет.
Изменено: Doublemint - 27 Сентября 2014 17:44
Цитата
Doublemint пишет:
вот мне интересно с запретом будут страницы вылетать с "Исключенно роботом" или нет.
Так вам результат нужен, или интересно) Это риторический вопрос.
ладно ну гляну что будет, жду аппдейта)
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
15:30 bequn.ru 
10:47 Бесплатные посещения 
20:17 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
15:01 Adtrafico - Правильная партнёрская сеть под бурж трафик 
18:41 Продвижение заграницей 
22:36 Стоит ли добавлять сайт в Rambler топ 100? 
16:34 Работает ли ссылочное продвижение 2019 – 2020? 
21:06 USMobileSMSBot - 
20:32 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
19:17 Создам под вашу нишу сетку сайтов-сателлитов для привлечения целевого трафика 
16:10 Whatsapp рассылки и реселлерская программа 
16:03 PROXYTRAIL.com - Быстрые анонимные прокси по самым низким ценам 
15:37 рассылки viber и whatsapp 
14:10 JustProxy.Biz - Резидентные прокси без ограничения по трафику 
19:39 Куплю проигрышные букмекерские аккаунты 
05:42 Точные прогнозы на футбол 
21:04 Есть ли альтернатива Адсенсу и РСЯ? 
22:39 Кому выплата РСЯ пришла и какого числа? 
12:12 Linux - это максимальная свобода 
20:09 Сколько сейчас стоит наполнение ИМ? 
04:33 Половина скидок на распродажах — фейк