Исключены страницы
Страницы: 1 2 След.
Исключены страницы, Подскажите
Всем привет, яндекс исключил много страниц моего сайта с поиска, проблему я нашел и решил ее. Прикол в том что страницы эти что он исключил, вылитуют оттуда только когда идет аппдейт, вот когда был нормальный шторм вылетело оттуда 100 страниц, а вот последний что был вылетело страниц 35. Можно как то ускорить это, а то пока все страницы оттуда вылетят нужно ждать аппдейтов 10.
В общем-то - вручную прописать в htaccess возврат 404 ответа на все ненужные страницы. Правда, все равно все зависит от посещаемости ботом и последующего обновления кэша ПС.
Что такое htaccess? Не со всем понял как это делается, можно пример или как то по подробнее? Оно ускорит это и быстрее выкинет страницы оттуда?
Посмотрите поиском по форуму - тема обсуждалась не раз и раскрыта хорошо.
Я просто поставил на сайт был кнопку баннера еще где то в марте, вот сам код чтоб было понятно:

<center><font color="#ffffff">Мы будем вам очень благодарны, если вы разместите нашу кнопку у себя на сайте</font><br><br><script language="JavaScript">
<!-- 
function popup1() 

prompt('Скопируйте этот код','<img src="http://мой сайт/banner.gif" alt="Читы для онлайн игр"" title="Читы для онлайн игр" width=88 height=31 border=0>'); 
return false; 

//--> 
</script> 
<a href="111111" target="_self" alt="Читы для онлайн игр"><center><img src="http://мой сайт/banner.gif" alt="Читы для онлайн игр" width=88 height=31 border=0></center>

Разместил его у себя на сайте в блоке, где 6 эдениц в коде видно выше там должен быть мой сайт прописан, а я не доглядел и так у меня все и стояло аж до сентября. А ошибки прибавлялись за этого и прибавлялись постоянно. Я просто редко заходил в вэбмастер и не видел.
После зашел в вэбмастер яндекса и увидел иключенные страницы, зашел туда и смотрю что яша приписал эти эденицы к моим считай всем файлам с которых ишла хорошая посещаемость, получилась ошибка 404. Хотя где эденицы он эти приписал ко всем файлам там идут у каждого файла разные цыфры и файлы на сайте эти не битые и рабочие.
Я вот ошибку был недавно эту нашел и исправил и страниц 150 уже вылетело за 2 аппедейта. Осталось еще 600 страниц. Ну я хочу ускорить этот процесс. И чтоб быстрее мои файлы вылители оттуда и вернулись все на свои позиции.

Писал в тех.поддержку яше мне ответил он чтоб я прописал в robots.txt 
Disallow: *111111*

Ну если я пропишу это, то страницы же оттуда не вылетят и робот их не сможет проиндексировать верно?

Дайте какие то советы пожалуйста по поводу этого, что лучше всего сделать? Буду очень вам благодарен. 

Скриншот чтоб понятно было вот:
Изменено: Doublemint - 26 Сентября 2014 21:56
Ну так что есть кто может подсказать что в такой ситуации делать, чтоб быстрее выкинуло те страницы что исключил робот и вирнулись они в поиск на свои позиции.
Цитата
Doublemint пишет:
чтоб быстрее выкинуло те страницы что исключил робот и вирнулись они в поиск на свои позиции
Это как? Что б их выкинуло и они вернулись?

Вы можете прописать запрет на свои 1111... в htaccess - это не только для яндекс поможет. В роботсе тоже можно прописать. Как - смотрите здесь, на форуме и в гугле - что новое подсказать сложно.
Самое лучшее - ModRewrite использовать и просто отсекать эти единички с 301 редиректом
Цитата
Coder пишет:
Это как? Что б их выкинуло и они вернулись?
Ну робот страницы исключил, с каждым аппдейтом страницы оттуда выходят и возращаются в поиск. Я хочу это просто искорить чтоб быстрее их выкинуло. Скриншот ниже:
Цитата
Doublemint пишет:
Я хочу это просто искорить чтоб быстрее их выкинуло
Если все-таки все правильно понял, то все, что стоит сделать, уже указано в теме (здесь, то есть). htaccess и роботс.
Цитата
Coder пишет:
Если все-таки все правильно понял, то все, что стоит сделать, уже указано в теме (здесь, то есть). htaccess и роботс.
в robots.txt поставил запрет на еденицы ети, а вот страницы будут вылитать во время аппдейта с "Исключенно роботом" ?
Цитата
Doublemint пишет:
а вот страницы будут вылитать во время аппдейта с "Исключенно роботом"
В общем-то - да, поскольку индексация и появление страниц зависит от робота(ов) - и от частоты его посещения вашего ресурса - когда обойдет все ненужные, то выбросит. Потом пройдет время, пока обновится кэш ПС.
Цитата
Coder пишет:
В общем-то - да, поскольку индексация и появление страниц зависит от робота(ов) - и от частоты его посещения вашего ресурса - когда обойдет все ненужные, то выбросит. Потом пройдет время, пока обновится кэш ПС.
просто прикол в том что пока запрета небыло страницы оттуда вылетали когда аппдейт, а вот сейчас поставил запрет на 111111 и вот мне интересно с запретом будут страницы вылетать с "Исключенно роботом" или нет.
Изменено: Doublemint - 27 Сентября 2014 17:44
Цитата
Doublemint пишет:
вот мне интересно с запретом будут страницы вылетать с "Исключенно роботом" или нет.
Так вам результат нужен, или интересно) Это риторический вопрос.
ладно ну гляну что будет, жду аппдейта)
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
10:09 01.02. Апдейт 31.01 // Chrome готовит "чёрную метку" для ИИ? 
09:57 Плагин ответа 
09:49 Исходящие ссылки из файлов .swf 
09:36 Яндекс туда же: "Нейро" отжал 50% первого экрана. Органический трафик падает 
09:20 Индексирование страниц в Яндексе 
06:15 "The web is a dynamic place". Мюллер ответил по шторму 30 января (лучше б молчал) 
06:05 Трафик пробил дно? Худший январь за 10 лет и внезапный рост продаж с Bing 
14:16 Nexulume.com Обменник без AML и KYC 
13:43 Anonflare - Приватные IPv4 прокси от 0.39 USD 
10:52 Mixmasters - Exchange without AML and KYC 
10:29 Admaker.tech - Конструктор ботов | Магазин | Подписки | Обратная связь 
09:33 Купить отзывы Яндекс Еда 
09:30 BestChange – обменивать электронную валюту можно быстро и выгодно 
09:24 Profit-smm.ru - (просмотры даром)качественная раскрутка в Vk/Inst/Yt/Tg/Tiktok за наилучшую цену! 
11:40 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко 
09:05 Точные прогнозы на футбол 
05:31 Ставки на супер тренды в спорте 
17:02 Gartner обещал смерть SEO к 2026 году. Открываем метрику и проверяем 
11:50 [AI] Бот за $600к советовал есть сыр с крысами. Нью-Йорк его (наконец-то) снес 
08:25 Отвратительное поведение 
11:00 Кто может дать инвайт на WebMasters?