Как заставить гугл выплюнуть из индекса страницы
Страницы: 1 2 След.
Как заставить гугл выплюнуть из индекса страницы
Добрый день, уважаемые гуру!
Уже до отчаяния дело доходит, хочется взять кувалду и пойти искать гугловы сервера. Нужна ваша помощь.

Есть сайт, интернет-магазин, 9 месяцев назад была разработана более крутая версия, более функциональная и наполненная 100% уникальным контентом.
Как умный Саша я решил не рубить старую версию на корню, и выдрал со старого движка все страницы, сохранил каждую страничку в виде HTML+картинки и залил на новый движок под теми же URL-ами. В верхней части каждой старой странички заботливо добавил тулбар "Наш сайт обновился - милости просим на новый сайт, ну и ссылку на новый раздел нового сайта".
И все было прекрасно, падали желтые листья, солнышко грело, трафик после перехода на новый движок благодаря сохранению старых страниц не просел.
Как и полагается я подкинул в sitemap.xml новые урлы, старые удалять не стал.
Через некоторое время стал ставить по немногу 301 редиректы со старых страниц на новые.
Еще через 3 месяца, когда трафик на старые страницы практически сошел на нет - просто запретил к индексированию все старые страницы.
Шло время, я оптимизировал движок, выпилил образовавшиеся дубли записями в robots.txt
Потом я сделал мобильную версию, подогнал мета-теги под семантическое ядро, загнал на страницы микроразметку...

Стоит отметить, что Яшка на все реагировал адекватно, я добавляю запрет на индексацию в robots.txt - через неделю этих страниц в поиске уже нет. Я добавляю rel="canonical" - вауля, Яшка через неделю обновляет выдачу.

Гугл же муд..к! Он:
- Держит в индексе старые страницы сайта, которые запрещены в robots.txt уже 6 месяцев
- Держит в индексе все дубли, которые уже месяцев 5 как содержат в коде rel="canonical"
- До сих пор считает 80% страниц сайта не оптимизированными для мобильного, гордо сообщая об этом в поисковой выдаче, хотя в google page speed выдает ~100%

Подскажите, как пнуть эту скотину и заставить нормально проиндексировать сайт и самое главное, как заставить его выплюнуть старье, уже пол-года как запрещенное к индексации?
Изменено: Smyke - 15 Марта 2017 11:18
aka Фантом_Страйкеруса
нужно знать специальную команду - "фу"
Ссылка на сайте всего 10 рублей https://www.cy-pr.com/forum/f79/t100010/
тиц 10, страниц в поиске 9200, 9840, 10046

Для гОВНА специальная цена – 100$ ссылка
Цитата
WhitePussy пишет:
нужно знать специальную команду - "фу"

Смешно. Угу.
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.

Кстати у меня практически такая же ситуация выкинуть нужно около 4 т стр а может есть плагин какой?
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
Цитата
WhitePussy пишет:
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!

Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
Цитата
WhitePussy пишет:
Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота:)
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!
Изменено: WhitePussy - 15 Марта 2017 22:42
Нужно было ждать пока страницы склеются и тогда только удалять со старого сайта. После удаления страниц создать новую карту сайта и добавить ее в ВМ яндекса и гугла,  после чего делать 301 с главной старого на новый. После склейки удалять весь сайт. А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить. Ему нужно больше времени от 6 мес и дольше.
Изменено: video-freelancer - 15 Марта 2017 22:51
Цитата
WhitePussy пишет:
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!

Эмм, не увидел в ваших сообщениях ничего вразумительного или по делу. Вопрос звучал так: "Как принудительно удалить страницы из индекса Гугла". Ваши ответы: "Сказать команду Фу", "Проблема не в страницах", "Нужно подождать". Вы и вправду считаете свои ответы в этой теме полезными в решении моей проблемы?
Цитата
video-freelancer пишет:
А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить
Не сразу, а спустя 3 месяца после переноса, когда трафик по старым URLам сошел на нет (видимо переклеились все-таки к тому моменту раз трафика больше не было)
Изменено: Smyke - 16 Марта 2017 09:37
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.
multimix.net.ua
Цитата
igor0230 пишет:
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.

Да вроде нет, бэклинки уже просмотрел, отдельно линки на злополучные страницы искал в поиске - ничего.
Кажется моя ошибка была в следующем:
я тупо закрыл от индекса ненужные страницы (через robots.txt) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
Цитата
Smyke пишет:
я тупо закрыл от индекса ненужные страницы (через robots.txt ) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
в вашем случае хоть роботсом можно закрыть, а у меня их не закроешь, слишком много и все идут от главной страницы. НО -закрытие в роботсе не поможет, на других сайтах проверял это, если страницы вылезли то вылезли... наверно придется ждать=) но ошибки в ВМ гугла висят.
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 2, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:36 Стоит ли добавлять сайт в Rambler топ 100? 
16:34 Работает ли ссылочное продвижение 2019 – 2020? 
16:22 Adsense личный опыт 
16:20 АП Яндекс ИКС 16.11.2023 
16:19 У Google наблюдается снижение трафика и, как следствие, уменьшение прибыли 
12:10 Взрывной рост роботности в Метрике 
14:12 Роскомнадзор отказал в регистрации трети блогеров-десятитысячников 
12:22 Обмен криптовалют 
09:44 BestChange – обменивать электронную валюту можно быстро и выгодно 
04:31 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
03:53 A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc 
02:14 GoogleWalker - устранение конкурентов в Google Ads | Автоматизированная система склика | АНТИБАН 
22:20 Volna.money 
20:46 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
01:26 Точные прогнозы на футбол 
12:12 Linux - это максимальная свобода 
20:09 Сколько сейчас стоит наполнение ИМ? 
12:43 Куплю проигрышные букмекерские аккаунты 
04:33 Половина скидок на распродажах — фейк 
07:53 НейроБабушка наказывает мошенников 
19:59 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко