Добрый день, уважаемые гуру!
Уже до отчаяния дело доходит, хочется взять кувалду и пойти искать гугловы сервера. Нужна ваша помощь.
Есть сайт, интернет-магазин, 9 месяцев назад была разработана более крутая версия, более функциональная и наполненная 100% уникальным контентом.
Как умный Саша я решил не рубить старую версию на корню, и выдрал со старого движка все страницы, сохранил каждую страничку в виде HTML+картинки и залил на новый движок под теми же URL-ами. В верхней части каждой старой странички заботливо добавил тулбар "Наш сайт обновился - милости просим на новый сайт, ну и ссылку на новый раздел нового сайта".
И все было прекрасно, падали желтые листья, солнышко грело, трафик после перехода на новый движок благодаря сохранению старых страниц не просел.
Как и полагается я подкинул в sitemap.xml новые урлы, старые удалять не стал.
Через некоторое время стал ставить по немногу 301 редиректы со старых страниц на новые.
Еще через 3 месяца, когда трафик на старые страницы практически сошел на нет - просто запретил к индексированию все старые страницы.
Шло время, я оптимизировал движок, выпилил образовавшиеся дубли записями в robots.txt
Потом я сделал мобильную версию, подогнал мета-теги под семантическое ядро, загнал на страницы микроразметку...
Стоит отметить, что Яшка на все реагировал адекватно, я добавляю запрет на индексацию в robots.txt - через неделю этих страниц в поиске уже нет. Я добавляю rel="canonical" - вауля, Яшка через неделю обновляет выдачу.
Гугл же муд..к! Он:
- Держит в индексе старые страницы сайта, которые запрещены в robots.txt уже 6 месяцев
- Держит в индексе все дубли, которые уже месяцев 5 как содержат в коде rel="canonical"
- До сих пор считает 80% страниц сайта не оптимизированными для мобильного, гордо сообщая об этом в поисковой выдаче, хотя в google page speed выдает ~100%
Подскажите, как пнуть эту скотину и заставить нормально проиндексировать сайт и самое главное, как заставить его выплюнуть старье, уже пол-года как запрещенное к индексации?
Уже до отчаяния дело доходит, хочется взять кувалду и пойти искать гугловы сервера. Нужна ваша помощь.
Есть сайт, интернет-магазин, 9 месяцев назад была разработана более крутая версия, более функциональная и наполненная 100% уникальным контентом.
Как умный Саша я решил не рубить старую версию на корню, и выдрал со старого движка все страницы, сохранил каждую страничку в виде HTML+картинки и залил на новый движок под теми же URL-ами. В верхней части каждой старой странички заботливо добавил тулбар "Наш сайт обновился - милости просим на новый сайт, ну и ссылку на новый раздел нового сайта".
И все было прекрасно, падали желтые листья, солнышко грело, трафик после перехода на новый движок благодаря сохранению старых страниц не просел.
Как и полагается я подкинул в sitemap.xml новые урлы, старые удалять не стал.
Через некоторое время стал ставить по немногу 301 редиректы со старых страниц на новые.
Еще через 3 месяца, когда трафик на старые страницы практически сошел на нет - просто запретил к индексированию все старые страницы.
Шло время, я оптимизировал движок, выпилил образовавшиеся дубли записями в robots.txt
Потом я сделал мобильную версию, подогнал мета-теги под семантическое ядро, загнал на страницы микроразметку...
Стоит отметить, что Яшка на все реагировал адекватно, я добавляю запрет на индексацию в robots.txt - через неделю этих страниц в поиске уже нет. Я добавляю rel="canonical" - вауля, Яшка через неделю обновляет выдачу.
Гугл же муд..к! Он:
- Держит в индексе старые страницы сайта, которые запрещены в robots.txt уже 6 месяцев
- Держит в индексе все дубли, которые уже месяцев 5 как содержат в коде rel="canonical"
- До сих пор считает 80% страниц сайта не оптимизированными для мобильного, гордо сообщая об этом в поисковой выдаче, хотя в google page speed выдает ~100%
Подскажите, как пнуть эту скотину и заставить нормально проиндексировать сайт и самое главное, как заставить его выплюнуть старье, уже пол-года как запрещенное к индексации?
Изменено:
Smyke - 15 Марта 2017 11:18