Почему гугл принял страницы page как дубль?
Страницы: 1
Почему гугл принял страницы page как дубль?
Почему гугл принял страницы page как дубли? (См. Скриншот) как от этого избавиться вообще?
Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Изменено: Ansy - 29 Ноября 2016 12:58
Цитата
Ansy пишет:
Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Это навигация по категоии, например в категории находится много новостей, на одну страницу все не помещается вот от сюда эти страницы и появляются page/2/ что означает вторая страница этой категории page/3/ page/4/ и тд
Цитата
Rich Dad пишет:
Это навигация по категоии, например в категории находится много новостей,


И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.

Цитата
masterrabot пишет:
И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.
Я вот так закрыл данную страницу, Disallow: /page/ Вроде правильно но они всё равно в поиске почему то
Цитата
Rich Dad пишет:
Disallow: /page/ Вроде правильно но они всё равно в поиске почему то


Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Цитата
masterrabot пишет:
Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Хорошо спасибо, только вот не много не понимаю как на навигационных страницах запрет прописать, попробую покапаться
Цитата
Rich Dad пишет:
как на навигационных страницах запрет прописать


Тут я вам не помогу, у вас же DLE, а я в нем не силен.
Цитата
masterrabot пишет:

Тут я вам не помогу, у вас же DLE, а я в нем не силен.
А как в  закрыть вот такую страницу http://сайт/news/page/4/ ? Что бы http://сайт/news индексировались а вот эти страницы нет http://сайт/news/page, знаете?
Цитата
Rich Dad пишет:
А как в
/robots.txt
Хотя всё, разобрался.

Disallow: */page/

Такой вариант решил проблему 
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
Цитата
Вячеслав Шаров пишет:
А вообще есть плагин удаления дублей
Какой нафиг плагин? smile:D
Цитата
Rich Dad пишет:
Disallow: */page/
Всё верно
Мы не можем похвастаться мудростью глаз
И умелыми жестами рук,
Нам не нужно все это, чтобы друг друга понять.
Сигареты в руках, чай на столе - так замыкается круг,
И вдруг нам становится страшно что-то менять.
Цитата
Вячеслав Шаров пишет:
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
первый раз слышу smile:)
В принципе ничего страшного в этом нет, если есть параметр канонических страниц. Но многие еще делают допись стр.1 стр.2 и тд в тайтл, и дескрипшн, именно оттуда ведь гугл дает дубли
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:36 Стоит ли добавлять сайт в Rambler топ 100? 
16:34 Работает ли ссылочное продвижение 2019 – 2020? 
16:22 Adsense личный опыт 
16:20 АП Яндекс ИКС 16.11.2023 
16:19 У Google наблюдается снижение трафика и, как следствие, уменьшение прибыли 
12:10 Взрывной рост роботности в Метрике 
14:12 Роскомнадзор отказал в регистрации трети блогеров-десятитысячников 
16:42 Swapper.ws - Обмен криптовалют. Быстро, выгодно, круглосуточно. 
12:22 Обмен криптовалют 
09:44 BestChange – обменивать электронную валюту можно быстро и выгодно 
04:31 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
03:53 A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc 
02:14 GoogleWalker - устранение конкурентов в Google Ads | Автоматизированная система склика | АНТИБАН 
22:20 Volna.money 
01:26 Точные прогнозы на футбол 
12:12 Linux - это максимальная свобода 
20:09 Сколько сейчас стоит наполнение ИМ? 
12:43 Куплю проигрышные букмекерские аккаунты 
04:33 Половина скидок на распродажах — фейк 
07:53 НейроБабушка наказывает мошенников 
19:59 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко