Дубли страниц на сайте
Страницы: 1 2 След.
Дубли страниц на сайте, Дубли страниц на сайте
Здравствуйте уважаемые.
У меня есть киносайт www.kinofullhd.ru/ вложил в его всю "душу". Желая угодить пользователям ранее по своей глупости я создал множество категорий в определенных разделах, то есть у меня есть 4 больших раздела, где в каждом из них множество категорий. Собственно сами разделы: фильмы по актерам (www.kinofullhd.ru/index/filmy_po_akteram/0-36), фильмы по режиссерам (www.kinofullhd.ru/index/filmy_po_rezhisseram/0-38), фильмы по годам (www.kinofullhd.ru/index/filmy_po_godam/0-37) и фильмы по странам (www.kinofullhd.ru/index/filmy_po_stranam/0-39).
Этим самым я создал множество дублей и вот почему: при добавлении фильма я автоматом добавлял его в такие категории как: жанр, год, страна, режиссер и актер, если такие имеются. То есть получается много дублей, а как известно поисковики очень не любят дубли и поняв это они стали низко ранжировать мой сайт... Это и объясняет сильно большое колебание посещаемости на моем сайте.
Подскажите пожалуйста как избавится от дублей и не ухудшит ли это избавление от дублей и так не простую ситуацию? Какие варианты есть убрать дубли? Насколько я понимаю, самый лучший вариант это закрыть все разделы от индексации в робот.тхт. Вот только есть 1 проблемка, я не знаю как правильно их закрыть(какой командой).
П.С.: Я новичок в этом деле, поэтому прошу отнестись с пониманием и без всяких заумных терминов. 
Заранее спасибо за помощь.
Уважаемые форумчане, неужто никто не сталкивался с такой проблемой и не знает как её решить.
Вот почитайте forum.ucoz.ru/forum/21-51166-1
Вот это в роботс ещё запихай:
Disallow: /*&* 
Disallow: /*?*
Disallow: /?ssid=
Страница материала и комментария к нему и здесь добавляем между тегами <head> и </head> такой код:<link rel="canonical" href="$ENTRY_URL$" />
Изменено: вадим - 8 Апреля 2014 11:54
Цитата
вадим пишет:
Вот почитайте forum.ucoz.ru/forum/21-51166-1
Вот это в роботс ещё запихай:
Disallow: /*&*
Disallow: /*?*
Disallow: /?ssid=
Страница материала и комментария к нему и здесь добавляем между тегами <head> и </head> такой код:<link rel="canonical" href="$E ­NTRY_URL$" />
Я вообще не разбираюсь в этих кодах, однако у меня 3200 фильмов на сайте и каждую страницу переделывать не совсем удобно. Может можно как-то через робота запретить?
Закрыть в роботсе это не решение проблемы, как минимум соцсигналы из за наличия кнопок будут идти на разные страницы, делайте редиректы, либо удалить категории из урлов - это будет самым правильным, но понадобится некоторое время на переиндексацию
Цитата
Я Джин пишет:
Закрыть в роботсе это не решение проблемы, как минимум соцсигналы из за наличия кнопок будут идти на разные страницы, делайте редиректы, либо удалить категории из урлов - это будет самым правильным, но понадобится некоторое время на переиндексацию
Всмысле удалить категории из УРлов? И как это сделать?
В прямом смысле, чтобы урлы были такого вида _сайт.ру\название фильма, как это сделать решать вам
Цитата
Я Джин пишет:
В прямом смысле, чтобы урлы были такого вида _сайт.ру\название фильма, как это сделать решать вам
Знать бы еще как это можно сделать.
Цитата
Сергей Лисунков пишет:
В прямом смысле, чтобы урлы были такого вида _сайт.ру\название фильма, как это сделать решать вам
Может вы хотя бы 1 пример приведете как это можно сделать? Буду очень благодарен за помощь
Цитата
Я Джин пишет:
В прямом смысле, чтобы урлы были такого вида _сайт.ру\название фильма, как это сделать решать вам
На uCoz такое осуществить невозможно.
Цитата
roseins пишет:
Цитата
Я Джин пишет:
В прямом смысле, чтобы урлы были такого вида _сайт.ру\название фильма, как это сделать решать вам
На uCoz такое осуществить невозможно.
Самый лучший вариант мне подсказали это сделать через команду link rel="canonical". Однако используя эти коды:
1) "Главная страница каталога фалов": 
<head> 
<?if($REQUEST_URI$='/')?><?else?><link rel="canonical" href="$HOME_PAGE_LINK$"/><?endif?> 
</head> 

2) "Страница со списком материалов раздела": 
<head> 
<?if($REQUEST_URI$=substr($SECTION_URL$,len($HOME_PAGE_LINK$)))?><?else?><link rel="canonical" href="$SECTION_URL$"/><?endif?> 
</head> 

3) "Страница со списком материалов категории": 
<head> 
<?if($REQUEST_URI$=substr($CAT_URL$,len($HOME_PAGE_LINK$)))?><?else?><link rel="canonical" href="$CAT_URL$"/><?endif?> 
</head> 

4) "Страница материала и комментариев к нему": 
<head> 
<?if($REQUEST_URI$=$ENTRY_URL$)?><?else?><link rel="canonical" href="$HOME_PAGE_LINK$$ENTRY_URL$"/><?endif?> 
</head>  [COLOR=#333333]Возникла проблемка. Адрес на каноническую страницу стал показываться с одним лишним слешем, то есть их появилось два перед Load. Вот пример, как стало [/COLOR][COLOR=#333333]выглядеть[/COLOR][COLOR=#333333]: [/COLOR]


www.kinofullhd.ru//load/drama/zhenskaja_izvrashhennost_smotret_onlajn/11-1-0-3228
Вот я выделил 2 слеша, но вот почему два показывает непонятно, причём это вовсе не правильно. Может кто знает как сделать, чтобы убрать один лишний слеш. Заранее спасибо.
Причём зачем используется 2 слеша (//) Как с одним слешем так и с двумя открывается одна и та же страница. Получается опять же дубль. Есть ли команда которая закрывает один лишний слеш в робот.тхт?
Пропишите так:

<?if($REQUEST_URI$=$ENTRY_URL$)?><?else?><link rel="canonical" href="http://www.kinofullhd.ru$ENTRY_URL$"/><?endif?>
Закупаю качественные ссылки тут.
Зарабатывайте на своём сайте тут и тут.
Цитата
DejetNK пишет:
Пропишите так:

<?if($REQUEST_URI$=$ENTRY_URL$)?><?else?><link rel="canonical" href="www.kinofullhd.ru$ENTRY_URL$"/><?endif?>
Если вы разбираетесь в коде, то нельзя ли по всем четырем пунктам, как правильно нужно прописать в:  "Главная страница каталога фалов",  "Страница со списком материалов раздела", "Страница со списком материалов категории", "Страница материала и комментариев к нему"Заранее спасибо.
По главной все верно, но не до конца - почему читайте ниже.

По разделам и категориям хорошо подумайте: ведь пописав каноникал на всех страницах определенного раздела или категории (детективы 1,2,3,4...105страниц) в виде <link rel="canonical" href="$SECTION_URL$"/> или <link rel="canonical" href="$CAT_URL$"/> Вы тем самым скажите поисковому роботу индексировать только главную страницу раздела или определенной категории, а все остальные страницы - например (Детективы 25 страница) будут исключены с индекса и будут считаться неканоническими.
Изменено: DejetNK - 18 Апреля 2014 17:04
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
13:05 Взрывной рост роботности в Метрике 
12:35 new way 7 
21:51 Stixi.ru. и stixi.com 
16:22 Работает ли ссылочное продвижение 2019 – 2020? 
14:13 Profit Pixels - In-House Форекс, Крипто, Трейдинг CPA Офферы | Еженедельные Выплаты | CPA до $950 
10:09 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
18:33 Trafee.com – эффективная монетизация вашего дейтинг трафика 
13:08 Нейробог - ваша замена копирайтера 
11:25 Ручное размещение вечных статей и ссылок на хороших площадках. Опыт 15 лет! 
06:04 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
20:22 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
20:21 Sectormoney.com - быстрый и удобный обменник 
17:27 Уникальный сервис SEO продвижения 
05:08 [WORDPRESS] [Gemini|GPT]️ ClipAI - Копирайтинг больше не нужен! Подключит ИИ к интернету и напишет статьи с автоматической публикацией на сайт. 
12:12 Linux - это максимальная свобода 
04:06 Точные прогнозы на футбол 
20:09 Сколько сейчас стоит наполнение ИМ? 
12:43 Куплю проигрышные букмекерские аккаунты 
04:33 Половина скидок на распродажах — фейк 
07:53 НейроБабушка наказывает мошенников 
19:59 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко