Очередные проблемы с Гуглом
Страницы: Пред. 1 2 3 4 След.
Очередные проблемы с Гуглом
Цитата
Евгений пишет:
А как по мне, так немного пошел траф лучше сегодня, особенно на счет русского сегмента
Не знаю у меня тока от  Яндекса прёт и всё smile:mad:
Любые советы взвешенные советы, кто нить...
У меня траф преобладает с Яндекса, но в последнее время  Гугл подхватывает  новые страницы и кидает их в топ1, топ3, топ5, топ10, при этом старые игнорирует. Надо наверное старые статьи реррайтить....
Моя проблема решается!smile:mad:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей


ICQ: 647366012 Skype: ftpzerocool</b>
Цитата
ZerocooL пишет:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей
Давайте не будем другие сайты рассматривать, а для начала разберём мою проблему. smile:)
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Есть подобные сайты, где с этим всё нормально. В яндексе с этим проблем нету, именно с гуглом. Отредактировать роботс тогда как под гугл?
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
mmohelper.ru/robots.txt вот так же карта сайта у продивнутого сайта
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
То есть получается так что из-за тегов у меня страницы не залитают в выдачу?
dmitrii,

Вам нравиться читать каждую страницу журнала 3-5 раз ?, а почему гуглу должно это нравиться  ? smile:)
ведь если сделать журнал из 10 статей, где все страницы будут состоять из перемешанных 10 статей вы после прочтения этих 10 статей уже незахотите читать повторно снова и снова тоже что чиатали 5 минут назад
Цитата
ZerocooL пишет:
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Вот именно что просмотрел, они практически идентичные.
Цитата
dmitrii пишет:
практически
можно убрать или добавить 1 точку в роботс и сайт вообще перестанет индексироваться smile:)
Страницы: Пред. 1 2 3 4 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
16:11 Давайте начнем обмен отзывами Google maps 
22:14 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
13:03 AntiBot Cloud - бесплатный скрипт и сервис защиты сайтов 
13:04 DreamCash.tl - заработок на онлайн-видео. До 95% отчислений, отличный конверт! 
20:13 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
15:04 Adtrafico - Правильная партнёрская сеть под бурж трафик 
19:21 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
09:33 A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc 
09:30 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
04:16 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
19:49 Sectormoney.com - быстрый и удобный обменник 
18:51 TELEGRAM EXPERT — Многоцелевой комбайн по работе с Telegram! 
02:16 BetaTransfer касса — это надежный сервис приема платежей в сфере High Risk 
21:43 Coin Click.cc - Быстрый и надежный обмен электронных валют в два клика 
23:14 Точные прогнозы на футбол 
20:09 Сколько сейчас стоит наполнение ИМ? 
12:43 Куплю проигрышные букмекерские аккаунты 
04:33 Половина скидок на распродажах — фейк 
07:53 НейроБабушка наказывает мошенников 
19:59 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко 
19:57 Пятница 13-ое: VK принял радикальное решение и закрыл доступ к порно контенту