Многие вебмастера часто забывают тот факт, что цель всех поисковых систем заключается не в том, чтобы обеспечить сайтам высокие места в поиске и, как следствие, дать большой трафик, а в том, чтобы пользователи получили качественные и релевантные результаты поиска. Как показывает опыт, эти цели зачастую не совпадают. У поисковых систем есть множество критериев фильтрации сайтов, из-за которых многие ресурсы, порой вполне качественные и сделанные для людей, не попадают на первые места поиска, а часто и вообще исключаются из выдачи.
К сожалению, многие фильтры далеки от совершенства, поэтому под них попадают и вполне нормальные релевантные сайты, созданные для людей, и на которых на первый взгляд отсутствуют приемы, запрещенные правилами поисковой системы.
Самый главный фильтр – это бан, полное исключение сайта из индекса. Теоретическая обобщенная причина – нарушение лицензии поиска яндекса. Но реальных причин может быть множество, и далеко не все они очевидны на первый взгляд. Ситуация усугубляется тем, что нет открытых и четких "правил игры", а служба поддержки яндекса (Платон Щукин) крайне редко дает конкретные советы и уж точно никогда не указывает причин наложения бана.
Наиболее вероятная и распространенная причина – поисковый спам. Чаще всего встречающийся случай поискового спама это перенасыщенность страниц сайта ключевыми словами. Это может быть как умышленно, так и из-за незнания. Есть старое заблуждение, согласно которому чем больше плотность и количество ключевых слов на странице, тем лучше для позиций сайта. Эта "истина" неактуальна уже много лет. И не просто неактуальна, а еще и очень вредна.
Раньше был распространен прием заполнения мета-тегов различными ключевыми словами, в том числе не относящимися к тематике сайта, но являющимися популярными (секс, порно и т. п.). Вследствие этого влияние мета-тегов на поиск было минимизировано.
Итак, самые распространенные приемы внутренней оптимизации, которые яндекс может принять за поисковый спам и забанить сайт:
- банальное перенасыщение текста ключевыми словами и фразами. Чаще всего это бывает умышленно, человек пишет, высчитывает плотность, добавляет ключевые слова; в итоге получается, что плотность вроде и, теоретически, приемлемая, а текст получается нечитаемым. Иногда бывают случаи, когда автор сайта, увлекаясь темой, о которой он пишет, ненамеренно перенасыщает текст ключевыми словами. Поэтому после написания статью нужно обязательно вычитать, желательно вслух. А проверять плотность различными сервисами не стоит, это неинформативный показатель. Но есть и такие, кто по-прежнему считает, что плотность 5% - это залог присутствия в топе…
- публикация на страницах сайта списков ключевых слов. Было очень распространено несколько лет назад. Сейчас, к счастью, многие осознают бесполезность и весь негатив этого действия. Обычно эти списки размещаются внизу сайта, едва видным или вообще невидимым цветом, что, конечно, усугубляет ситуацию. Некоторые "продвинутые" вебмастера размещают их выше шапки и заголовков сайта, считая (опять же, следуя распространенному заблуждению), что чем выше находятся ключевики, тем больший от них эффект для продвижения. И получают заслуженный бан. Другие же используют современные методы верстки и размещают ключевики в div-ах, либо просто невидимых (display:none), либо со смещением за пределы экрана. Но робот смотрит код страницы, а из кода ключевики не спрячешь – поэтому такие методы неизбежно приводят к бану.
- публикация списков поисковых запросов. Обычно пишут "на наш сайт заходят по таким запросам" или "эту страницу можно найти в яндексе по запросам". Это классический вариант поискового спама! Так делать категорически нельзя. Некоторые движки позволяют делать это очень просто, отслеживая переходы с поисковых систем и автоматически выводя списки запросов, по которым посетители перешли на сайт. Эту функцию нужно сразу отключать. Или, в крайнем случае, закрывать эти блоки от индексации, а ссылки в них – от переходов по ним поисковых роботов.
- перенасыщенность ключевыми словами тегов и атрибутов title, h1-h6, alt, meta keywords, meta description и т. п. Не в количестве счастье! И даже наоборот – переспам может привести к бану.
- наличие на сайте страниц, созданных специально для продвижения по позициям и не содержащих полезной для посетителей информации, а также многочисленных страниц с перенаправлениями на другие ресурсы.
- наличие вообще любого скрытого текста, в том числе и со ссылками, созданного не для удобства использования, а для манипуляции результатами поисковой выдачи.
Признак бана – полное выпадение сайта из поисковой выдачи. Но не всякое выпадение однозначно является баном. Бывают ситуации, когда сайт просто вылетел из-за проблем с хостингом, из-за несовершенства алгоритмов яндекса, из-за ошибочного кода и т. п. Если вдруг сайт пропал из поисковой выдачи, нужно подождать 2-3 апдейта и, если сайт не вернется, написать в службу поддержки яндекса и вопросом о причине выпадения. И если ответ будет про нарушения на сайте – нужно эти нарушения устранить и снова написать им. Часто эти нарушения бывают неочевидными даже для самого вебмастера, так что переписка может затянуться. Если повезет, то служба поддержки намекнет на конкретную причину или даже прямо укажет на нарушения. Если нет, то нужно долго думать и внимательно анализировать сайт, желательно с привлечением сторонних специалистов.
Раньше бан от простого выпадения можно быть отличить, добавив сайт в addurl яндекса – он выдавал ошибку; сейчас это неактуально, все сайты добавляются туда без ошибки.
Другой, не менее популярный и не менее, если не более, опасный фильтр яндекса – АГС (иногда это название расшифровывают как АнтиГовноСайт). Основной симптом – в индексе остается от 1 до 10 (редко 30) страниц. И стандартный ответ службы поддержки – "Наши алгоритмы приняли решение не включать сайт в поиск. Развивайте сайт, и он вернется в выдачу". Причем этот ответ могут присылать даже тогда, когда сайт сменился, и робот новый сайт даже и не посещал, поэтому в саппорт нужно писать долго и активно, детально и без эмоций объясняя ситуацию.
Основной причиной этого фильтра (если речь идет о сайтах для людей, конечно) является дублирование контента внутри сайта. Практически все популярные движки создают страницы с одинаковым контентом – это могут быть страницы тегов, страницы разбивки по дням, месяцам и годам, страницы разделов с анонсами статей, содержащими фрагменты текстов самих статей и т. п. Логичнее, конечно, было бы исключить из поиска только дубли и оставить контент, но Яндексу, видимо, проще отфильтровать практически весь сайт, чем заниматься детальным анализом его структуры и содержимого.
Другие причины:
- сайт, состоящий на 100% из неуникального контента может попасть под АГС, если он не представляет собой ничего интересного для посетителей;
- "бредоконтент" - генерированные тексты, плохой синонимайзинг или авторерайт, автоматический перевод и т. п. Все такие сайты довольно быстро попадают под фильтр. Также под него могут попасть и сайты с безграмотными текстами.
- отсутствие контента на страницах сайтах или его очень малое количество. Впрочем, сайт, состоящий из одних только видеороликом и фотографий, может вообще не проиндексироваться.
- сайт, созданный под продажу рекламы. Если вебмастер не тратит время и силы на то, чтобы придать сайту "человекоподобный" вид, то такой сайт практически стопроцентно попадет под АГС.
- сайт, состоящий из исключительно "продажных" статей. Бытует мнение, что продажа ссылок это смерть для сайта, а вот продажа мест под статьи безопасна. На самом деле все наоборот – плохие статьи куда быстрее "убьют" сайт, чем разумная продажа ссылок, которая вообще безопасна.
Существует множество мифов и заблуждений по поводу АГС. Например (помните, это МИФЫ):
- если ссылок продано больше, чем страниц на сайте;
- если сайт прогнать по куче каталогов сразу;
- если у сайта низкая посещаемость;
- если сайт редко обновляется;
- если сайт построен на стандартном шаблоне;
- если на хостинге или на одном айпи много говносайтов и т. п.
Выйти из-под АГС крайне сложно, зачастую проще сменить домен. Можно попробовать закрыть все дубли, проверить сайт на уникальность контента и, если найдутся неуникальные статьи, заменить их новыми уникальными. Можно наполнить сайт большим количеством новых статей. Можно сменить структуру сайта.
Пессимизация – это отключение ссылочного ранжирования для конкретного сайта. Купленные и естественные ссылки перестают работать, и, как следствие, позиции резко падают. Падение обычно происходит на несколько сотен позиций, колебания в несколько десятков позиций обычно не связаны с наложенными на сайт санкциями. Все страницы сайта остаются в выдаче и находятся в поиске, но продвинуть на первые позиции его невозможно, так как не работает отключено влияние ссылочного ранжирования.
Основная причина – присутствие на сайте "ссылочных помоек", каталогов ссылок, не предназначенных для людей, а размещенных исключительно с целью манипуляции выдачей. К счастью, время больших немодерируемых каталогов ссылок на сайтах уже прошло, а было время, когда пессимизация косила многих.
Если вы решили регистрировать сайт в каталогах, то ни в коем случае нельзя размещать у себя обратные ссылки или баннеры на эти каталоги! Толку от них будет ровно ноль, а вот шанс попасть под пессимизацию очень ощутимый.
Вполне вероятна пессимизация за наличие большого числа продажных ссылок (в том числе и в статьях) – не стоит размещать их больше 4-5 на страницу.
Очень часто сайты пессимизируют за размещение слишком навязчивой и мешающей посетителям рекламы. Например, всплывающие окна или слишком большие количество тизеров на страницах. При пессимизации часто могут обнулить тиц.
Вполне возможно, что на смену пессимизации пришел фильтр "Ты последний", так как нельзя провести четкую грань между ними.
Фильтр "Ты последний" похож на Supplemental results в Гугле. Сайт пропадает из поиска, оставаясь проиндексированным. В поиске его можно найти только по уникальным фразам из текстов, которые на нем размещены, и даже по запросу, содержащему адрес сайта, он может быть не на первых местах. При этом поддержка яндекса отвечает, что ранжирование происходит нормально, в соответствии с его релевантностью.
Для сайта отключается как ссылочное ранжирование, так и влияние статического веса (внутренней перелинковки, в том числе). Как показывает опыт, основная причина – это неуникальный контент на сайте, который предназначен для заработка. Причем под "Ты последний" может попасть и первоисточник, у которого скопировали большую часть статей. В таком случае придется либо заменять ставшие неуникальными статьи, либо шерстить интернет и заставлять вебмастеров удалять копии.
Выйти из него можно лишь полностью сменив сайт, его структуру, дизайн и т. п.
Фильтр аффилиатов. Под него может попасть несколько сайтов, принадлежащих одной и той же компании, посвященных одной и той же тематике. Яндекс считает, что в топе должен быть только один сайт одной фирмы и, в теории, это правильно. Мало того, из-за некорректной работы этого фильтра с первых мест могут выпасть все сайты, а не все, кроме одного. Фильтр аффилиатов также касается и контекстной рекламы, директа – там тоже отслеживают рекламу аффилиированных сайтов.
Как и все фильтры яндекса, фильтр аффилиатов часто работает некорректно – некоторые компании занимают своими сайтами весь топ, а иногда бывает, что "склеиваются" сайты совершенно разных предприятий.
Сейчас не получается отлавливать сайты одной и той же фирмы ни по дизайну, ни по структуре… вебмастера умные и давно уже учитывают эти факторы. Даже на одной cms можно сделать несколько совершенно разных по структуре сайтов. Я уж не говорю про данные whois для доменов – их многие вебмастера делают разными, даже если сайты никак не связаны друг с другом.
Под него однозначно попадают партнерские сайты, которые созданы исключительно для перенаправления трафика на магазины или партнерки. Определить аффилиатов, помимо всего прочего, могут по пересекающимся семантическим ядрам сайтов.
Если есть необходимость продвинуть в топ несколько сайтов, то нужно их сделать максимально отличающимися друг от друга:
- whois, айпи;
- разные cms, дизайны, структуры сайтов;
- разные контакты, указанные на сайте;
- постараться сделать различными семантические ядра (кроме ключевых запросов);
- отсутствие взаимных ссылок между этими сайтами.
К сожалению, на данный момент нет достоверных способов определения этого фильтра, так как неизвестен сам алгоритм. Все это – лишь догадки.
Фильтр "Ты спамный". Официальной информации о его существовании нет, однако проявления его были замечены и классифицированы. Он накладывается не на весь сайт или домен, а на конкретную страницу по конкретному запросу. Вместо специально оптимизированной под данный запрос страницы выдается совершенно другая, намного менее релевантная.
Придуман он, как предполагается, для борьбы с "портянками" (как их иногда завуалировано называют "сео-текстами") - длинными текстами, насыщенными ключевиками, которые были созданы исключительно для продвижения страниц по запросам; польза их для людей была минимальной. Один из способов проверки попадания под фильтр "ты спамный" - ввести в поиск соответствующий запрос в измененной словоформе. Если в поиске (не обязательно на первых позициях) будет выдана нужная страницы, значит, она под фильтром. Можно также сделать поиск яндексом по своему сайту – если по нужному запросу продвигаемая страница не первая, значит, вероятно, на нее наложен этот фильтр.
Выйти из-под фильтра непросто. Нужно переписать весь текст, убрав спамность ключевика, переписав и оформив его для людей и вообще уменьшив его количество. Быть может, потребуется после этого сменить продвигаемую страницу, ее адрес.
Некоторые выделяют также разновидность фильтра, которая накладывается за "переспам" анкор-листа. Лечится его разбавлением. Скорее всего, при накладывании фильтра учитываются и внутренние факторы (поисковый спам на странице), и внешние факторы (переспам анкор-листа).
Непот-фильтр заключается в том, что вес ссылок с сайта (или, вероятно, с определенных его страниц) обнуляется. Причина – большое количество исходящих ссылок, продажных или обменных. Фильтр сайтов для взрослых (адалт-фильтр) накладывается, как понятно из названия, на сайты с эротическим или порнографическим содержанием. Причем эта эротика может быть не в самом контенте сайта, а в рекламе, особенно в тизерных блоках. Из-за таких тизеров самый приличный сайт может попасть под фильтр. Вывод – следует серьезно относиться к рекламе, размещаемой на сайте. Впрочем, были случаи наложения подобного фильтра за статьи про секс в медицинском или психологическом ключе…
Есть множество мифов и заблуждений, связанных с фильтрами яндекса.
Например, считается, что если сайт активно наращивает ссылочную массу, то он попадет в бан. Казалось бы, очень удобный способ валить конкурентов. К счастью, за это сайты не банят и не фильтруют. Нет также фильтра за редирект при помощи java-script – если сайт, конечно, не создан специально с целью перенаправлять трафик.
Многие думают, что неуникальные тексты не индексируются или же такие сайты сразу попадают в бан. Жаль, что они не сообразили пойти в выдачу и посмотреть, что там большинство сайтов не имеют уникального контента.
(Голосов: 200, Рейтинг: 4.25) |
|
Многие думают, что неуникальные тексты не индексируются или же такие сайты сразу попадают в бан. Жаль, что они не сообразили пойти в выдачу и посмотреть, что там большинство сайтов не имеют уникального контента.
Это верно, но есть и причина (одна мелочь), по которой они не вылетают |
|
Я несколько лет продвигаю сайты сразу нескольких компаний по одной и той же теме. Все висят в ТОПЕ.
Но у меня сложилось свое мнение на счет фильтров. Во первых - работ Яндекса самообучаем, и для каждого конкретного сайта он по своему работает. Т.е. ранжирует и видит вес конкретного сайта исходя из поведения его в сети начиная с момента рождения. Выражаясь простым языком - учитывается кредитная история сайта. Что это значит? Любой молодой сайт (3 мес.) работ читает и видит с нормальными стандартными настройками. По мере продвижения сайта, робот тоже начинает самообучаться, оценивая и фильтруя некоторые действия SEO-мастера. Если эти действия не выходят за пороговые критерии, то робот ведет себя нормально и продолжает повышать позиции сайта. Особенно аккуратно с внешними ссылками. Качество ссылок играет очень важную роль. И не переборщить. После определенного количества (примерно 40-50, верхний максимум 100) дальнейшее их наращивание перестает учитываться в ранжировании, хотя ТИЦ может продолжать расти. У меня есть пример на двух сайтах. Первый сайт, возраст 2 года, ТИЦ=0, PR=0, внешних ссылок = 18, количество страниц с уникальным контентом = 201 в ТОПЕ по высокочастотному запросу. Другой сайт, возраст 4 года, ТИЦ=10, PR=3, внешних ссылок = 69, количество внутренних страниц с ун. контентом = 548 - этот сайт тоже в ТОПЕ и периодически меняется позициями с первым, то выше то ниже по тому же запросу. Вывод напрашивается сам сабой. Возможно я окажусь не прав, но ссылки не играют важной роли в ранжировании. Они нужны, но в небольших дозах. На примере хотел бы отметить еще один фильтр - я бы назвал его "Уровень доверия" (УД) поисковой системы. Если для первого сайта УД = 100 %, то для второго УД = 50 % Да, фильтры существуют, но они работают индивидуально для каждого сайта. Удачи всем в мутных водах Яши! |
|
один блог попал в свое время под пессимизацию (кликандер) - с первого места в выдаче на 16 синуло, да еще тиц обнулило, кликандер убрал, за пару месяцев снова поднялся в ТОП, один ТИЦап уже прошел, пока тихо, надеюсь на грядущий (вроде как пора уже ТИЦапать - передайте яшке чтоб проснулся)
|
|
Робот яндекса настроен явно не правильно, причиной таких выводов стали ключевые фраза по которым заходили на рекламный сайт рассылки объявлений, тематика данных запросов не только не встречается на странице, но и вообще не связано с контентом сайта.
Вот ключевые запросы по которым заходили на сайт "когда клубника пускает усы" "пластинчатый радиатор" не одно из слов в запросах не встречается на сайте НИ ОДНОГО РАЗА. |
|
Vadym.O, причина простая, интернет бурлит, ссылки снимаются и появляются, всё динамично. То, что было релевантно сегодня, завтра может оказаться за бортом, и всплыть снова при очередном обновлении выдачи. Просто это живая штука, здесь не может быть ничего постоянного.
|
|
felis_serval, 9 Май 2011,
Спасибо за ответ. За последний месяй я долго анализировал поведение Яндекса. Вот что получилось: Яша одни и те же статьи то выкидывает, то включает в индекс Все на усмотрение Яши и никаких правил |
| ||
| ||
|
Дам вам совет не делайте сайтов для yandex делайте сайты для людей и отключите наконец keywords он уже давно не работает он только проверяет сайты на вшивость
|
| ||
Есть такое. Например, задайте яше вопрос, "сварочные работы"
Пришлось тут как-то искать материал для рерайта Это финиш полный, рекламой забиты первые страниц 30 выдачи, ни одной нормальной статьи. Но! Всё это следствие продвижения, а не яшиных
ТОП купленный, но не у яши же, а у сапы и друг друга, ссылки... Мне кажется, если на странице будет текст про самолеты, скажем, а в интернете будет болтаться пара сотен тысяч ссылок с жирных сайтов с анкором "любовь", эта страница неизбежно вылезет в топ на запрос "любовь"... Придет время, когда ссылки и биржи умрут... И вот тогда что мы делать будем, вообще становится непонятно. | ||
|
Да сколько яшу не изучай - он все равно через одно место все делает. Нету у них никаких четких критериев. Могут сайт забанить какой угодно и за что угодно. То же касается тИЦ. Да еще зачастую откровенно несет коммерческим подходом, когда по популярным кеям в топе плотно висят страницы почти без контента (а включают в себя только флэш ролики или видео или вообще тупо гору ссылок).
Вообще жаль конечно, что по показателям такой конторы принято измерять качество сайтов.. |
|
Я нен поленилась и посмотрела. Статьи в индексе Яндекса. А почему они не в тОПе-это уже другой вопрос. Вероятнее, по причине отсутствия этой самой оптимизации.
|
|
После прочтения сей статьи я засел на 3 дня в сеть и перебрал ВСЕ 300 статей, выкинул копипаст и проанализировал ТОЛЬКО свои рукописные статьи (более 130 шт). Среди них были тексты с количеством символов меньше 1000, с большими цитатами, продублированые на страницах тегов и просто краденые. Но 5 статей не нарушают никаких требований и полностью соответствуют всем требованиям Яндекса, а всё равно не попали в индекс:
http://zrada.org/inshe/7-prognozy-majbitne/139-a-vy-uvereny-v-sebe-i-svoih-ubezhdenijah.html http://zrada.org/suchasnist/29-methods/129-referendum-kak-sposob-ujti-ot-otvetstvennosti.html http://zrada.org/suchasnist/41-vibori/144-falsifikatsii-vyborov-v-mestnye-sovety-2010-goda.html http://zrada.org/suchasnist/9-business/213-pro-inkubator-nesuschij-jajtsa-i-reket-tupo-grabjaschij-narod.html http://zrada.org/history/2-naukovij-pidhid/32-pro-vazhlivist-analizu-ta-visnovkiv.html Вот сижу и ломаю голову - пацему Если кому интересно - можете на выбор проанализировать. Никакой спецоптимизации не проводил, чтобы попасть под фильтр "спамера". Внешние ссылки и рекламу скрываю в ноиндекс. Ссылки не продаю. Писать с нуля и видеть бан - печально. Это демотивирует. |
|
Ключевики вредны в том случае если веб-мастер старательно перенасыщает контент этими ключевиками. Как думаете стоит ли тогда использовать мета кийворды на сайте?
|
|
Яндекс ведет сумбурную политику и уже не впервые меняет правила игры. Это не наезд, а констатация факта. Я уже не оптимизирую сайты под Яндекс, если еще нужен и Google.
|
|
manca- % не более 40 (не от общего объема страниц, а от объема страниц в индексе ПС).
А вообще все индивидуально. |
| ||
На 200-300 букв нормально нагрузка 2-3 ключа в статье) Ладно, что тут спорить, ПС ориентируются на ключевые слова и это нам на руку. Это надо использовать, вот и всё. PS: Я никогда не надеюсь на "если повезет..." Точный рассчет дает результат гораздо эффективнее. | ||
|
А смысл мне понтоваться на форуме? Ладно бы я лепил ссылки и рекламу своим сайтам делал - я ж наоборот не хочу афишировать. Всё что надо было сказать - сказал. Можно вылезти и без лишних ключей, если повезёт (хватит 2-3 ключа в статье).
|
| ||
| ||
|
felis_serval, только разумная осторожность не даёт мне показать пару слов (одиночных!), по которым я в топе по смешным статьям.
|
| ||
| ||
|
Ключевики реально уже не катят - у меня есть пару топовых статей где ключи только в заголовке + всего 200-300 букв текста!
|
|
>>плохие статьи куда быстрее "убьют" сайт, чем разумная продажа ссылок, которая вообще безопасна.
откуда эти данные? и что тут имеется в виду? Всё равно что дядя Петя на заборе написал. |
|
Скорее всего, имелось ввиду, что разумная продажа=тематические ссылки в умеренном количестве (одна со страницы)
|
| ||||
| ||||
| ||
В этом тексте более 10% слова сайт в разных вариантах.... А сервисы зря обидели, просто надо уметь ими пользоваться, они достаточно информативны. | ||