Фильтры поисковых систем – неизбежная вещь. Только благодаря им (в идеале, в теории, конечно...) посетители, использующие поиск, получают релевантную выдачу; им выдаются те сайты, которые наиболее точно соответствуют введенным ими поисковым запросам. Увы, это всего лишь теория; на практике большинство фильтров очень далеко от совершенства. Их влияние приводят к тому, что на первых местах в поиске находятся не самые релевантные страницы, а те, которым удалось теми или иными способами обойти эти фильтры. Нет, конечно же, они нужны. Выдачу необходимо фильтровать, отсеивая говносайты и просто некачественные ресурсы, всяческие нарушения поисковой лицензии, обманы пользователей и т. п. Но вот, несмотря на постоянное развитие поисковых технологий, качественная эффективность фильтров не увеличивается. Их развитие и появление новых приводит лишь к всё большему и большему недовольству вебмастеров. Они перестают понимать правила поисковых систем, которые и так не написаны в явном виде. И чем дальше, тем они становятся все менее понятными. Непонимание усугубляется еще и выборочным действием фильтров. Часто в топах встречаются сайты с многочисленными нарушениями поисковых лицензий; при этом под санкции попадают и совершенно "чистые" ресурсы. Фильтры не накладываются сразу – может пройти много времени, прежде чем робот найдет на сайте нарушения и накажет его; это же касается и снятия санкций. Службы поддержки поисковых систем еще больше усложняют ситуацию, запутывая вебмастеров нечеткими ответами.
Панда
Панда "пришла" в Гугл в феврале 2011 года. Ее введение, точнее, его результаты, шокировало многих вебмастеров – и не удивительно, ведь трафик упал в несколько раз, причем на вполне "белых" сайтах для людей, которые до этого долго и успешно работали и находились на первых позициях.
Как всегда, никаких конкретных сведений о фильтре "Панда", о его особенностях и причинах, а также о методах выхода из-под него, Гугл не выложил. Через какое-то время представители Гугла поиздевались над вебмастерами, выложив список факторов, приводящих к наложению фильтра. И что мы с них видим? Да-да, все то же самое: - неуникальный контент, точнее, его большое количество;
- большое количество рекламы;
- высокий показатель отказов;
- низкое время пребывания посетителя на сайте;
- плохие исходящие ссылки;
- плохие входящие ссылки.
Универсальный ответ на вопрос "за что сайт попал под санкции", причем независимо от типа санкций, самого сайта и поисковой системы. Практической пользы от этого ответа ровно ноль, так как нормальные сайты и так избегают всех этих пунктов, но это не спасает от санкций.
В любом случае вывод можно сделать один:
Гугл ужесточил критерии к качеству сайтов в топе.
Критерии вроде бы и не изменились, но усилился контроль их соблюдения. Казалось бы, все эти принципы вполне очевидны – но следовать им всем в рамках одного сайта практически невозможно... "Ваши проблемы", говорит Гугл. Кто прав? Он, конечно; ведь именно от него зависит трафик и, как главное его следствие, прибыль, которую приносят сайты их создателям.
Но все же делать что-то надо. В первую очередь стоит обратить внимание на уникальность контента, причем не только вообще в интернете, а даже в рамках одного сайта. Вот несколько важных моментов; нелогичность некоторых из них налицо, но что поделаешь... 1. Следует избавиться от всех дублей контента. Это могут быть и краткие новости в виде фрагментов полных, и страницы с тегами, датами, разделами и т. п., в общем, все, где участки текста могут дублироваться. Все это нужно закрыть от индексации в robots.txt.
Не стоит, кстати, забывать о том, что Гугл (как и многие другие поисковые системы) не умеют определять первоисточник контента и не особо стремятся к этому. Если кто-то скопирует ваш текст, не факт, что именно его сайт попадет под санкции. Увы, вам придется переписать свои тексты, чтобы они снова стали уникальными. Да, по логике, тем самым вы поможете тому, кто скопировал ваши старые тексты – ведь они после этого тоже станут уникальными. Неприятный момент, о котором многие не думают. А многие думают – и специально копируют.
2. Также необходимо закрыть от индексации все страницы, не содержащие текстового контента, или страницы, предназначенные не для посетителей, служебные страницы и т. п. Например, такими могут быть страницы поиска по сайту, профили пользователей, списки поисковых запросов. Это же относится и к страницам с неуникальным контентом, скопированным с других сайтов, а также к нечитаемому генерированному тексту.
3. Даже несколько "плохих" страниц могут пагубно повлиять на судьбу всего сайта, остальных его страниц, в выдаче. Внимательно следите за содержимым сайта. Это особенно касается тех сайтов, контент которых создается пользователями – форумы, активно комментируемые блоги и т. п. Тщательная модерация – залог успеха. Не справляетесь сами – наймите модераторов или пригласите их из активных участников общения на сайте. Нужно сразу удалять весь спам, обсуждение тематик "на грани" (нарушения закона, порнография, наркотики и пр.), откровенно безграмотные и бессмысленные сообщения или комментарии. Были случаи, когда позиции сайта резко падали из-за одного подобного "нарушения".
4. Учитывается "социальная" активность посетителей сайта. Имеется в виду добавление ссылок на материалы ресурса в социальные сети. Для этого нужно разместить на страницах сайтах кнопки для такого добавления (вконтакте, фейсбук, гугл+, твиттер и т. п.)
5. Контента на страницах должно быть много, не пару абзацев. Да, далеко не всегда, не на всех сайтах можно обеспечить большое количество контента. Не на всех видах ресурсов оно будет полезно посетителям. Но это факт. Качество контента тоже играет большую роль – утверждается, что страницы с текстами, содержащими большое количество ошибок (орфография, пунктуация и т. п.) будут понижаться в поиске.
Длинные тексты должны быть качественно структурированы, впрочем, это логично и необходимо без всякой Панды. Никто не будет читать длинные "простыни". Нужно цеплять взгляд посетителя, используя разметку текста – заголовки, изображения (равномерно распределенные и расставленные в нужных местах), различные информационные вставки и т. п.
6. Реклама на сайтах должна дополнять контент, а не заменять его. Реклама должна приносить пользу посетителям сайта, а не раздражать их, вынуждая как можно быстрее покинуть сайт. Оптимальная реклама – тематические целевые баннеры от прямых рекламодателей и, конечно же, контекстная реклама. Впрочем, адекватность показа контекстных объявлений Адсенса зачастую вызывает вопросы.
7. Всё те же пресловутые поведенческие факторы тоже играют роль, судя по всему. А учитываются они по данным статистики Гугл Аналитикс. Вывод – не ставить вообще эту статистику – напрашивается сам собой, но верен ли он? Быть может, сайты без нее вообще будет понижаться или же поведенческие факторы для таких сайтов будут оцениваться косвенно и, следовательно, совершенно не точно. Эти данные, кстати, можно собирать через Гугл Тулбар или браузер Гугл Хром – такой себе троян получается...
8. Сайт должен быть интерактивным – его содержимое должно вызывать желание у посетителей его обсуждать, как на страницах сайта, так и на сторонних ресурсах – форумах, социальных сетях, личных блогах. Впрочем, у интерактивности есть обратная сторона. Думаю, все видели блоги, где сама запись занимает пару абзацев, а 90% содержимого страницы заполняют комментарии. Причем они идут сплошным текстом, без разбивки на треды, следовательно, если их десятки, то нереально отследить какие-либо дискуссии. Комментарии превращаются просто в поток низкокачественного контента, не приносящего никакой пользы посетителям сайта. Ну да, они могут высказаться – и что?.. высказаться можно много где. Считать ли большое количество комментариев как таковое позитивом – большой вопрос. Тем более, что это фактор, который тоже поддается несложным накруткам.
Самое неприятное - факт, что под этот фильтр попали и сайты, которые работали годами без всяких нареканий со стороны поисковых систем. Да, за такое время работы у них, вполне естественно, накопились тысячи страниц, не содержащих контента, содержащих какой-либо "непотребный" контент или же просто служебных материалов. Это могло стать следствием и недостатков движка, и недосмотра владельцев сайта. Все это не мешало и не стало вдруг мешать посетителям... ну, хотя бы потому, что просто все эти страницы не попадают на поисковые вершины и большинство людей просто их не видят, а даже если видят – сразу закрывают. У многих подобных сайтов дизайн и юзабилити могли не меняться лет десять – при этом вполне отвечать всем требованиям пользователей. При этом, повторюсь, эти сайты на все 100% удовлетворяли потребности посетителей, имели очень качественное и регулярно обновляемое текстовое содержимое и вообще долгое время являлись своего рода эталонами контентных проектов.
Так, спрашивается, чего вдруг они должны полностью меняться? Ради чего? Ведь они создавались и функционируют именно для посетителей – а посетители удовлетворены. Подстраиваться под поисковые системы? – увольте! Вот и теряется драгоценный трафик; а теряют от этого те, для кого создавались и поисковые системы – их посетители. Думаю, уже многие заметили, что если раньше требуемая информация находилась на первой странице поиска, а то и на первых 5 позициях, то теперь она может попасться и на третьей, и на четвертой странице. Неудобно, однако, и не логично.
Панда – не новый алгоритм ранжирования. Это именно фильтр, который время от времени проходится по топам и чистит их от нежеланных, по его скромному мнению, сайтов. Аналог – АГС у яндекса, причем аналогия усиливается, если понять полную нелогичность результатов работы обоих фильтров.
Можно сказать, что Панда является классификатором документов; она распределяет их по различным категориям, группам и, следовательно, "дает знак" поисковым алгоритмам для повышения или понижения их позиций, а также позиций остальных документов в рамках данного сайта. И этих категорий может быть множество... начиная от банального неуникального контента и заканчивая, казалось бы, безобидными и не влияющими на отображение, ошибками в коде страницы.
И к чему же в итоге приведет Панда и ее последующие "реинкарнации"? А к тому, что владельцы крупных сайтов начнут их забрасывать и станут заниматься "одномоментными проектами", суть которых заключается в быстром сборе трафика и денег с него. Такие сайты будут быстро попадать в топы, существовать там месяцами (ну, максимум пару лет) и потом тихо исчезать в недрах серпа. А на их место придут другие.
Она же привела к тому, что источники информации начали оказываться на более низких позициях в поиске, чем сайты, которые эту информацию копируют. Конечно, во многих ситуациях это оправдано – но все равно чаще всего хорошие новостные сайты, тем более, агентства, представляют свою информацию в отличной форме, куда лучше, чем те, кто ее просто парсит по RSS...
Если внимательно почитать вышеуказанные критерии, можно прийти к выводу, что идеальный сайт – это MFA. Да, любой современный сайт, созданный исключительно для заработка на контекстной рекламе, соответствует всем принципам "идеального сайта для людей". Но идеален ли он? – увы, нет. Его цель – не удовлетворение потребностей посетителей, а непосредственный заработок на кликах по рекламе. А потребности свои пользователи удовлетворяют на сайтах, на которые они попали по этой самой рекламе. Дорвей, по сути, но более окультуренный.
По заявлениям менеджеров Гугла, Панда использует так называемые "сигналы", которые говорят о качестве того или иного документа – среди этих сигналов не последнее место занимает реакция посетителей. И тут же указывают, что посетителям важен качественный контент.
Вскоре после введения Панды появилось официальное сообщение о том, что этот фильтр активно учитывает пользовательские отзывы, которые собираются плагином к браузеру Хром, автором которого является Гугл. Практически все сайты (84%), получившие негативные отклики, вскоре попали под "колеса" Панды. Несмотря на это, они утверждают, что блокировки сайтов пользователями сами по себе не приведут к понижению позиций – это всего лишь сигнал для алгоритма фильтрации. Но цифры говорят сами за себя...
Еще одним неприятным моментом является то, что, опять же, по заявлению представителей Гугла, Панда – алгоритм на 100% автоматический, и никакие запросы на пересмотр сайта не помогут вернуть прежние его позиции. Все решают алгоритмы. Исправите, мол, нарушения на сайте, он и вернет свои утраченные позиции сам по себе. Напоминает ответы службы поддержки Яндекса в лице Платона Щукина – "Наши алгоритмы приняли решение...", который присылали даже тогда, когда роботы на сайт и не заходили.
Как можно предположить, от Панды пострадали не только сами зафильтрованные сайты, а и те, кому они давали трафик. По цепочке, таким образом, посетителей потеряли совершенно "безобидные" ресурсы – только лишь потому, что на них ссылались сайты, попавшие под Панду. Это же касается и потери Page Rank, хоть сейчас его роль свелась к символической.
Многие, во время введения Панды, заметили, что упал также трафик и с других поисковых систем, например, Bing или Yahoo. Причин может быть несколько. Самая очевидная – эти поисковые системы используют в той или иной мере выдачу Гугла или его же методы фильтрации, или прямо, или косвенно. Менее очевидная, но более логичная причина – владельцы сайтов, попавших под фильтр, естественно, пытаются выйти из-под него, значительно видоизменяя сайт. Эти изменения могут войти в противоречия с требованиями Бинга или Яху, следовательно, в этих системах позиции сайта понижаются. Но факт остается фактом – Панда лишила трафика многих.
Есть множество рекомендаций для оценки статей, размещенных на сайте, с точки зрения или профилактики попадания под Панду, или же с целью выйти из-под нее. Нет смысла писать длинные списки, все они сводятся к одному:
Прочитайте статью и задумайтесь – стоящая она? Порекомендовали ли бы вы ее своим друзьям для ознакомления с темой? Оригинальна ли она? Хорошо ли читается?
В марте 2012 года вебмастера были "приятно" удивлены введением новой версии фильтра – 3.3. По заявлению представителей Гугла, в алгоритм было внесено более сорока изменений. Основной упор идет на изменение системы анализа и оценки ссылок – впрочем, никаких подробностей от них не последовало, кроме общих фраз об определении тематики страниц. Можно сделать вывод, что усиливается борьба с "неестественными", покупными ссылками. Эта борьба декларировалась уже давно, впрочем, никогда особо активно не велась по многим причинам. Главная причина – собственно, покупные ссылки и позволяют поисковым системам формировать релевантную выдачу. Еще одной причиной можно назвать возможность манипулирования этим фактором с целью понижения позиций конкурирующих сайтов – ведь никто не мешает накупить тысячи ссылок, ведущих на чужой сайт, и поисковая система никак не выявит это.
Пингвин
"Зоопарк" Гугла пополнился в апреле 2012 года новым алгоритмом фильтрации выдачи – Пингвином. Основной особенностью Пингвина, в отличие от прошлого алгоритма, Панды, является большая направленность на внешние факторы продвижения, а именно на ссылки. Он обращает внимание на их качество, количество, скорость изменения ссылочной массы, ее естественность и т. п. Обобщив, можно сказать, что Пингвин призван для борьбы с веб-спамом во всех его проявлениях.
В общем случае, веб-спам можно определить как любые действия, совершаемые для повышения позиций страницы без улучшения качества самой страницы и сайта в целом.
В описании алгоритма упоминается усиленное влияние естественных ссылок. Правда, ничего не говорится о том, какие именно ссылки считаются естественными и как их отличить от покупных. Как следствие, среди вебмастеров появилось новое понятие – "имитация естественности". Оно содержит внутреннее логическое противоречие, ведь как можно сымитировать естественность? Версий появляется много: - покупка ссылок с анкором, содержащим адрес сайта
- с анкором, содержащим название сайта
- с анкором в виде слов "тут", "здесь", "на сайте", "можете почитать" и т. п.
Такие ссылки называются "безанкорными", то есть, в их тексте не содержится традиционного поискового запроса. Есть ли в них смысл или же это просто трата времени и денег – большой вопрос.
Если обобщить причины, за которые сайты наказываются Пингвином, можно выделить следующее: - ему не нравится обилие ключевых слов в анкорах покупных (ну, или вдруг естественных) ссылок. Разбавляйте их, используйте околоссылочный текст... в конце концов, покупайте ссылки с анкорами, не касающимися непосредственно страницы, на которую они ведут. Также может учитываться и качество страниц-доноров, их заспамленность ключевыми словами и качество их контента.
- спаму нет! Один из немногих положительных моментов новых фильтров Гугла – это активная борьба со спамом. Автоматические прогоны Хрумером и подобными вредоносными программами, хочется верить, наконец-то уйдут в прошлое. Конечно, остается вопрос о негативном влиянии таких прогонов на сайты конкурентов... но факт остается фактом – продвижение путем агрессивного спама своих ссылок уже не будет иметь такой высокой эффективности, как раньше.
- высокая скорость наращивания покупных ссылок – плохо. Этот фактор давно уже обсуждался, но вебмастера так и не пришли к единому выводу. Например, если высокая скорость прироста ссылок это плохо, то таким способом, пусть и затратным, можно опускать в выдаче своих конкурентов. Да и что значит "высокая скорость" - сколько это ссылок в день? в месяц? Скорее всего, это понятие относительное, и в нем учитывается не только скорость сама по себе, а и качество этих самых ссылок, а также возраст и "траст" сайта-реципиента.
- место размещения ссылок тоже играет роль. Пресловутые "ссылки в футере" могут сыграть негативную роль.
- это же касается и внутренних ссылок. Если их большая часть будет содержать ключевые слова – придет Пингвин. Старайтесь делать их гармоничными и максимально естественными. Впрочем, в этом есть определенная логика и без оглядки на фильтры, ведь тексты, перенасыщенные ссылками с малочитаемым текстом, будут плохо восприниматься читателями.
- покупные статьи тоже могут быть некачественными. Например, для регистрациях в каталогах статей многие используют размноженные статьи, которые, естественно, "написаны" нечитаемым языком. Это является одним из негативных факторов для Пингвина.
- среди создателей МФА популярна регистрация длинных доменов, содержащих сразу несколько ключевых слов и фраз. Такие сайты тоже, вероятно, попадают под фильтры. Это же, скорее всего, касается и длинных адресов страниц с ключевыми словами.
- вполне вероятные негативные последствия после использования программ для обращения к Гуглу – анализ выдачи и ее парсинг, анализ позиций сайта и т. п.
Несмотря на все это, не стоит сразу же снимать все ссылки или их большинство. Стоит снять лишь откровенно плохие ссылки, и то после этого может быть временное падение позиций. Если в панели вебмастера вы не получили уведомление об "использовании некачественных ссылок", следовательно, дело в других факторах, скорее всего, внутренних, связанных с качеством самого сайта.
Внутренним фактором, как уже было сказано, могут являться внутренние ссылки – стоит внимательно просмотреть страницы сайта на предмет некачественной внутренней перелинковки. Ну, и требования по поводу уникальности и качества контента тоже остаются в силе, так как Панду никто не отменял.
Некоторые эксперты, в частности, Михаил Шакин, отмечают, что одним из факторов, влияющих на выход из-под Пингвина, являются переходы на сайт непосредственно со строки браузера, когда адрес туда вводится вручную или копируется. Следовательно, положительный эффект будет от расстановки "неактивных" ссылок в виде http://site.ru без тега a на популярных сайтах, где на такую ссылку обратят внимание люди. Ссылка, естественно, должна быть контекстной, размещенной в интересной статье.
(Голосов: 64, Рейтинг: 3.83) |
|
Про фильтры поисковых систем рекомендую почитать тут kvinta-a.ru/filtry-poiskovykh-sistem-i-ikh-ustranenie/
|
| ||
| ||
|
Мда, вот под такой я и попал. Выйти до сих пор не удалось. У кого получалось?
|
|
Группа компаний СБС много лет предоставляет услуги, такие как: ремонт и отделка квартир, коттеджей, офисов, магазинов, салонов красоты.
Мы ремонтируем помещения в домах любых типов, исполняем любой вид ремонта от косметического до капитального, при этом ремонт квартир под ключ для нас является приоритетным, но вне зависимости от обьема, мы исполняем и отдельные ремонтные работы различных помещений с такой же ответственностью и скурпулезностью, начиная с нуля, а также на любом этапе, до полной отделки. Мы даём Вам гарантию, что все будет выполнено в установленные Вами сроки, с профессиональным качеством![URL=www.c-b-c.ru/remont-kottedzhej]www.c-b-c.ru/remont-kottedzhej[/URL] |
|
Доброго дня народ.....все идет к одному полная монетизация выдачи как в гугле и яндекс берет с этого пример.....наверное все заметили после как появились такие слова Панда Пингвин АГС Песочница итд наполнился Адворс и Директ и наполнение растет с высокой скоростью...поисковики делают миллионы $ за счет этих сервисов((.Я думаю в течении 10 лет а может и ранее слово Сео останется в истории интернета обидно и досадно но деньги и прибыль это будет на 1 месте всех поисковых систем....много что еще придумают они для того что-бы заставить покупать себе позиции в выдаче поисковиков......и всегда найдется причина для любого сайта снять его с позиций или мало того не дать сайту что-бы он был в выдаче в первой десятке.Плати деньги денежку и будет тебе удача....Нет денег нет нечего!
|
|
Спасибо за информационную хорошую статью.
|
|
Как точно узнать что сайт www.fitofarma.net/ попал под Пингвин, он гдето в это время упал в поиске, и что б Вы посоветовали сделать, что значит сделать ему замену?
|
| ||
ПС. холивара не будет))) | ||
| ||
| ||
| ||
| ||
|
Мда,после этих фильтров сам пострадал, так как сайт направлен на продажи, теперь вынужден заказывать контекстню рекламу. Вот вам и монетизация выдачи google.
|
| ||
| ||
|
Понятно, что ничего не понятно, не один сайт не обходится без продвижения, и по сути все кто находится в топе двигались по ключевым анкорам.
Вы это видели? Я думал что будет гнилой а получилось бомбово))). www.fanrevolution.ru |
|
За статью спасибо автору, достаточно интересная информация. Я извлекла много полезного!
|
|
Всем добрый день.Прочитал статью - ОЧЕНЬ понравилась!!!
Комментария автора относительно новых фильтров Гугла (Панды и Пингвина), в самое яблочко. Сам занимаюсь WEB программированием и SEO оптимизацией, и наступил на грабли новых фильтров не по наслышке!!! Причем с момента ввода "Панды" пришлось конечно переписать тексты на страницах, подтвердить их авторство и закрыть на сколько это возможно от копирования - все это помогло для вывода сайта в топ 10 и было все отлично, сайт держался в топе по четырем ключевым словам и занимал не ниже ТОП 5, а то и ТОП 1. Но с момента ввода "Пингвина" продвигаемые площадки просто в " ШОПЕ ", простите за грубое слово - но по другому не скажешь, причем условия уникальности текстов, кол-во ссылочной массы, объявления, блоги, рейтинг площадок доноров, поведенческий фактор посетителей - отвечают требованиям, но из четырех запросов ведущих на одну, стартовую страницу сайта - в ТОПЕ осталось два и то делят 7-10 место, когда раньше занимали 1-3 места, два остальных один на третей странице выдачи, другого нет даже на 10-ой странице. С остальными площадками практически то-же самое. ОБИДНО БЛИН!!!! |
|
Now Google are launching Penguin 2.0 Jar and Jottling... See, what happened in the next update. If you have unique content with quality links with anchor variations, then no worries for you...
[url=www.natureondesktop.com]Free Wallpapers[/url] |
|
Пингвин направлен на продвижение эд вордс.
а не на качество улучшения поиска гугла. Для закупок ссылок нужны деньги, для продажи товаров нужен дизайн человеческий, это тоже деньги. Для создания интересного контента нужны опать деньги. Сайт который весит в топе НЕ МОЖЕТ БЫТЬ ПЛОХИМ в него вложены деньги и он направлен на зарабатывание денег. А пингвин рубанул этот топ, и повсплывало остальное гавно. Так что, я не согласен, что эти фильтры приносят пользу, как пользователям, так и вебмастерам. |
|
а я рада что есть такие роботы которые отсеивают не честных оптимизаторов и дизайнеров. Покупные ссылки - это нечестные методы, если сайт плохой и никому не нужный, зато имеет кучу покупных ссылок и сидит в Торе, пусть теперь посидит в низу
|
|
Пингвин топчет сайты со смешанным трафиком, и правильно делает. Нельзя одним глазом смотреть вниз, другим - вверх. Пострадали очень сильно сайты с огромным пузом, в разных доменных зонах, но фишка везде одна - непонятная география, не прописанная. То есть, из ТОП вылетают, в первую очередь, сайты, где есть контент на определенном языке, но нет прямых "доказательств" принадлежности этого самого сайта к стране-источнику языка.
|
|
Понятно, что ничего не понятно, не один сайт не обходится без продвижения, и по сути все кто находится в топе двигались по ключевым анкорам. То есть по честному следует забанить ВСЁ.
А вот с выводами пожалуй согласен остаётся шлёпать спам. А, что такое контекстная реклама как не перенаправление трафика. Тоже в баню! Или всё что не моё спам, спам, спам.... |
|
Привет всем!
Прочитав статью, понравилась, но при нажатии на кнопочку Твиттера вышло вот такое сообщение " Ой! Ссылка в вашем твите ведет на страницу, которая представляет опасность или содержит спам. " |
| ||
| ||
|
Никого совершенно не интересует ваш сайт.Всё уже упирается в деньги.Это уже давно стало ясно.
|
|
Во всем виновато желание вебмастеров заработать любыми способами и чем больше тем лучше - т.е. алчность. От сюда вытекает манипулирование выдачей в целях привлечь траффика , независимо от того, насколько контент соответствует запросу пользователя. Эти ваши рерайты, говно-копирайты - кому они нахер нужны? 90% интернета заполонил школо-спам, который продвигается через манипуляции выдачей - это и вынуждает разработчиков все время переделывать алгоритмы, что естесственно не всегда получается хорошо... - они стараются ради релевантной выдачи, ради пользователя.
PS.По себе знаю, сколько говна бывает в ТОП-10, когда ищешь чтонить интересное. И кто виноват во всем? - алчность. Мало кто хочет делать что-то, проще зп"здить чужой контент, заказать дешевый говно-копирайт, накупить ссылок на откровенное говно... |
|
Осталось совсем чуть-чуть до того дня когда TOP 10 поисковиков будет ИСКЛЮЧИТЕЛЬНО продаваться за деньги. Кто больше заплатит - тот будет выше. Вот увидите
|