Оптимизация. Вопрос СЕОшникам
Страницы: Пред. 1 2
Оптимизация. Вопрос СЕОшникам
Dizzy ну и на том спасибо smile:)

спасибо и вам kewlar, хорошо помогли мне в коментарии, думаю я теперь понял суть.

Сейчас ежедневно добавляю по 10 материалов на сайт с уникальным описанием (300 - 500 символов)
А так же 2 дня назад выложил 10 уникальных статей на сайт с 2500 - 3500 символов каждая.
И так далее буду потихоньку добавлять по 10 уникальных материалов на сайт, думаю в теченик месяца дабьюсь хороших позиций в топах путем продвижения уникальным контентом.

да и еще:
Цитата
Наращивайте "траст"


Поясните пожалуйста термин "траст" smile:)
Цитата
Термин траст во многом определяется возрастом сайта, качеством контента и ресурса в целом. Чем старше, чем больше хорошего хорошего контента, чем выше траст у доноров ссылочной массы, чем ближе тематика и т.д. и т.п. ... понятие траста довольно обширное... Грубо говоря - это степень уважения ресурса в глаза ПС.


Проще говоря, это степень доверия поисковика к сайту
Насколько я успел понять в оптимизации, т. к. занимаюсь этим вопросом недавно, ключевые слова ещё играют роль для поисковиков. Только их должно быть от трёх до пяти фраз (фраза - 1-3 слова), большее количество не воспринимается должным образом или вообще игнорируется, проверено на практике. Ключевые слова должны обязательно содержаться в тексте главной страницы и повторятся несколько раз (желательно не меньше 3 раз). И ещё, для лучшей индексации необходимо правильное написание файла robots.txt. То же проверено. У меня некоторые страницы выпадали из индекса. Сейчас индексируются все, может даже больше, чем надо. Ну, а файл sitemap.xml в wordpress генерируется плагином автоматически. Нареканий нет.
Как показал анализ наблюдений, что хорошо гуглу - плохо яндексу.
P.S. Может это совпадение, но при переходе с Joomla на WordPress мой первый сайт mybalkhash.ru потерял свой PR2, теперь PR0.
Цитата
P.S. Может это совпадение, но при переходе с Joomla на WordPress мой первый сайт mybalkhash.ru потерял свой PR2, теперь PR0.


Изменились страницы - потерялись ссылки - упал pr.
Цитата
Насколько я успел понять в оптимизации, т. к. занимаюсь этим вопросом недавно, ключевые слова ещё играют роль для поисковиков. Только их должно быть от трёх до пяти фраз (фраза - 1-3 слова), большее количество не воспринимается должным образом или вообще игнорируется, проверено на практике. Ключевые слова должны обязательно содержаться в тексте главной страницы и повторятся несколько раз (желательно не меньше 3 раз). И ещё, для лучшей индексации необходимо правильное написание файла robots.txt. То же проверено. У меня некоторые страницы выпадали из индекса. Сейчас индексируются все, может даже больше, чем надо. Ну, а файл sitemap.xml в wordpress генерируется плагином автоматически. Нареканий нет.
Как показал анализ наблюдений, что хорошо гуглу - плохо яндексу.
P.S. Может это совпадение, но при переходе с Joomla на WordPress мой первый сайт mybalkhash.ru потерял свой PR2, теперь PR0.


А можно поинтересоваться - откуда такая уверенность, особенно, если Вы занимаетесь этим недавно? Просто ради интереса - кликните правой кнопкой по этой странице и посмотрите кеи.

Да и все остальное... При чем тут robots? Если имеется ввиду запрет индексации дублированного контента, то эти проблемы есть не у всех движков, к примеру последние версии Амиро имеют встроенные функции проверки и редакции дублей, а сайты не на PHP, а на HTML вообще не имеют этих проблем.

А насчет того, что "хорошо гуглу - плохо яндексу", так это тоже еще вопрос. Если пользоваться белыми методами раскрутки, то этот принцип не очень-то оправдывается. Есть нюансы, конечно. Может Вас не затруднит привести конкретные примеры, когда "белое" продвижение в Гугле губит позиции в Яндексе?
Спасибо Joker и Dizzy. Что-то такое я и думал...
Цитата
А можно поинтересоваться - откуда такая уверенность, особенно, если Вы занимаетесь этим недавно? Просто ради интереса - кликните правой кнопкой по этой странице и посмотрите кеи.

Да и все остальное... При чем тут robots? Если имеется ввиду запрет индексации дублированного контента, то эти проблемы есть не у всех движков, к примеру последние версии Амиро имеют встроенные функции проверки и редакции дублей, а сайты не на PHP, а на HTML вообще не имеют этих проблем.

А насчет того, что "хорошо гуглу - плохо яндексу", так это тоже еще вопрос. Если пользоваться белыми методами раскрутки, то этот принцип не очень-то оправдывается. Есть нюансы, конечно. Может Вас не затруднит привести конкретные примеры, когда "белое" продвижение в Гугле губит позиции в Яндексе?

Попытаюсь объяснить.
По поводу robots.txt. Сначала брал готовый файл на сайте разработчика wordpress. Появились проблемы с размещением и индексацией размещаемых статей. Поисковик с биржи не видел статьи, а в яндексе всё было. Нашёл другое написание файла, которое советовали знающие люди, и проблема исчезла.
По поводу ключевых слов. Собирал в кучу слова и фразы со всего сайта, проверял их на сайте статистики яндекса. После этого на протяжении нескольких дней наблюдал за сайтом, смотрел за анализом на различных ресурсах. Результат был ниже меньшего. Изменений практически не было. После того, как количество слов было доведено до нормы, анализ сайта стал давать результат интересней.
По поводу гугла и яндекса. Тут всё просто. Что идексирует гугл, то не всё индексирует яндекс. У меня в гугле по индексации ошибок нет, а в яндексе отмечены страницы, запрещённые к индексации. В этом ничего плохого не вижу. Тем более яндекс их помечает как замечания, не критичные ошибки, которых нет в гугле.
Это мои наблюдения. Это не инструкция к действию.
Цитата
По поводу robots.txt. Сначала брал готовый файл на сайте разработчика wordpress. Появились проблемы с размещением и индексацией размещаемых статей. Поисковик с биржи не видел статьи, а в яндексе всё было. Нашёл другое написание файла, которое советовали знающие люди


Так сложно запомнить несколько инструкций, чтобы самому составить роботс?

Цитата
на протяжении нескольких дней наблюдал за сайтом, смотрел за анализом на различных ресурсах.


Тоесть были изменени кеи, и в течении трех дней результат не соответствовал ожиданиям? Нуну... 3 дня... да по крайней мере месяц ждать надо

Цитата
По поводу гугла и яндекса. Тут всё просто. Что идексирует гугл, то не всё индексирует яндекс. У меня в гугле по индексации ошибок нет, а в яндексе отмечены страницы, запрещённые к индексации. В этом ничего плохого не вижу. Тем более яндекс их помечает как замечания, не критичные ошибки, которых нет в гугле.


Логика вебмастера.

Цитата
Это мои наблюдения.


Не проще почитать литературу на тему SEO? Можно секономить несколько лет своей жизни
Цитата
Так сложно запомнить несколько инструкций, чтобы самому составить роботс?



Тоесть были изменени кеи, и в течении трех дней результат не соответствовал ожиданиям? Нуну... 3 дня... да по крайней мере месяц ждать надо



Логика вебмастера.



Не проще почитать литературу на тему SEO? Можно секономить несколько лет своей жизни


наблюдал за ключевыми словами не три дня, больше, 2-3 недели. может написал не так.
Литературу по СЕО читаю, что нахожу. Благо её много.
Спасибо за критику и советы. Я ламер.
Цитата
насчет линкопомойки я имел ввиду с одной странице сайта не должно ссылаться более 10 ссылок.


Линкопомойка возникает не от определённого количества ссылок со страницы.
Важно размещение ссылок на странице. Так называемое структурирование. Если ссылки размещены одна за другой и без использования тегов, то естественно это не приветствуется. Количество ссылок со страницы важно для тех, на кого ссылка. Ссылка передаёт часть ТИЦ и PR на сайт на который ссылается. Если ссылок больше 50, то передавать уже толком нечего. Если сайт с ТИЦ 10, то ссылка со страницы с 20 ссылками ничего не принесёт. Чем меньше ссылок на странице, тем ценнее ссылка для сайтов, но зависимость тут не прямая. С тематических ресурсов ссылка будет ценнее и т.д.
Видите ли, ув. balkhash, оказывается, не все используют Вордпресс. Здесь ведется разговор об общих принципах и ошибках оптимизации, а не о конкретных движках с их проблемами. Ошибки в robots.txt типичное дело для тех, кто только осваивает новый для себя движок, пока не разберешься, что и где дублируется вполне можно оказаться в саплиментале. (От себя - вообще-то, так обращаться с роботсом нельзя. Где гарантия, что у Вас запрешено к индексации все ненужное и не запрещено кое-что необходимое? Тем более, что многие из подобных проблем могут быть решены и другими способами - плагинами, например, хотя бы All in One Seo).

Но речь не об этом. Если у Вас что-то индексируется неправильно, то это автоматом не значит, что у остальных те же проблемы. У меня есть один давнишний сайт на чистом HTML c небольшими фрагментами SSI, все страницы фактически статические, нафих мне вообще тот роботс на таком сайте? Все ненужное я давно спрятал в ноиндекс+нофоллоу.

Так и с остальным. Для объективной картины нужна широкая статистическая выборка по сайтам разного возраста, геопривязки и собранная на приличном временном отрезке. А все шевеления вроде "я поменял одно ключевое слово и вылез в топ" (это не о Вас лично, но...) это просто совпадения, попали в удачный серп и считаете что все под контролем, попали в неудачный - появляются поспешные выводы о сверхзначимости одного кея для ПС.
Цитата
Видите ли, ув. balkhash, оказывается, не все используют Вордпресс. Здесь ведется разговор об общих принципах и ошибках оптимизации, а не о конкретных движках с их проблемами. Ошибки в robots.txt типичное дело для тех, кто только осваивает новый для себя движок, пока не разберешься, что и где дублируется вполне можно оказаться в саплиментале. (От себя - вообще-то, так обращаться с роботсом нельзя. Где гарантия, что у Вас запрешено к индексации все ненужное и не запрещено кое-что необходимое? Тем более, что многие из подобных проблем могут быть решены и другими способами - плагинами, например, хотя бы All in One Seo).

Но речь не об этом. Если у Вас что-то индексируется неправильно, то это автоматом не значит, что у остальных те же проблемы. У меня есть один давнишний сайт на чистом HTML c небольшими фрагментами SSI, все страницы фактически статические, нафих мне вообще тот роботс на таком сайте? Все ненужное я давно спрятал в ноиндекс+нофоллоу.

Так и с остальным. Для объективной картины нужна широкая статистическая выборка по сайтам разного возраста, геопривязки и собранная на приличном временном отрезке. А все шевеления вроде "я поменял одно ключевое слово и вылез в топ" (это не о Вас лично, но...) это просто совпадения, попали в удачный серп и считаете что все под контролем, попали в неудачный - появляются поспешные выводы о сверхзначимости одного кея для ПС.


Спасибо. Ваша информация, думаю, не будет для меня лишней. Чем больше советов, информации, тем быстрее найдёшь нужное.
Друзья, у меня вопрос, как правельно перелинковать страницы сайта, сколько ключевых слов должны заключаться в тег <strong><h1><b>, да и вообще сколько должно быть ключевых слов на одной страницы сайта. Сколько раз Должен повторяться один ключевой запрос на этой страницы, чтобы придать больший вес этой вот самой странице?

Многие говорят что перелинковка влияет в основном на гугл на поднятие PR, а может ли она повлиять при ранжировании яндексом сайты, поднять его в потах?
Страницы: Пред. 1 2
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
20:13 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
15:04 Adtrafico - Правильная партнёрская сеть под бурж трафик 
19:21 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
17:32 Новая жизнь, старого форума 
17:41 DreamCash.tl - заработок на онлайн-видео. До 95% отчислений, отличный конверт! 
17:46 Проверить сайт на уязвимость 
17:44 Adsense личный опыт 
23:48 GoogleWalker - устранение конкурентов в Google Ads | Автоматизированная система склика | АНТИБАН 
23:24 Volna.money 
16:51 Google Voice - OLD аккаунты "SMS и звонки" 
15:30 Продам аккаунты HH.RU 
04:10 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
22:00 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
16:58 Продам обменник криптовалюты, а также новый обменник под ключ с обучением. Скидки на скрипты обменника 
21:06 Точные прогнозы на футбол 
12:43 Куплю проигрышные букмекерские аккаунты 
04:33 Половина скидок на распродажах — фейк 
07:53 НейроБабушка наказывает мошенников 
19:59 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко 
19:57 Пятница 13-ое: VK принял радикальное решение и закрыл доступ к порно контенту 
14:57 Конгресс США заявил о лабораторном происхождении коронавируса