Склейка доменов!
Страницы: 1
Склейка доменов!
Вот уже прошло больше месяца как я склеел домены( http://lycifer.ru и http://www.lycifer.ru )!
Сделал вроде всё правильно но провожу анализ сайта и мне всё равно не показывает что домены склеены!
В чем может быть причина?
Или может рано ещё?
И можно это проверить?
Каким образом склеивали? А что раньше один не отражался как зеркало другого? И ещё вопросик: почему вы начали заниматься 2-мя доменами, а не одним?
Это и есть один домен просто отражается как два!
Склеивал так: сделал ридирект и прописал в хитачес и в робот.txt!
Я же выше написал домен http://www.lycifer.ru и http://lycifer.ru делаю анализ и выдает два разных результата!
Как для двух разных сайтов!
Хотя это один сайт!
Support Yandex в ответах на эту тему пишет, что надо убрать редирект в .htaccess
ИМХО для склеивания ничего делать не требуется, а вот расклеить жду уже 3 месяца - результат 0!
Как это "для склеивания ни чего не надо"?Домену уже полтора года и всё равно анализ идет как по двум разны сайтам!
Выдает разные значения!
Для чего вообще нужны склейка/расклейка доменов? Просто никогда этим вопросом не занимался, вот и не понимаю - один склеивает, другой наоборот, для чего всё это?
Это нужно(склейка)для точного определения всех показателей домена:)
Просто некоторые данные идут на на www другие без:)
Цитата
Для чего вообще нужны склейка/расклейка доменов? Просто никогда этим вопросом не занимался, вот и не понимаю - один склеивает, другой наоборот, для чего всё это?


Ещё склеивают два разных домена что бы по дороже продать(если у одного домена ТИЦ и PR большой то и у другого будет такой же)!
Ну это называется обман!
Цитата
Как это "для склеивания ни чего не надо"?Домену уже полтора года и всё равно анализ идет как по двум разны сайтам!
Выдает разные значения!


Ну обратись в саппорт. А может у тебя в фалйе robots.txt (http://"http://help.yandex.ru/webmaster/?id=996567") причина.

Цитата
Важно: в целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву 'Host' необходимо добавлять в группе, начинающейся с записи 'User-Agent', непосредственно после директив 'Disallow'('Allow'). Аргументом директивы 'Host' является доменное имя с номером порта (80 по умолчанию), отделенным двоеточием.

Код
#Пример корректно составленного robots.txt, при обработке 
#которого директива Host учитывается
User-Agent: *
Disallow:
Host: www.myhost.ru


А мне надо на самом деле не склейку, а чтобы домен без www был главным. А Яша почему то по дефолту с www делает главным.

Попробуй удалить robots.txt
Цитата
Ну обратись в саппорт. А может у тебя в фалйе robots.txt (http://"http://help.yandex.ru/webmaster/?id=996567") причина.


Код
#Пример корректно составленного robots.txt, при обработке 
#которого директива Host учитывается
User-Agent: *
Disallow:
Host: www.myhost.ru


Это у меня уже давно сделанно!

А мне надо на самом деле не склейку, а чтобы домен без www был главным. А Яша почему то по дефолту с www делает главным.

Попробуй удалить robots.txt


Я наоборот прописал в робот.txt http://lycifer.ru
Что бы показать что этот домен главный!
Если его удалить то вот в этом случае и будет в YANDEX считать домен с www главным!
Так как при заходе на сайт первым делом запрашивает файл роботс.txt
Цитата
Я наоборот прописал в робот.txt http://lycifer.ru
Что бы показать что этот домен главный!
Если его удалить то вот в этом случае и будет в YANDEX считать домен с www главным!
Так как при заходе на сайт первым делом запрашивает файл роботс.txt


Согласен. Предложил, как наиболее быстрый способ ИМХО.
Тогда рекомендации:
Вот цитата из ЧаВо Яндекса:

Цитата
Мой сайт показывается в результатах поиска не под тем именем. Как это исправить?

Скорее всего, ваш сайт имеет несколько зеркал, и робот выбрал как основное не то зеркало, которое хочется вам. Есть несколько решений:

* удалите зеркала вашего сайта;
* на всех зеркалах, кроме того, которое вы хотите выбрать основным, разместите файл robots.txt, полностью запрещающий индексацию сайта, либо выложите на зеркалах robots.txt с директивой Host;
* разместите на главных страницах неосновных зеркал тег <meta name="robots" content="noindex, nofollow">, запрещающий их индексацию и обход по ссылкам;
* измените код главных страниц на неосновных зеркалах так, чтобы все (или почти все) ссылки с них вглубь сайта были абсолютными и вели на основное зеркало.


В случае реализации одного из вышеперечисленных советов ваше основное зеркало будет автоматически изменено по мере обхода робота.


+
Расширение стандарта robots.txt, введенное Яндексом, директива Host — это не команда считать зеркалами два любых сайта, это указание, какой сайт из группы, определенных автоматически как зеркала, считать главным. Следовательно, когда сайты будут идентифицированы как зеркала, директива Host сработает.

А у тебя он их не записал в зеркала! Может стоит удалить сайт из индекса, а затем добавить с указанием зеркала.
Цитата из ответов:
Цитата
Если сайт корректно запретил удаляемые страницы в robots.txt и сервис подтвердил, что документы будут удалены, такая задержка не является нормальной. Напишите, пожалуйста, на [email]addurl@yandex-team.ru[/email] с указанием адреса своего сайта. В большинстве случаев удаление происходит за несколько дней.
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
04:05 Что такое Яндекс Икс / Как накрутить Яндекс ИКС 
00:53 Доработка сайта 
00:49 Маркированный список выходит за пределы статьи 
00:44 Модуль DLE 
18:09 LGaming - экосистема и партнерская программа в gambling и betting вертикалях 
16:11 Давайте начнем обмен отзывами Google maps 
22:14 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
06:10 Продам обменник криптовалюты, а также новый обменник под ключ с обучением. Скидки на скрипты обменника 
04:22 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
00:54 Переверстать готовый шаблон DLE 
23:30 Coin Click.cc - Быстрый и надежный обмен электронных валют в два клика 
19:07 Linken Sphere – браузер-антидетект нового поколения 
15:02 Комплексный прогон по трастовым сайтам, статейное размещение. Рост НЧ-СЧ, Тиц-пр. 
12:42 Sapfirex.com - Современный сервис обмена криптовалют 
22:20 Точные прогнозы на футбол 
20:09 Сколько сейчас стоит наполнение ИМ? 
12:43 Куплю проигрышные букмекерские аккаунты 
04:33 Половина скидок на распродажах — фейк 
07:53 НейроБабушка наказывает мошенников 
19:59 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко 
19:57 Пятница 13-ое: VK принял радикальное решение и закрыл доступ к порно контенту