"Перенос страничек сайта ucoz в не-ЧПУ форму" или "массовый серверный редирект"
Страницы: Пред. 1 2 3 4 След.
"Перенос страничек сайта ucoz в не-ЧПУ форму" или "массовый серверный редирект"
Цитата
Aqualang пишет:
Мне резон ли переписывать сотни строчек на запрещение?

Или можно как-то быстрее?
Ну найди сходства у ряда страниц и закрой их категории. И вообще почитай что такое роботс и с чем его едят. 
<a href="http://www.cy-pr.com/forum/f71/t41501/">Продвижение - Оптимизация - Анализ сайтов!</a>

<a href="http://www.cy-pr.com/forum/f15/t43539/">"Вкусняшки"</a>
хммм:confused:

Цитата
Aqualang пишет:
Как?
1.www.softfamily.ru/load/software/other/avtoshkola_maash_podgotovka_k_teoreticheskomu_ehkzamenu_v_gibdd_v_x3_2011/137-1-0-197

клон:

2.www.softfamily.ru/load/other/avtoshkola_maash_podgotovka_k_teoreticheskomu_ehkzamenu_v_gibdd_v_x3_2011/137-1-0-197
3.www.softfamily.ru/load/internet/download/vkbot_1_7_4/104-1-0-154

4.клон www.softfamily.ru/load/download/vkbot_1_7_4/104-1-0-154

Мне резон ли переписывать сотни строчек на запрещение?

Или можно как-то быстрее?
Если клоны создаются всегда по такому принципу, то примерно вот решение:

User-agent: *
Allow: /load/software/other/
Disallow: /load/other/
Disallow: /load/*/vkbot*

Теперь зайди в ЯВМ в раздел Проверка robots.txt подставь решение в поле для роботс, в поле хост свой сайт а в нижнее поле все перечисленные клоны и увидишь что все запрещены к индексации кроме первого. Проверь на других страницах этого раздела и их клонах. Аналогичную операцию проделай со всеми разделами каталога файлов. Работать с ним(когда надо закрыть ненужное от индексации) удобнее всего именно через роботс. К примеру иногда мне надо для посетителей страницы каталога файлов оставить, а для ПС закрыть, по причине скажем неуник контента-файл важен, он вообще на продажу, а в описании ничего уникального не написать. Тогда я при создании страницы вставляю перед названием тупое сочетание типа x3z скажем или 321,потом пишу название страницы. После создания редактирую название выкидывая это уг,но в урле оно остается после слеша. и тогда в роботс прописываю Disallow: /load/*/x3z или 321 и все, страницу пс не проиндексирует. Роботс рулит. Проблему дублей со слешем на конце решить так же просто. Disallow: */$ В индексе останутся только без слеша. А что касаемо перехода с ЧПУ на НЕЧПУ, имхо, не стоит трогать то, что работает.
Изменено: Андрей - 29 Января 2013 04:21
Цитата
Андрей пишет:
Цитата
Aqualang пишет:
Как?
1.www.softfamily.ru/load/software/other/avtoshkola_maash_podgotovka_k_teoreticheskomu_ehkzamenu_v_gibdd_v_x3_2011/137-1-0-197

клон:

2.www.softfamily.ru/load/other/avtoshkola_maash_podgotovka_k_teoreticheskomu_ehkzamenu_v_gibdd_v_x3_2011/137-1-0-197
3.www.softfamily.ru/load/internet/download/vkbot_1_7_4/104-1-0-154

4.клон www.softfamily.ru/load/download/vkbot_1_7_4/104-1-0-154

Мне резон ли переписывать сотни строчек на запрещение?

Или можно как-то быстрее?
Если клоны создаются всегда по такому принципу, то примерно вот решение:

User-agent: *
Allow: /load/software/other/
Disallow: /load/other/
Disallow: /load/*/vkbot*

Теперь зайди в ЯВМ в раздел Проверка robots.txt подставь решение в поле для роботс, в поле хост свой сайт а в нижнее поле все перечисленные клоны и увидишь что все запрещены к индексации кроме первого. Проверь на других страницах этого раздела и их клонах. Аналогичную операцию проделай со всеми разделами каталога файлов. Работать с ним(когда надо закрыть ненужное от индексации) удобнее всего именно через роботс. К примеру иногда мне надо для посетителей страницы каталога файлов оставить, а для ПС закрыть, по причине скажем неуник контента-файл важен, он вообще на продажу, а в описании ничего уникального не написать. Тогда я при создании страницы вставляю перед названием тупое сочетание типа x3z скажем или 321,потом пишу название страницы. После создания редактирую название выкидывая это уг,но в урле оно остается после слеша. и тогда в роботс прописываю Disallow: /load/*/x3z или 321 и все, страницу пс не проиндексирует. Роботс рулит. Проблему дублей со слешем на конце решить так же просто. Disallow: */$ В индексе останутся только без слеша. А что касаемо перехода с ЧПУ на НЕЧПУ, имхо, не стоит трогать то, что работает.
К чему такие мучения?)
Вы не ищете легких путей?)


Я транслитерировал ссылки в не-человекопонятную форму.
В шаблоне каталога файлов "страница материала и комментариев к нему" в голове документа пропишите метатег:
 <link rel="canonical" href="$ENTRY_URL$" />
В настройках отключите Использовать ЧПУ.
Урлы новые выпадут в индекс недели за 2-3...
не повлияет ни на что....
Лучший обменник криптовалюты на 2024 год: [url=https://clck.ru/388U5V]WEB[/url] | [url=https://clck.ru/388U7t]Telegram[/url]
Цитата
NZT пишет:
В шаблоне каталога файлов "страница материала и комментариев к нему" в голове документа пропишите метатег:
<link rel="canonical" href="$ENTRY_URL$" />
В настройках отключите Использовать ЧПУ.
Урлы новые выпадут в индекс недели за 2-3...
не повлияет ни на что....

Я решил что $ENTRY_URL$ это переменная любого адреса, а соответственно являющаяся самим адресом ЛЮБОЙ из страниц, в том числе клонированной. Канонизировать каждую страницу, включая клон, на саму себя, как то глупо.

Хотя, сейчас я посмотрю, как это будет в действии.

Почему все против переезда на ЧПУ?
Я ведь задал вопрос о влиянии такого редиректа на позиции сайта, а не просил как сдЭлать чтоб обойтись без такого редиректа.

smile:confused:
Ошибка в фразе "Почему все против переезда на ЧПУ?"
Там должно быть Не-Чпу. в связи с тем, что меня отговаривают так яростно.
Цитата
NZT пишет:
В шаблоне каталога файлов "страница материала и комментариев к нему" в голове документа пропишите метатег:
<link rel="canonical" href="$ENTRY_URL$" />
В настройках отключите Использовать ЧПУ.
Урлы новые выпадут в индекс недели за 2-3...
не повлияет ни на что....

Получилось. Все верно. Хотя до такого способа я догадался и вчера, но под гнетом сомнений отклонил данное действо.
Теперь хотелось бы узнать, вылетят ли эти страницы из индекса гугла с таким тегом и не повредит ли данный тег на канонических страницах?

И все же очень интересно, почему меня отговаривают от переезда на НЕЧПУ.

Спасибо.
Из рекомендаций панели инструментов для вебмастера Гугла:

 "...теперь пользователи могут указывать поисковым системам каноническую страницу, добавив элемент <link> с атрибутом rel="canonical" в раздел <head> неканонической версии страницы. Добавление этой ссылки и атрибута позволяет владельцам сайтов определять наборы идентичного содержания и сообщать Google: "Из всех страниц с идентичным содержанием эта является наиболее полезной. Установите для нее наивысший приоритет в результатах поиска""

Из этого не следует, что гугл исключит страницы с тегом из поиска, а как следствие, вероятно, болезнь идентичности тегов "TITLE" и дескрипшон может не вылечиться. По этому у меня большие сомнения по поводу данного метода в сравнении с  серверным редиректом, в плане идентификации страниц как клонов и склейки и удаления страниц из поиска, по сравнению с указанием "похожих", и как следствие ранжировании ниже по запросам, но не исключения из СЕРПА.

По поводу рекомендаций к переезду на не чпу мы имеем масса негативных отзывов, тем не менее, я хочу остановиться на нем, учитывая вышеизложенное.

Перечислите мне, пожалуйста, если сталкивались ( а не потому что просто знаете что так будет, как делают большинство) с подобными случаями негативные стороны редиректа на не чпу, и покажите сильные стороны канонизации клонов, пожалуйста.
Цитата
Aqualang пишет:
И все же очень интересно, почему меня отговаривают от переезда на НЕЧПУ.
Потому что не чпу, хуже чем чпу.
Цитата
Aqualang пишет:
Перечислите мне, пожалуйста, если сталкивались ( а не потому что просто знаете что так будет, как делают большинство) с подобными случаями
Делал. знаю. сайту было 8 месяцев..... посещаемый (плюс/минус 50 хост. мало - лишен внешней ссылочной полностью), весь в индексе! решил просто в качестве эксперимента убрать чпу. мне важны были результаты по ходу дела, а не после. люди как шли с пс по своим НЧ, СЧ запросам на свои страницы - так и шли...... страницы не выпали разом из индекса гугла и яндекса. даже пачками не начали отваливаться...... они вообще не начали отваливаться. они просто постепенно (около двух недель) поменяли свои урлы на новые.
Цитата
Aqualang пишет:
сильные стороны канонизации клонов, пожалуйста.
вы просто убьете клонов и соберете, разбросанный, не понятно где, вес этих страниц.
эти клоны ничего хорошего Вам не принесут (кроме цыфры в графе "проиндексировано страниц"smile;) только дело в том, что это не страницы. их не было и не будет. это адрес, по которому поисковый робот пришел на эту страницу. а он мог прийти и по адресу "комментаровать пост" - а там ссылка может выглядеть так например: #comments....... Вы можете сделать на каждую страницу 1000 вариантов входа -  и это не значит, что в индексе будет 100500млрд страниц. 
это не страницы. нету их....


Цитата
Aqualang пишет:
Из этого не следует, что гугл исключит страницы с тегом из поиска, а как следствие, вероятно, болезнь идентичности тегов "TITLE" и дескрипшон может не вылечиться.
Вылечиться. проверено. если гугль к Вам индивидуально только не относится....
Цитата
JOK3R. пишет:
Потому что не чпу, хуже чем чпу.
Вы хотели сказать "не так красиво смотрится"?есть мнение, что чпу легче запоминаются..... 
например урл страницы: 
ru.wikipedia.org/wiki/ЧПУ - можно запомнить.
а на практике Вы часто вообще запоминаете знаки в урле? заучивате как таблицу умножения?
например это:

сайт.рф/stati-pro-prodvizhenie-sajta/seorazdel/chpu-url-cheloveko-ponyatnyj-url-ego-vliyanie-na-relevantnost-i-ne-vliyanie.html

и тут конечно проще урл запомнить, и каждый раз вбивать его в адресной строке, чем добавить в закладки.... да?

А если все-таки Вы думаете, что чпу влияет на релевантность текста на странице. Влияет на выдачу при запросе. и т.д..... то да. Вы правы. но отчасти.
Как Вам объяснить..... есть такая болезнь, с которой можно прожить ровно столько же сколько и без нее.......
Цитата
NZT пишет:
ый робот пришел на эту страницу. а он мог прийти и по адресу "комментаровать пост" - а там ссылка может выглядеть так например: #comments....... Вы можете сделать на каждую страницу 1000 ва


Цитата
NZT пишет:
Цитата
Aqualang пишет:
Перечислите мне, пожалуйста, если сталкивались ( а не потому что просто знаете что так будет, как делают большинство) с подобными случаями
Делал. знаю. сайту было 8 месяцев..... посещаемый (плюс/минус 50 хост. мало - лишен внешней ссылочной полностью), весь в индексе! решил просто в качестве эксперимента убрать чпу. мне важны были результаты по ходу дела, а не после. люди как шли с пс по своим НЧ, СЧ запросам на свои страницы - так и шли...... страницы не выпали разом из индекса гугла и яндекса. даже пачками не начали отваливаться...... они вообще не начали отваливаться. они просто постепенно (около двух недель) поменяли свои урлы на новые.
Цитата
Aqualang пишет:
сильные стороны канонизации клонов, пожалуйста.
вы просто убьете клонов и соберете, разбросанный, не понятно где, вес этих страниц.
эти клоны ничего хорошего Вам не принесут (кроме цыфры в графе "проиндексировано страниц"smile;) только дело в том, что это не страницы. их не было и не будет. это адрес, по которому поисковый робот пришел на эту страницу. а он мог прийти и по адресу "комментаровать пост" - а там ссылка может выглядеть так например: #comments....... Вы можете сделать на каждую страницу 1000 вариантов входа - и это не значит, что в индексе будет 100500млрд страниц.
это не страницы. нету их....
Цитата
Aqualang пишет:
Из этого не следует, что гугл исключит страницы с тегом из поиска, а как следствие, вероятно, болезнь идентичности тегов "TITLE" и дескрипшон может не вылечиться.
Вылечиться. проверено. если гугль к Вам индивидуально только не относится....

То есть если я пропишу каноникал, из панели уйдут проблемы с повторением тайтлов и дескрипшона?
Даже при том что они останутся в индексе гугла?
Цитата
JOK3R. пишет:
Цитата
Aqualang пишет:
И все же очень интересно, почему меня отговаривают от переезда на НЕЧПУ.
Потому что не чпу, хуже чем чпу.

А где, собственно, аргументы?
Цитата
NZT пишет:
вы просто убьете клонов и соберете, разбросанный, не понятно где, вес этих страниц.

Не убью, так как они останутся в индексе. Другое дело, если при этом они не будут учитываться гуглом как дубли и в панели вебмастера наступит гармония. У Вас был подобный опыт?
Страницы: Пред. 1 2 3 4 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
23:14 Мошенники-копирайтеры 
22:47 Заработок на Биржах ссылок 2025 
22:02 Стоит ли добавлять сайт в Rambler топ 100? 
21:48 Индексация страниц 
12:34 YouTube усиливает борьбу с азартными играми: новые ограничения вступят в силу 19 марта 
12:29 Традиционные сайты на грани вымирания из-за ИИ-поисковиков 
22:10 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
23:03 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
22:12 Продам обменник криптовалюты, а также новый обменник под ключ с обучением. Скидки на скрипты обменника 
21:31 GoogleWalker - устранение конкурентов в Google Ads | Автоматизированная система склика | АНТИБАН 
20:49 North Capital - Выгодные курсы BTC, USDT, RUB 
17:28 Купить дедики Абузоустойчивые сервера Аренда сервера Купить dedic Дедик Дешево vps vds сервера дедики на SSD! 
13:13 BIGPROXY.SHOP - Резидентные Ротационные Backconnect Proxy USA EUROPA MIX [Безлимитный трафик] 
04:16 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
00:03 Точные прогнозы на футбол 
22:59 Блогер А4 на грани: компания Влада Бумаги объявляет о банкротстве 
22:54 Думскроллинг превращает нас в зомби. Как вернуть мозг к жизни? 
22:23 Telegram не смог провести различие между требованиями автократических режимов и законными демократическими запросами 
21:43 Потеря для пиратского интернета: основатель Pirate Bay погиб! 
12:22 Финансовая диета: самозапрет на покупки может стать реальностью 
13:15 С юмором по жизни!