Мало того еще и в выдаче их показывает...
#1
2 Января 2011 15:00
Мало того еще и в выдаче их показывает...
|
#2
2 Января 2011 15:57
И картинки, у меня аватары с форума, тянет, кнопки с сайта |
#3
2 Января 2011 16:49
А у меня и оформление сайта берёт.... |
#4
2 Января 2011 16:51
Видимо на картинки стоят прямые ссылки а файл css не запрещён? Професиональный хостинг |
#5
2 Января 2011 17:31
да, вроде css запрещены, и папки с файлами тоже закрыты от индексации....
|
#6
3 Января 2011 06:00
Смотри как путь открывается со слешем на конце и без - это 2 разные страницы, проверяй правила в роботсе. Вообше поисковики туда ходят время от времени, но в выдачу не пускают.
|
#7
3 Января 2011 10:30
все страницы со слешем
|
#8
3 Января 2011 10:51
а в роботсе что? давай на конкретных примерх, экстрасенсов нет. тем более после нового года все медихлорианы под жёсткой интоксикацией
|
#9
3 Января 2011 11:03
Все страницы категорий /category/ и страницы /page/ проиндексированы и в поиске, например: /category/wordpress/ /category/plaginyi/ и т.д. /page/2/ /page/3/ /page/4/ и т.д. Причем в панели инструментов гугла в пункте Просмотреть как Googlebot пишет что доступ запрещен в файле robots.txt. Вот и вызывает вопросы, если запрещен, то фиг ли они в поиске... В яндексе никаких проблем, проиндексированы только те которые не запрещены, а гугл все забрал... |
#10
3 Января 2011 11:46
ну собсна
Disallow: /category/чо_закрыть1/ Disallow: /category/чо_закрыть2/ Disallow: /category/чо_закрыть3/ Disallow: /page/2/ Disallow: /page/3/ Disallow: /page/4/ ... если закрыли после того как оно проиндексировалось, курите и ждите пока выпадет .. может до полугода так болтаться. Я вот о чём /page/4/ /page/4 По обоим адресам страница отдаётся? Если да то проще редирект настроить на один из или закрывать оба Гугл и яндекс по разному работают. Есть еще каноничка, думайте
Изменено:
Semantic - 3 Января 2011 11:47
|
#11
3 Января 2011 11:49
Делайте бэкграйндом, учите CSS и кладите всё в одну папку, которую перекроете в роботсе. |
#12
3 Января 2011 12:02
Да, проиндексировалось, а потом только закрыл, гугл по началу хватал все что видел, даже и страниц то еще толком не было - это моя ошибка. Нужно было перед тем как выложить в сеть все настроить... Буду ждать, когда же он их выкинет.
При вводе в адресную строку /page/4 редиректит на /page/4/ с этим проблем нет. Спасибо! |
#13
3 Января 2011 12:21
Не за что ) |
#14
3 Января 2011 15:47
У Google и Yandex в панели вебмастера возможность удаления нежелательных страниц из индекса. После закрытия их от индексации стоит отправить заявку на удаление. Иначе правда, если сайт большой, можно до полугода ждать - так он их быстрее выкинет.
|
#15
4 Января 2011 11:56
У меня тоже такая проблема, страницы с информацией о пользователях заблокированы в robots.txt и в панели пользователя написано что эти страницы запрещены в файле robots.txt. А они в индексе
Я тут прочитал в справочной гугла о метатеге noindex _http://www.google.com/support/webmasters/bin/answer.py?answer=93710
Непонятно, что теперь если я хочу убрать раздел /user/ при помощи тега noindex нужно убрать его из robots.txt? |
||||
31.10.2024 14:23 | Резкое падение трафика в Гугл |
29.06.2024 20:32 | Одновременно пропал трафик с гугл и яндекса |
08.04.2024 21:57 | Занять высокие позиции в Гугл |
26.03.2024 23:55 | Странный трафик с android.app из приложения Гугл в мобильных |
19.02.2024 12:38 | Вероятность выйти в топ гугла. Советы |