Т.е. я зашел на сайт, долго изучал страницу и через полчаса вышел. По мнению Гугла это отказ?
#16
5 Декабря 2018 18:46
Т.е. я зашел на сайт, долго изучал страницу и через полчаса вышел. По мнению Гугла это отказ?
|
#17
6 Декабря 2018 03:07
Передовое сообщество вебмастеров. Тебе к нам! |
#18
6 Декабря 2018 12:54
|
#19
6 Декабря 2018 14:19
|
#20
6 Декабря 2018 18:51
в гугле отказы настраиваются и на длительность, но это только для привычного вида.
|
#21
7 Декабря 2018 10:46
Кстати о ботах. Я баню их в роботсе. Может кому нить будет полезно знать вражин в лицо.
User-agent: grub-client Disallow: / User-agent: grub Disallow: / User-agent: looksmart Disallow: / User-agent: WebZip Disallow: / User-agent: larbin Disallow: / User-agent: b2w/0.1 Disallow: / User-agent: psbot Disallow: / User-agent: Python-urllib Disallow: / User-agent: NetMechanic Disallow: / User-agent: URL_Spider_Pro Disallow: / User-agent: CherryPicker Disallow: / User-agent: EmailCollector Disallow: / User-agent: EmailSiphon Disallow: / User-agent: WebBandit Disallow: / User-agent: EmailWolf Disallow: / User-agent: ExtractorPro Disallow: / User-agent: CopyRightCheck Disallow: / User-agent: Crescent Disallow: / User-agent: SiteSnagger Disallow: / User-agent: ProWebWalker Disallow: / User-agent: CheeseBot Disallow: / User-agent: LNSpiderguy Disallow: / User-agent: ia_archiver Disallow: / User-agent: ia_archiver/1.6 Disallow: / User-agent: Teleport Disallow: / User-agent: TeleportPro Disallow: / User-agent: MIIxpc Disallow: / User-agent: Telesoft Disallow: / User-agent: Website Quester Disallow: / User-agent: moget/2.1 Disallow: / User-agent: WebZip/4.0 Disallow: / User-agent: WebStripper Disallow: / User-agent: WebSauger Disallow: / User-agent: WebCopier Disallow: / User-agent: NetAnts Disallow: / User-agent: Mister PiX Disallow: / User-agent: WebAuto Disallow: / User-agent: TheNomad Disallow: / User-agent: WWW-Collector-E Disallow: / User-agent: RMA Disallow: / User-agent: libWeb/clsHTTP Disallow: / User-agent: asterias Disallow: / User-agent: httplib Disallow: / User-agent: turingos Disallow: / User-agent: spanner Disallow: / User-agent: InfoNaviRobot Disallow: / User-agent: Harvest/1.5 Disallow: / User-agent: Bullseye/1.0 Disallow: / User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95) Disallow: / User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0 Disallow: / User-agent: CherryPickerSE/1.0 Disallow: / User-agent: CherryPickerElite/1.0 Disallow: / User-agent: WebBandit/3.50 Disallow: / User-agent: NICErsPRO Disallow: / User-agent: Microsoft URL Control - 5.01.4511 Disallow: / User-agent: DittoSpyder Disallow: / User-agent: Foobot Disallow: / User-agent: WebmasterWorldForumBot Disallow: / User-agent: SpankBot Disallow: / User-agent: BotALot Disallow: / User-agent: lwp-trivial/1.34 Disallow: / User-agent: lwp-trivial Disallow: / User-agent: BunnySlippers Disallow: / User-agent: Microsoft URL Control - 6.00.8169 Disallow: / User-agent: URLy Warning Disallow: / User-agent: Wget/1.6 Disallow: / User-agent: Wget/1.5.3 Disallow: / User-agent: Wget Disallow: / User-agent: LinkWalker Disallow: / User-agent: cosmos Disallow: / User-agent: moget Disallow: / User-agent: hloader Disallow: / User-agent: humanlinks Disallow: / User-agent: LinkextractorPro Disallow: / User-agent: Offline Explorer Disallow: / User-agent: Mata Hari Disallow: / User-agent: LexiBot Disallow: / User-agent: Web Image Collector Disallow: / User-agent: The Intraformant Disallow: / User-agent: True_Robot/1.0 Disallow: / User-agent: True_Robot Disallow: / User-agent: BlowFish/1.0 Disallow: / User-agent: JennyBot Disallow: / User-agent: MIIxpc/4.2 Disallow: / User-agent: BuiltBotTough Disallow: / User-agent: ProPowerBot/2.14 Disallow: / User-agent: BackDoorBot/1.0 Disallow: / User-agent: toCrawl/UrlDispatcher Disallow: / User-agent: WebEnhancer Disallow: / User-agent: suzuran Disallow: / User-agent: VCI WebViewer VCI WebViewer Win32 Disallow: / User-agent: VCI Disallow: / User-agent: Szukacz/1.4 Disallow: / User-agent: QueryN Metasearch Disallow: / User-agent: Openfind data gathere Disallow: / User-agent: Openfind Disallow: / User-agent: Xenu's Link Sleuth 1.1c Disallow: / User-agent: Xenu's Disallow: / User-agent: Zeus Disallow: / User-agent: RepoMonkey Bait & Tackle/v1.01 Disallow: / User-agent: RepoMonkey Disallow: / User-agent: Microsoft URL Control Disallow: / User-agent: Openbot Disallow: / User-agent: URL Control Disallow: / User-agent: Zeus Link Scout Disallow: / User-agent: Zeus 32297 Webster Pro V2.9 Win32 Disallow: / User-agent: Webster Pro Disallow: / User-agent: EroCrawler Disallow: / User-agent: LinkScan/8.1a Unix Disallow: / User-agent: Keyword Density/0.9 Disallow: / User-agent: Kenjin Spider Disallow: / User-agent: Iron33/1.0.2 Disallow: / User-agent: Bookmark search tool Disallow: / User-agent: GetRight/4.2 Disallow: / User-agent: FairAd Client Disallow: / User-agent: Gaisbot Disallow: / User-agent: Aqua_Products Disallow: / User-agent: Radiation Retriever 1.1 Disallow: / User-agent: Flaming AttackBot Disallow: / User-agent: Oracle Ultra Search Disallow: / User-agent: MSIECrawler Disallow: / User-agent: PerMan Disallow: / User-agent: searchpreview Disallow: / User-agent: bingbot Disallow: / |
#22
7 Декабря 2018 13:10
Процент отказа от 20 до 40 % прыгает в гуле. В Яше не более 19% среднее значение 12- 13%.
|
#23
2 Марта 2019 07:45
У меня на сайтах % отказа по разному, на женском - 20-30%, а вот на бизнес тематики больше - 40%... Может из-за этого сайт не занимает высокие позиции?
|
#24
2 Марта 2019 10:41
Эх.. если бы позиции сайта и продажи зависили только от процента отказов. Это один из 200 факторов ранжирования. Да даже не фактор ранжирования, а просто показатель.
|
#25
4 Марта 2019 17:47
У меня на женском 12-17% максимум.
|
#26
4 Марта 2019 18:43
Коммерческий сайт, при посещаемости 1000 человек в сутки, процент отказов 8%
|
#27
4 Марта 2019 19:59
Народ, кто-нибудь пробовал настроить гугл-аналитику на подсчет привычного процента отказов по принципу яндекса (т.е. отказом считается пребывание на сайте менее 15 секунд)? Такая настройка есть, можно генерировать событие по 15-секундному таймеру. Я вот только думаю - а нужно ли это? Использует ли гугл эти данные в ранжировании? Если он их совсем не использует, то конечно незачем пихать лишний таймер. Есть ли на этот счет какие-нибудь опытные данные?
У меня сейчас в гугле как у топикстартера - отказы под 80%, а в Яше - около 15%. Переживаю:) |
#28
5 Марта 2019 08:50
От 5% до 15% отказов. Закономерность понять не могу
|
#29
6 Марта 2019 16:49
|
||||
24.04.2023 10:39 | Резко вырос показатель отказов - не могу определить причину |
23.09.2020 17:04 | Какой у вас ИКС и какое возможное количество переобхода страниц в Яндекс.Вебмастере? |
23.10.2018 14:07 | Какой регион присвоить в Яндекс Вебмастере? |
09.02.2018 10:12 | Процент отказов ~90% по Яндекс Метрике - WTF? |
08.03.2017 15:19 | Процент отказов после смены дизайна |