Цитата |
---|
sharkson пишет:
Цитата |
---|
Денис Долгушев пишет:
1 - Гугл придумал нечто, что теперь заменяет значение PR
| http://www.cy-pr.com/news/se/9364/ |
Почитал твою статью и немного про то, чего там описано. В общем, как я понял, вместо значения PR будет значение KBT. И алгоритм ещё не запущен, а скоро будет запущен. Но из описания я понял, что в результате вычислений каждый сайт будет получать значение KBT также в числовом виде от 0 до 10 (0,0 - 1,0). Так что как только запустят алго, и пройдёт раздача значений, буковки PR можно будет заменить на буковки KBT. Хотят сам KBT я не совсем понял. То есть не понял совсем. Они ориентируются на свою сеть знаний (или как у них она там называется). Но я полностью уверен в том, что их сеть знаний на самом деле мало чего знает. И имеет ещё меньшую достоверность. Это я могу гарантировать на 100%, так как сам занимаюсь исследованием и работой с информацией. Пусть даже в области подводных лодок. Я тут посмотрел на сохранённую копию своего исследования на 01.10.2011 года - там было всего 856 страниц. На 01.02.2015 года резервная копия составляет 1730 страниц. Буквально за 4 года объём знания удвоился. И это всё на 100% результат текущего исследования, которое не закончено и продолжается по мере возможности, т.к. финансовых возможностей для закупок материалов нет. Но даже на этом уровне могу сказать например, что ещё никто в мире за 100 лет не работал например с документами германских тральщиков или сторожевиков 2 мировой войны и 1 мировой войны. И чего там может прорезаться одному Богу известно. Это в смысле новых данных и полученных из них результатов (кои называются знаниями). Никакой компьютер не в состоянии оценить достоверность данных так, как это может сделать человек. Потому однозначно, что та оценка KBT будет не совсем объективна. Могу даже сказать, что в 2005 году, когда я имел материала всего чуть более чем на 500 страниц я твёрдо знал, что больше уже быть не может. Сейчас, в 2015 году я имею материала на 1730 страниц и твёрдо знаю, что если будут деньги на материалы, то вполне возможны и 2000 страниц текстовой копии исследования. А какие качественные результаты могут быть найдены - это даже представить не могу. А когда исследование продолжается, то как алгоритм сумеет оценить его достоверность? Так как во время исследования всё время результаты улучшаются и находятся ошибки. И заодно устанавливается например то, что результаты полученные ранее и считавшиеся правильными на самом деле ошибочные, и потому исправляются сразу, как устанавливается факт ошибки. Ни один компьютер или программа не в состоянии устанавливать результаты исследования и оценивать их достоверность. Ну и плюс к этому нужно помнить, что Гугл всё-таки американская компания, и потому политические исправления, например истории, там всегда есть. И что может помешать американцам внести в их базу знаний политически мотивированные изменения делающие недостоверную информацию у них достоверной, а правдивую недостоверной? Такое никто не может гарантировать в принципе. Ну и наконец смогу сказать, что моё исследование улучшается ежедневно, когда я им занимаюсь. Каким образом алгоритм Гугла, даже если предположить его объективность, сумеет проверять достоверность информации на сайте? Вот на примере своего исследования могу привести пример, что допустим была 1 атака американской подводной лодки. Но документы по ней уничтожены или утеряны. Японский конвой по которому была проведена атака также информацию про атаку не сохранил. В Японии при капитуляции уничтожили очень много документов, в том числе и конвойных. Понятно, что длительным (или не очень) изучением ситуации с местом атаки лодки и теми конвоями, что были в море рано или поздно можно выйти на конвой атакованный. А потом проверяя ремонты судов найти поражённые и повреждённые суда. Но это может человек с помощью своего мозга. Компьютеру проверить это невозможно в принципе. Так как для проверки компьютерный алгоритм должен уметь думать как человек и иметь человеческую логику. А у компов такого нет. И быть не может. В результате в их базе знаний будет информация о том, что той атаки не было, т.к. документы не сохранились в основном. А атака была на самом деле и была успешной. В результате их база знаний становится не верной. Не специально, а просто в силу того, что компьютер не имеет возможностей людей в умственном плане. В описанном примере единственной зацепкой являлась ведомость американского бюро вооружений с указанием расхода торпед по целям и координат атак с номерами лодок.
В общем итоге какой-то очень мутный алгоритм там, в Гугле, придумали. Лично я так и не понял как он будет проверять, например, мой сайт и моё исследование. Так как даже теоретически не могу представить себе как компьютер в состоянии сделать это.