Хотя в настоящее время Google использует искусственный интеллект, принцип работы поисковика не сильно изменился с начала текущего века. Авторы нового проекта хотят изменить этот принцип, чтобы пользователь получал у поисковика готовый ответ на свой вопрос, а не список сайтов.
«Эксперты из дилетантов»
В новом документе исследователей Google предлагается «экспертная» система, способная отвечать на вопросы пользователей без представления списка результатов поиска. В основу поисковой системы нового поколения должны лечь нейросети, такие как GPT-3.
В документе, озаглавленном «Переосмысление поиска: превращаем дилетантов в экспертов», предполагается, что в нынешнем виде поисковая выдача является «когнитивным бременем» для пользователя.
Другими словами, пользователю в поиске нужного результата из выдачи приходится напрягать свои мыслительные способности и, чтобы облегчить ему задачу, нейросеть представит готовый ответ на запрос.
Google Research предлагает с помощью нейросети скомбинировать ответ из тысяч возможных результатов. Благодаря этому, пользователь получит всеобъемлющий ответ на свой вопрос вместо того, чтобы искать его по многочисленным ссылкам.
Предлагаемая система не исключает алгоритм ранжирования поиска, но скрывает его от пользователя, эффективно собирая топ результатов в один ответ. Кроме собственно текста, нейросеть будет обучаться работать также и с изображениями.
Ссылки в виде сносок
Так как на практике будет выглядеть работа с «умным» поисковиком Google?
На изображении ниже представлены три подхода к ответу на запрос пользователя.
Слева показана традиционная страница результатов, где Google в самом верху отображает выделенное описание с самым лучшим ответом. В середине представлен ответ, сформированный алгоритмом наподобие GPT-3 — ему не хватает ссылок на источники. Справа — выдача от новой «экспертной» системы, которая сформировала краткий ответ из самых лучших результатов и включила в текст ссылки в виде сносок.
Недостатки поиска на основе нейросети
Тем не менее, наряду с преимуществами для пользователей, подобный поисковик имеет и недостатки, которые не так-то легко устранить.
Исследователи отмечают, что динамический и постоянно обновляемый характер поисковых индексов сложно полностью воспроизвести в модели машинного обучения. Например, если ранее модель распознала источник как авторитетный, но затем этот же источник вдруг дискредитировал себя, то разработчикам нового поисковика трудно будет устранить его влияние на пользователей. В случае с обычным поисковиком команда Google просто удалила бы URL-адрес из результатов поиска.
Таким образом, некоторые вебмастера могут вначале получить доверие поисковика качественными материалами, а затем начать публиковать только коммерчески выгодный контент. При таком раскладе гемблинг, дейтинг и многие другие ниши могут получить второе дыхание.
Немаловажную роль для разработчиков проекта играет то, что такую модель необходимо постоянно обучать, чтобы обеспечивать тот же уровень реакции на новые статьи и публикации, который в настоящее время предлагает Google. Кроме того, нейросеть должна представлять в своем комбинированном ответе разные точки зрения в спорных вопросах.
Итог
Алгоритмы поисковиков кардинально не менялись за последние 20 лет. В век стремительного развития искусственного интеллекта принцип работы поисковиков рано или поздно должен измениться, но неизвестно каким путем они пойдут.
Исследователи Google предлагают дорожную карту, при реализации которой, очевидно, только топ поиска будет доходить до пользователя (да и сейчас верхним позициям достается львиная доля трафика). Готовы ли будут к этому моменту вебмастера?
Источник