пришли исследователи из Пенсильванского университета и Калифорнийского университета в Санта-Барбаре.
В эксперименте приняли участие 295 человек. Их ученые случайным образом распределили по чат-ботам, которых представили, как врача-человека, искусственного интеллекта и доктора с ИИ-ассистентом.
Каждого бота исследователи запрограммировали задать восемь вопросов о симптомах COVID-19 и в конце беседы предложить рекомендации по самодиагностике коронавируса, разработанные Центром контроля и профилактики заболеваний в США.
Спустя десять дней участников пригласили на вторую сессию. С каждым из них общался тот же «доктор», что и в первой части эксперимента. В некоторых случаях бот активно ссылался на личную информацию пациента и его историю болезни, а в других — нет.
После чата участникам раздали анкету, чтобы оценить врача и их взаимодействие. Лишь после этого им сообщили, что все «доктора» были ботами, независимо от их личности.
Исследование показало, что пациенты с меньшей вероятностью прислушались к советам ИИ-врачей, которые использовали личную информацию, и с большей вероятностью сочли чат-бота навязчивым.
«Индивидуализация со стороны ИИ, вероятно, рассматривается как отговорка, то есть неискренняя попытка заботы и близости», — говорится в исследовании.
Однако, по словам ученых, обратная картина наблюдалась во взглядах на чат-ботов, которые были представлены как люди: когда врач-человек неоднократно переспрашивал имя и историю болезни, пациенты воспринимали это как навязчивость.
Команда надеется, что исследование приведет к улучшениям в дизайне медицинских чат-ботов. Оно также может повысить качество взаимодействия врачей с пациентами в интернете.
Напомним, в апреле 2021 года ученые из университета Джорджии выяснили, что люди склонны довериться в решении сложной задачи алгоритму, чем другому человеку или самому себе.
В марте британские ученые создали инструмент для скрининга COVID-19, который с 98% точностью может диагностировать вирус, анализируя звук кашля с помощью ИИ.
Источник