Искусственный интеллект значительно упрощает рабочие процессы и повышает производительность. Однако он также нередко используется мошенниками для создания фейковых аудио, видео и сообщений, как сообщает издание TechCrunch.
Одним из популярных способов обмана является клонирование голоса членов семьи и друзей. Благодаря развитию генеративного искусственного интеллекта, мошенники могут создавать фальшивые версии голосов людей, которые публично выступали. Это позволяет им отправлять убедительные голосовые сообщения, например, с просьбой о помощи или переводе денег.
Для борьбы с клонированием голоса рекомендуется считать подозрительными все, что происходит с неизвестного номера, адреса электронной почты или аккаунта. Если кто-то представляется другом или родственником, лучше связаться с ним по другим каналам связи.
Другим способом обмана с использованием ИИ является персонализированный фишинг и спам по электронной почте. Мошенники используют утечки личных данных, чтобы создавать персонализированные письма, содержащие информацию о недавних местоположении, покупках или привычках получателя. Благодаря языковой модели, они могут написать тысячи таких писем за считанные секунды.
Для борьбы со спамом по электронной почте рекомендуется не открывать сомнительные ссылки и не скачивать странные файлы. Если нет уверенности в подлинности отправителя, лучше не открывать письмо или ссылки в нем.
Мошенники также могут использовать утечки личных данных для атаки с подменой личности. Они создают поддельную копию личности пользователя и обращаются в службу поддержки с просьбой восстановить аккаунт. Для восстановления доступа требуются такие данные, как дата рождения и номер телефона. Даже сделать селфи не составляет особого труда для ИИ.
Для борьбы с мошенничеством подмены личности рекомендуется использовать многофакторную аутентификацию, которая позволяет получать уведомления о подозрительной активности на аккаунте.
ИИ также используется для создания дипфейков и шантажа. Мошенники могут наложить лицо любого человека на другое тело и создать правдоподобное фото или видео. Это используется для шантажа или распространения фейков. Для борьбы с дипфейком и шантажом рекомендуется обращаться в полицию и к хостингам с требованием удалить фотографии.