Искусственно интеллектные компании обязались проводить проверку датасетов на содержание материалов сексуального насилия над детьми (CSAM).В мире криптовалют

Искусственно интеллектные компании обязались проводить проверку датасетов на содержание материалов сексуального насилия над детьми (CSAM).

Техгиганты согласились предпринять меры по предотвращению использования материалов о сексуальном насилии над детьми (CSAM) в обучающих наборах данных для искусственного интеллекта.

Компании подписали новый набор принципов, призванных ограничить распространение подобного контента. Они пообещали:

– гарантировать, что обучающие наборы данных не содержат CSAM;

– избегать датасеты с высоким риском включения вредных материалов;

– удалять изображения CSAM или ссылки на них из источников данных.

Компании также обязались проводить «стресс-тестирование» моделей ИИ. Это позволит убедиться, что они не генерируют изображения CSAM.

Выпускать новые модели разработчики смогут лишь в том случае, если они прошли оценку на предмет детской безопасности.

В число подписавших соглашение входят также Anthropic, Civitai, Metaphysic, Mistral AI и Stability AI.

По теме...  Цена Dogwifhat (WIF) взлетает на более чем 20%, вот почему

Генеративный ИИ способствовал росту обеспокоенности по поводу дипфейков, в том числе распространению в сети поддельных фотографий CSAM. В декабре 2023 года исследователи Стэнфорда опубликовали доклад, в котором обнаружили, что популярный набор данных для обучения ИИ содержит ссылки на подобные изображения.

Они также выяснили, что телефонная линия Национального центра помощи пропавшим и эксплуатируемым детям (NCMEC) оказалась перегруженной изображениями CSAM, созданными искусственным интеллектом.

Некоммерческая организация Thorn утверждает, что ИИ-изображения помешают усилиям по выявлению жертв. Также это может создать дополнительный спрос на материалы CSAM, способствовать виктимизации детей, а также облегчить поиск информации о том, как делиться проблемными материалами.

Помимо принятия новых обязательств, Google также пообещала увеличить рекламные гранты для NCMEC. Вице-президентка компании по решениям в области доверия и безопасности Сьюзан Джаспер отметила, что поддержка этих инициатив повышает осведомленность общественности и дает людям инструменты для выявления и сообщения о злоупотреблениях.

По теме...  Начался суд в США над участником атаки на DeFi-проект Mango Markets

Напомним, в октябре 2023 года британские эксперты сообщили о быстром распространении материалов CSAM, созданных с помощью искусственного интеллекта.

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
Whatsapp
Ok
Telegram
Vk
Copy link
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x