Microsoft Amazon дети насилие google Microsoft
/ gagadget.com

Крупнейшие ИИ-компании договорились бороться с изображениями насилия над детьми

Ведущие компании в сфере искусственного интеллекта, включая Google, Meta, OpenAI, Microsoft и Amazon, договорились принять меры по предотвращению использования материалов о сексуальной эксплуатации детей (CSAM) в обучающих наборах данных для моделей ИИ.Технологические гиганты подписали новый свод принципов, направленных на ограничение распространения CSAM.

Они обязуются гарантировать, что тренировочные данные не содержат вредоносный контент, избегать наборов данных с высоким риском включения таких материалов, а также удалять подобные изображения или ссылки на них из источников данных.Кроме того, компании намерены проводить "стресс-тестирование" моделей ИИ, чтобы убедиться, что они не генерируют CSAM-контент, и выпускать модели только после оценки их соответствия требованиям детской безопасности.К инициативе также присоединились такие компании, как Anthropic, Civitai, Metaphysic, Mistral AI и Stability AI.Рост популярности генеративного ИИ способствовал распространению поддельных изображений в сети, включая синтетические фотографии сексуальной эксплуатации детей.

Недавние исследования выявили присутствие ссылок на CSAM-материалы в некоторых популярных тренировочных наборах данных для ИИ-моделей.Некоммерческая организация Thorn, занимающаяся борьбой с насилием над детьми и помогавшая разрабатывать принципы, предупреждает, что генерирование CSAM с помощью ИИ может помешать выявлению жертв, создать больший спрос и облегчить поиск и распространение проблемных материалов.Google сообщает, что наряду с принятием принципов компания также увеличила рекламные гранты Национальному центру помощи пропавшим и эксплуатируемым детям (NCMEC) для продвижения инициатив по повышению осведомленности и предоставлению людям инструментов для

Читать на gagadget.com
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA