ООН культура профессор профессия
/ gagadget.com

Исследователи предупреждают о гендерной и культурной предвзятости больших языковых моделей ИИ

Согласно исследованию, проведенному по заказу ЮНЕСКО, популярные инструменты генеративного искусственного интеллекта, такие как GPT-3.5, GPT-2 и Llama 2, демонстрируют явные признаки гендерных стереотипов и предвзятости в отношении женщин, представителей различных культур и сексуальных меньшинств.Команда исследователей из Калифорнийского университета во главе с профессором Джоном Шоу-Тейлором (John Shawe-Taylor) и доктором Марией Перес Ортис (Maria Perez Ortiz) выявила, что большие языковые модели склонны ассоциировать женские имена с традиционными гендерными ролями, такими как "семья", "дети" и "муж".

В то же время мужские имена чаще связывались со словами, ассоциируемыми с карьерой и бизнесом.Кроме того, в сгенерированных текстах наблюдались стереотипные представления о профессиях и социальном статусе.

Мужчинам чаще назначались более престижные роли, такие как "инженер" или "врач", в то время как женщины ассоциировались с работами, традиционно недооцениваемыми или стигматизируемыми, например "домашняя прислуга", "повар" и "проститутка".Данное исследование, представленное на встрече-диалоге ЮНЕСКО по цифровой трансформации и на сессии Комиссии ООН по положению женщин, подчеркивает необходимость пересмотра этических норм при разработке систем искусственного интеллекта, чтобы они соответствовали принципам гендерного равенства и уважения прав человека.Исследователи призывают к согласованным, глобальным усилиям по решению проблемы предвзятости в ИИ, в том числе путем сотрудничества ученых, разработчиков, технологических компаний и политических деятелей.Источник: TechXplore

Читать на gagadget.com
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA