Чат-бот ChatGPT от компании OpenAI при сортировке резюме отдаёт предпочтение именам, более присущим одним демографическим группам, чем другим, говорится в исследовании Bloomberg.
Журналисты Bloomberg утверждают, что чат-бот систематически создаёт предубеждения, сортируя имена с расовой предвзятостью при всех равных параметрах и одинаковых профессиональных данных.
В ходе исследования они поговорили с 33 специалистами в области искусственного интеллекта, а также провели собственный эксперимент, взяв для него вымышленные имена и резюме.
Читать на habr.com