Британский порносайт PornHub запустил тестирование автоматизированного инструмента, который «отговаривает» пользователей от поиска материалов о жестоком обращении с детьми (CSAM).
Об этом пишет Wired. С марта 2022 года каждый раз при вводе запроса со словами или фразами, связанными с незаконным контентом, на платформе запускается специальный чат-бот.
Он прерывает попытку поиска CSAM-материалов и предлагает пользователям получить помощь в связи с их поведением в интернете. В течение первых 30 дней тестирования инструмент активировался 173 904 раза.
Читать на forklog.com