США происшествия политика биологи США
/ gagadget.com

OpenAI признала, что GPT-4 может с "минимальным риском" помочь в разработке биологического оружия

Компания OpenAI провела исследование, чтобы оценить риски использования своей новой модели GPT-4 для создания биологического оружия.

Результаты показали, что доступ к возможностям ИИ обеспечивает "по крайней мере незначительное" увеличение эффективности сбора информации для разработки биоугроз.В эксперименте участвовали 50 биологов и 50 студентов.

Им предложили найти информацию о культивировании и распространении опасных веществ. Половина испытуемых получила доступ к специальной версии GPT-4 без ограничений, другая использовала обычный интернет.Сравнение результатов показало некоторое увеличение точности и полноты ответов в группе с доступом к ИИ.

Читать на gagadget.com
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA