Компания OpenAI провела исследование, чтобы оценить риски использования своей новой модели GPT-4 для создания биологического оружия.
Результаты показали, что доступ к возможностям ИИ обеспечивает "по крайней мере незначительное" увеличение эффективности сбора информации для разработки биоугроз.В эксперименте участвовали 50 биологов и 50 студентов.
Им предложили найти информацию о культивировании и распространении опасных веществ. Половина испытуемых получила доступ к специальной версии GPT-4 без ограничений, другая использовала обычный интернет.Сравнение результатов показало некоторое увеличение точности и полноты ответов в группе с доступом к ИИ.
Читать на gagadget.com