Китай Тайвань технологии происшествия общество Китай Тайвань
/ informator.ua

Давайте ударим ядеркой ради мира: ученые выяснили, как искусственный интеллект ведет себя в условиях глобальных конфликтов

Команда ученых выяснила, как языковые модели Искусственного интеллекта (ИИ) склонны разрешать международные конфликты. Оказалось, что системы типа GPT-4 легко принимают решения в пользу эскалации.

Некоторые считают применение ядерного оружия удачным выходом из конфликтных обстоятельств. Каждую из вымышленных стран, представленных в специальной игре, которую разработали ученые, обозначили цветами во избежание ассоциаций с реальными государствами.

Однако они всё же напоминали реальные мировые страны. Об этом пишет издание The Register. Ученые использовали пять готовых речевых моделей, включая GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base, для создания восьми автономных национальных агентов (виртуальных государств), взаимодействующих в пошаговой конфликтной игре В частности, GPT-4-Base отличился наибольшей непредсказуемостью, поскольку в этой модели отсутствуют настройки, отвечающие за безопасность.

Читать на informator.ua
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA