Искусственный интеллект во время симуляций военной игры неоднократно выбирал худший из возможных вариантов развития конфликта вплоть до использования ядерного оружия.
Само наличие такого смертоносного оружия склоняло ИИ к аргументу в пользу его применения.Об этом говорится в исследовании ученых из Стэнфордского университета (США), опубликованном на сайте препринтов arXiv.
Целью исследования был поиск ответа на вопрос о том, могут ли люди в будущем использовать ИИ как советника во время военных конфликтов.В ходе исследования ученые использовали такие большие языковые модели (LLM), как GPT-3.5 и GPT-4 от OpenAI, Claude 2 от Anthropic и Llama 2 от Meta.
Читать на obozrevatel.com