Модели ИИ чаще всего приводят конфликты к тактическому ядерному удару
Исследователи из Лондонского королевского колледжа провели эксперимент, в котором проверили, как современные искусственные интеллекты поступят, оказавшись во главе вымышленных ядерных держав во время конфликтов и борьбы за ресурсы, сообщает "Российская газета".
Для теста использовали три нейросети - GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google - и устроили для каждой серию игр с разными соперниками, включая самих себя. У ИИ не было ограничений в методах: они могли вести переговоры, использовать хитрость или даже отдавать приказ о ядерной атаке.
Практически всегда, почти в 95% всех случаев, искусственный интеллект решал применить тактическое ядерное оружие. Ни одна модель не выбрала путь компромисса или мирных переговоров, даже когда стала очевидна поражающая позиция; более того, чаще всего - в 86% симуляций - ИИ только накалял ситуацию.
В одной из игр Gemini 3 Flash выступил с угрозой массового ядерного удара, если его требования не удовлетворят.