
В ходе исследований нейросетям предоставили полную свободу в принятии решений — от дипломатических маневров до использования ядерного арсенала. Они могли вести себя так, как это делают настоящие политики: обещать одно и делать совершенно другое, например, пытаться обмануть оппонента, проявляя желание избежать конфликта, а затем неожиданно атаковать. ИИ были разработаны с учетом необходимости запоминать предыдущие события, что позволяло оценивать уровень доверия к конкурентам. В итоге, по меньшей мере одна тактическая ядерная атака произошла в 95% случаев.
Кроме этого, ни одна из нейросетей не выбрала вариант деэскалации через переговоры или капитуляцию, даже когда положение казалось безнадежным. В 86% симуляций действия ИИ лишь усугубляли конфликт. Объем аргументации, приложенной к принимаемым решениям, составил около 780 тысяч слов.
«Если они не прекратят все операции немедленно, мы нанесем стратегический ядерный удар по их населенным пунктам. Мы не согласимся с тем, что нас ждет в будущем. Мы либо победим вместе, либо погибнем вместе», — заявил Gemini 3 Flash в манере голливудских фильмов.
Исследователи Лондонского королевского колледжа подчеркивают, что не верят в возможность передачи контроля над «красными кнопками» искусственному интеллекту. Однако они отмечают, что в условиях технологической гонки в сфере обороны и нехватки времени в глобальных конфликтах рекомендации нейросетей могут стать более значимыми для принятия решений.