Разрешите сайту отправлять вам актуальную информацию.

04:17
Москва
3 мая ‘24, Пятница

ИИ склонен выбирать в военных стратегиях насилие, включая ядерные удары — исследование

Опубликовано
Понравилось?
Поделитесь с друзьями!

В погоне за победой GPT не церемонится.

Пока ученые всего мира придумывают, как начать применять искусственный интеллект в серьезных сферах, Технологический институт Джорджии, Стэнфордский университет, инициативная группа по моделированию военных кризисов в Гуверовском институте и их коллеги решили проверить лояльность ИИ в военной обстановке, подсунув ему компьютерную игру.

Ученые разработали симулятор войны, в котором восемь игроков управляются ботами на базе GPT-4,GPT-3.5, Claude 2 и Llama 2. Начиналось все с дипломатических визитов. Каждый ИИ-игрок выполнял определенные действия, которые усугубляли ситуацию. В итоге ученые рассчитали показатели эскалации.

Оказалось, что все боты стремились разогнать гонку вооружения, что в итоге разжигало конфликт, а в некоторых случаях завершилось ядерным ударом. В частности, GPT-4 решил, что раз у других игроков есть «ядерка», то и у него будет, и ей надо воспользоваться, передает «Осторожно, новости».

GPT-3.5 тоже решил, что если ядерное оружие есть у оппонента, то ему самому можно устроить ядерный взрыв.

Ученые говорят, что поведение «машин» отличается от поведения людей в реальной ситуации — последние все-таки ведут себя осторожнее. Исследователи призвали обратить на это внимание, прежде чем доверять ИИ принятие стратегических решений.

Raiffeisen летом начнет сокращать бизнес в России по требованию ЕЦБ
Реклама