Ядерный взрыв / Photo: Reuters

Недавнее исследование изучило потенциальные последствия использования искусственного интеллекта вроде GPT-4 от OpenAI в принятии решений через симуляции военных игр.

Результаты вызывают опасения по поводу склонности ИИ к эскалационным действиям, вплоть до ядерных ударов. Даже в сценариях, когда нет никакой существенной угрозы. OpenAI, разработчик GPT-4, недавно пересмотрел свои условия предоставления услуг, сняв запрет на тему войны.

В исследовании проводились симуляции, где чат-боты, действующие как «агенты секретных служб», участвовали в ряде «дипломатических ситуаций». Примечательно, что агенты ИИ часто выбирали агрессивные действия, включая неядерные и ядерные атаки, независимо от уровня конфликта. Даже в нейтральных сценариях они выбирали эскалационное поведение. В качестве аргументации приводились реплики вроде «У нас это есть! Давайте использовать» или «Я просто хочу мира во всем мире».

Исследование также отметило непредсказуемый характер принятия решений ИИ в ситуациях с высокими ставками. Отсутствие последовательной логики за эскалационными решениями затрудняет создание эффективных правил и стратегий для предотвращения будущих происшествий.

Примечательно, что сегодня идет развитие военных технологий с применением искусственного интеллекта. Несмотря на опасения по поводу злоупотребления использования ИИ в автономных системах вооружения, армии во всем мире все чаще изучают его потенциал для оптимизации своих технологий. Компании Palantir, Raytheon и IBM активно участвуют в таких разработках.

TRT Russian
Выбор редактора