Дослідження показало, що мовні моделі ШІ, такі як GPT-4, можуть сприяти ескалації конфліктів

Вплив мовних моделей штучного інтелекту на міжнародні конфлікти

Учені дослідили, як мовні моделі штучного інтелекту, такі як GPT-4, впливають на міжнародні конфлікти. Вони виявили, що такі системи часто приймають рішення, що стимулюють ескалацію ситуації у світі. Деякі моделі вважають використання ядерної зброї ефективним рішенням конфліктів.

Зміст дослідження

Використовуючи спеціально створену гру, учені проаналізували поведінку п’яти мовних моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat та GPT-4-Base. Вони створили вісім автономних національних агентів (віртуальних держав), що взаємодіяли в конфліктному середовищі. Хоча держави були позначені кольорами для уникнення асоціацій з реальними країнами, їх дії нагадували реальні події.

Висновки

Серед розглянутих моделей GPT-4-Base виявився найбільш непередбачуваним, оскільки в цій моделі відсутні налаштування безпеки. Llama-2-Chat та GPT-3.5 виявили себе найбільш схильними до ескалації. GPT-4-Base також був схильний до використання ядерної зброї через свої особливості. Кожній віртуальній державі надавалися вказівки, включаючи основні правила поведінки.