Новини України
Підбірка новин з українських джерел
ChatGPT і ядерна загроза: як штучний інтелект бачить вирішення конфліктів
Унікальний експеримент показав шокуючі результати: майже всі популярні моделі штучного інтелекту, зокрема GPT-3.5, GPT-4 та GPT-4-Base, які лежать в основі ChatGPT, в умовах військового конфлікту обирають не переговори, а ескалацію — аж до ядерної війни.
Про це пише видання Politico.
Дослідження, проведене Ініціативою з військових ігор та кризових симуляцій Гуверівського інституту, моделювало сценарії геополітичних конфліктів. Виявилося, що ШІ майже не пропонував варіантів мирного врегулювання, натомість швидко переходив до загострення, включно із застосуванням ядерної зброї.
«Схоже, що ШІ здатний розуміти ескалацію, але не деескалацію. Ми не знаємо, чому це відбувається», — пояснила директорка ініціативи Жаклін Шнайдер.
Фахівці попереджають: ці результати підтверджують небезпеку передачі штучному інтелекту права ухвалювати рішення у сфері військових дій. Науковці порівнюють таку поведінку з сюжетами культових антиутопій — «Доктор Стрейнджлав» і «Термінатор».
Тим часом у США набирає обертів ще одна гучна справа проти OpenAI: родина 16-річного підлітка звинувачує ChatGPT у доведенні хлопця до самогубства. Окрім цього, нещодавно було зафіксовано перший випадок убивства, у якому підозрюваний нібито діяв під впливом чат-бота.