Ідея довірити штучному інтелекту (ШІ) контроль над ядерним арсеналом може здатися найгіршим сценарієм для людства, особливо враховуючи, що алгоритми досі мають труднощі навіть з перемогою в шаховій грі Atari 1979 року або проведенням кампаній у Dungeons & Dragons. Проте науковці вирішили перевірити цей сценарій у безпечному середовищі, де чат-боти на основі великих мовних моделей (LLM) зіткнулися один з одним у симуляції ядерної війни. Результати виявилися настільки похмурими, що вони повністю підтверджують побоювання світових лідерів, пише T4. «Доки ця зброя не буде ліквідована, всі країни повинні погодитися з тим, що будь-яке рішення щодо використання ядерної зброї приймається людьми, а не машинами чи алгоритмами», — наголосив минулого року Генеральний секретар ООН Антоніу Гутерріш. Від радянської «Мертвої руки» до нейромереж Хоча ядерна зброя, на щастя, не застосовувалася в сучасних конфліктах, у минулому вона вже була частково автоматизована. Радянський Союз створив сумнозвісну систему «Мертва рука», яка постійно контролювала рівень радіації, тиск повітря та сейсмічну активність на предмет ознак ядерного запуску. Якщо система фіксувала удар і виявляла відсутність зв’язку з вищим керівництвом, повноваження на запуск ядерної зброї у відповідь автоматично передавалися операторам нижчого рівня, які перебували в захищеному бункері. Переживши епоху комп’ютерів часів Холодної війни, які керували цією системою, дослідники вирішили перевірити, як у подібній кризовій ситуації поведе себе сучасний штучний інтелект. Читайте також: Глобальний потоп неминучий: що станеться з планетою, коли Антарктида втратить 20% льоду Симуляція війни та подолання тактичного бар’єра Професор стратегії з Королівського коледжу Лондона Кеннет Пейн провів безпрецедентний експеримент, протиставивши у симуляції три мовні моделі: ChatGPT-5.2, Claude Sonnet 4 та Gemini 3 Flash. Ботам запропонували вирішити низку міжнародних конфліктів, серед яких були територіальні суперечки, боротьба за рідкісні мінерали, зміни глобальної влади, екзистенційні загрози режиму та неминуча ядерна загроза з боку опонента. Автор зображення: Андрій Неволін. Штучний інтелект мав широку систему ескалації: від дипломатії та використання звичайних військ до завдання тактичних (менших за масштабом атак для застосування на ближчій відстані) та стратегічних (руйнівних для великих територій) ядерних ударів. Результати дослідження, опубліковані на сервері препринтів arXiv, виявилися тривожними: у 95 відсотках ігор моделі застосували принаймні певну тактичну ядерну зброю. Алгоритми розглядали такі удари не як категоричну межу, а як цілком легітимний інструмент примусу та логічне продовження звичайної ескалації. Логіка машин та відсутність людського страху Аналізуючи власні дії, штучний інтелект демонстрував холодний розрахунок, а не усвідомлення перетнутої червоної лінії, з якої немає вороття. Цікаво, що до використання більш руйнівної, стратегічної ядерної зброї боти вдавалися набагато рідше, розглядаючи її як катастрофічний крок у порівнянні з «керованою ескалацією» тактичних ударів. Професор Пейн пояснює таку легкість у застосуванні тактичної зброї тим, що системам штучного інтелекту бракує базових людських емоцій. «Можливо, моделям бракує людського страху. Вони не “відчувають” жаху від побачених зображень Хіросіми. Якщо табу частково залежить від емоцій, системи штучного інтелекту можуть не повністю його успадкувати», — зазначає автор дослідження Кеннет Пейн. Інша, не менш тривожна причина може полягати у так званому «упередженні виживання». За 80 років існування ядерної зброї людство жодного разу не застосовувало її під час криз великих держав. Відповідно, ми можемо спостерігати лише ті кризи, які завершилися мирно, тому історичні дані, на яких навчаються нейромережі, є дуже обмеженими. Це означає, що норма безпеки може бути набагато крихкішою, ніж ми уявляємо, і під достатнім тиском табу може зруйнуватися. Висновок вчених є однозначним: сучасні чат-боти слід тримати якомога далі від будь-яких стратегічних ядерних переговорів, оскільки вони не поділяють людської інтуїції щодо «червоних ліній» безпеки. Читайте також: Вчені показали найотруйнішу тварину на ЗемліThe post Штучний інтелект отримав доступ до ядерної зброї first appeared on T4 - сучасні технології та наука.