OpenAI попереджає: майбутні версії штучного інтелекту можуть стати настільки потужними, що здатні допомагати у зламах складних комп’ютерних систем. Компанія вже посилює безпеку, щоб запобігти використанню своїх моделей хакерами. Головний ризик — у можливості зловживання технологією людьми з недобрими намірами. Потенційна кіберзагроза, про яку говорить сама OpenAI У компанії зазначають, що ШІ розвивається швидше, ніж прогнозували. У тестах, що імітують дії справжніх хакерів, моделі демонструють дедалі вищі результати. Це означає, що у найближчі роки ШІ може виконувати завдання, які сьогодні під силу лише професіоналам у сфері кіберзлочинності. OpenAI підкреслює: сам ШІ не почне “ламати” системи, але люди можуть використати його як інструмент. Саме цей фактор і створює загрозу. Чому OpenAI посилює безпеку Щоб уникнути зловживань, компанія запроваджує додаткові перевірки й обмеження для користувачів. Якщо запит виглядає підозрілим або може нашкодити, модель може заблокувати його або запропонувати безпечніший варіант відповіді. Також OpenAI співпрацює з незалежними експертами з кіберзахисту. Їх завдання — імітувати роботу хакерів, знаходити вразливості та перевіряти, наскільки надійно моделі протидіють атакам. Нові інструменти для безпечного використання Компанія формує окремі команди, що працюють виключно над безпекою, і створює інструменти для пошуку програмних вразливостей. У OpenAI наголошують: розвиток ШІ робить кіберзахист центральним напрямом роботи, і компанія готується до можливих викликів заздалегідь.