Компанія OpenAI внесла зміни до своїх Правил використання, щоб зробити взаємодію з ChatGPT та іншими ШІ-інструментами безпечнішою й відповідальнішою. Що саме змінилося Згідно з оновленими положеннями, ChatGPT більше не надаватиме персоналізованих порад у медичній чи юридичній сферах, навіть якщо користувач наполягає. Тепер замість конкретних рекомендацій чат-бот пропонуватиме загальну довідкову інформацію й спрямовуватиме людей до фахівців — лікарів, юристів чи консультантів. Також OpenAI забороняє використання своїх моделей для аналізу медичних знімків, щоб уникнути ризику помилкових тлумачень і потенційної шкоди здоров’ю користувачів. Мета оновлень У компанії пояснили, що мета цих змін — посилення безпеки та відповідальності при використанні ШІ. OpenAI прагне зберегти баланс між інноваційністю своїх продуктів і захистом користувачів. «Ми хочемо, щоб штучний інтелект допомагав людям — але не замінював фахівців у критично важливих сферах», — зазначили в компанії. Контекст Раніше OpenAI вже запровадила механізми для виявлення потенційно шкідливих або неправдивих відповідей у ChatGPT, а також обмеження для контенту, що стосується політичних кампаній, фінансових порад і медичних діагнозів. Оновлені правила підкреслюють нову філософію компанії: менше ризиків — більше довіри до ШІ.