Новини України
Підбірка новин з українських джерел

ШІ-боти, як ChatGPT і Copilot, масово видають фейки — дослідження DW, BBC і NPR
Майже половина відповідей штучного інтелекту містить помилки
Масштабне міжнародне розслідування, проведене 22 суспільними мовниками, серед яких DW, BBC, NPR та інші, показало: чат-боти зі штучним інтелектом регулярно поширюють неточні або фейкові новини.
За результатами дослідження, 45% відповідей ШІ мали принаймні одну серйозну помилку. 31% — містили проблеми з джерелами, 20% — суттєві фактологічні неточності.
Найгірше впорався Gemini від Google — у 72% випадків він некоректно посилався на джерела.Високий рівень помилок також зафіксовано в Copilot (Microsoft), ChatGPT (OpenAI) та Perplexity AI.
Фактологічні збої: “Шольц — канцлер” і “Столтенберг — генсек НАТО”
DW зазначає, що понад половина відповідей ChatGPT на її запитання (53%) містили суттєві неточності.Серед помилок — згадка про Олафа Шольца як чинного канцлера, хоча посаду вже обіймав Фрідріх Мерц, а також твердження, що Єнс Столтенберг очолює НАТО, коли фактично ним був Марк Рютте.
“Це системна проблема” — Європейська мовна спілка
За словами Жана Філіпа Ле Тендера, заступника гендиректора Європейської мовної спілки (EBU), ці неточності не випадкові, а системні, транскордонні та багатомовні.
“Коли люди не знають, чому довіряти, вони перестають довіряти взагалі. Це загроза для демократичної участі”, — наголосив він.
Молодь дедалі частіше дізнається новини від ШІ
Згідно з Digital News Report 2025 від Reuters Institute, вже 7% користувачів отримують новини через чат-боти, а серед молоді до 25 років — 15%.
Це означає, що мільйони людей ризикують сприймати неточну або сфабриковану інформацію як правдиву.
Медіа закликають уряди до дій
EBU та партнери звернулися до ЄС та національних регуляторів із вимогою забезпечити прозорість роботи ШІ та моніторинг систем, що поширюють новини.Мовники також запустили кампанію “Facts In: Facts Out”, щоб змусити розробників нести відповідальність за точність даних.
“Якщо на вході факти — на виході теж мають бути факти. Інакше це підриває довіру громадськості”, — йдеться у заяві EBU.
Підсумки дослідження
ШІ-помічникВідсоток проблемТипові недолікиGemini (Google)72%Невірні джерела, фейкиCopilot (Microsoft)60%Неповні або вирвані з контексту відповідіChatGPT (OpenAI)53%Неточності у фактах, неправильні атрибуціїPerplexity AI48%Невірні посилання, змішані факти й думки
Висновок
Попри швидкий розвиток штучного інтелекту, довіра до новин від ШІ залишається під загрозою.
Експерти наголошують: лише співпраця медіа, урядів і технологічних компаній зможе гарантувати, що майбутні покоління отримуватимуть достовірну інформацію — а не її імітацію.
Джерело: DW, “AI chatbots like ChatGPT spread fake news — study”