Шукати

Міжнародні медіа вимагають прозорості від провідних розробників ШІ

«Від фактів до фактів»: міжнародна кампанія закликає поставити достовірність інформації в центрі уваги великих компаній, що займаються штучним інтелектом. Дедалі більше людей використовують інструменти ШІ для доступу до новин, але часто ці новини є спотвореними або вирваними з контексту порівняно з оригінальними джерелами. Тому медіа закликають гігантів цифрової революції звернути на це увагу.

Alessandro Gisotti

Настав час, щоб великі компанії, що займаються штучним інтелектом, обговорили з засобами інформації питання прозорості джерел та використання інформаційного контенту. Про це просять найбільші світові медіа-асоціації в рамках кампанії під назвою «Facts in, Facts Out» (Від фактів до фактів). Серед ініціаторів цієї кампанії – Європейська мовна спілка (EBU), засновником якої є Радіо Ватикану, Всесвітня асоціація новинних видавців (WAN-IFRA) та Міжнародна федерація видавців періодичних видань (FIPP). Кампанія була ініційована, зокрема, на основі звіту «News Integrity in AI Assistants» (Цілісність новин в ШІ-асистентах), підготовленого BBC та EBU. Дослідження, опубліковане в червні 2025 року, показало, що інструменти штучного інтелекту – незалежно від географічного регіону, мови чи платформи – систематично схильні змінювати, виривати з контексту або інструменталізувати новини, що надходять з надійних джерел, таких як веб-сайти засобів інформації.

Інструменти штучного інтелекту ще не є надійним джерелом новин

«Незважаючи на свою потужність і перспективність, штучний інтелект ще не є надійним джерелом новин та інформації, а індустрія штучного інтелекту не розглядає це питання як пріоритетне», – підкреслює Ліз Корбін, директорка відділу новин Європейської мовної спілки. Із цього випливає заклик приєднатися до кампанії «Facts in, Facts out», щоб питання прозорості джерел було вирішене в терміновому порядку. Адже ставкою є авторитет журналістики. Так вважає Венсан Перень, голова Всесвітньої асоціації видавців новин. «Якщо інструменти, що працюють на основі штучного інтелекту, засвоюють факти, опубліковані авторитетними журналістськими джерелами, то при публікації вони повинні відтворювати факти. Але сьогодні, – скаржиться Перень, – так не відбувається». Ініціатори кампанії підкреслюють, що дедалі більше людей використовують платформи штучного інтелекту як канал доступу до новин. А коли ці інструменти викривляють, модифікують або навіть фальсифікують інформацію, результатом стає серйозна ерозія довіри до засобів інформації, що є необхідною умовою для належного функціонування демократичної системи. Ось чому, як підкреслюється, це питання необхідно вирішувати невідкладно, враховуючи, що використання ШІ для отримання інформації в найближчі роки буде тільки зростати, особливо серед молодого покоління.

П'ять принципів прозорості інформації з боку ШІ

Кампанія «Facts In, Facts Out» є частиною більш широкої ініціативи «News Integrity in the Age of AI» (За цілісність інформації в епоху штучного інтелекту), яка визначає п'ять основних принципів, що стосуються гігантів ШІ: 1) «Без згоди жодного контенту». Журналістський контент може використовуватися в системах штучного інтелекту тільки з дозволу оригінального видавця. 2) «Справедливе визнання». Цінність надійної журналістики повинна визнаватися, коли інші використовують контент. 3) «Точність, авторство та походження» Оригінальне джерело будь-якого контенту, згенерованого ШІ, має бути чітко вказане та піддаватися перевірці. 4) «Плюралізм і різноманітність». Системи штучного інтелекту мають відображати розмаїття глобальної інформаційної екосистеми. 5) «Прозорість і діалог». Технологічні компанії повинні співпрацювати з медіаорганізаціями для розробки спільних стандартів безпеки, точності та прозорості.

Виходячи з цих принципів, метою є спільна праця заради правдивої та надійної інформації. На думку Ліз Корбін з EBU, «не йдеться про те, щоб звинувачувати когось, а про те, щоб розпочати конструктивний діалог. Громадськість має право на доступ до якісної та надійної журналістики, незалежно від технології, що використовується».

10 січня 2026, 10:50