Війна за увагу: як соцмережі підсилюють дезінформацію

Раніше, щоб дізнатися новини, ми купували газету або ввечері вмикали інформаційні програми. Тепер новини шукати не треба – вони самі нас «знаходять», часто навіть раніше, ніж ми встигаємо сформулювати думку. Напевно, ви теж не раз чули (або казали) щось на кшталт: «Я тільки про це подумав, а Facebook чи TikTok уже показав мені це!»

Ніякої містики тут немає. Це працюють алгоритми соцмереж: вони вловлюють мікросекунди вашої уваги: де ви зупинилися, що переглядали, на що клікали — і математично «складають» ваші інтереси та запити. Тому наступного разу, коли гортатимете стрічку, вам підкинуть саме те, що, ймовірно, зачепить навіть якщо ви цього вголос не озвучували.

З одного боку це зручно і швидко. Але є й тривожний  бік. У добу штучного інтелекту, дипфейків і самонавчальних алгоритмів інформація дедалі частіше не відображає реальність, а конструює її під потрібний кут. І з кожним днем стає важче відрізнити, де закінчується правда і починається маніпуляція.

Якщо у ХХ столітті створення контенту потребувало друкарень і цілих штатів цензорів, то сьогодні достатньо кількох рядків коду, потужної нейромережі та армії ботів, і будь хто, вже може творити «масову правду».  Більшість експертів одностайні  – це сучасне поле битви. Тут немає вибухів, як на лінії зіткнення, але руйнування не менш катастрофічні.

Масштаб проблеми

За оцінкою кібербезпекової компанії DeepStrike, кількість дипфейків, поширених онлайн, зросла з приблизно 500 тис. у 2023 році до близько 8 млн у 2025-му. Тобто, у 16 разів більше! Багато з них це пропаганда проти України (фейки з солдатами, “зрадами”), спрямована на деморалізацію суспільства та провокування до заворушень.

Від початку 2025 року Центр протидії дезінформації (ЦПД) при РНБО зафіксував 191 інформаційну операцію Росії, здійснену з використанням продуктів штучного інтелекту. Вдумайтесь у цифру: охоплення російських продуктів ШІ за цей час становить щонайменше 84,5 млн переглядів! Це вдвічі більше ніж населення України до початку повномасштабної війни! Серед зафіксованих продуктів ШІ:

  • дипфейк (46 операцій);
  • частковий дипфейк (24 операції);
  • сфальсифіковані кепшнвідео (55 операцій);
  • ШІ-зображення військових чи їхніх родичів (38 операцій);
  • ШІ-контент для підсилення емоційного ефекту повідомлень (32 операції);
  • чатботи (порахувати кількість операцій неможливо).

«Інформаційна складова війни постійно змінюється — ворог хоче отримати нові ефективніші способи впливати на громадську думку, тож роль штучного інтелекту в інформаційних операціях рф поступово зростає», — зазначено у повідомлені ЦПД.

Минулоріч, 15 квітня Центр протидії дезінформації повідомив, що розпочав офіційну співпрацю з адміністрацією TikTok задля протидії розвитку російської пропаганди в їхній соцмережі. Перед цим, у березні 2024 року, центр оприлюднив список тікток-каналів, які поширюють російську дезінформацію. Наразі їх 83.

Використання публічних та відомих осіб для створення дипфейків

Проблема штучно створених фейкових відео (deepfakes) поступово виходить за межі мемів чи низькопробного контенту. Завдяки сучасним ШІі-нструментам маніпуляції проникли в усі сфери життя: від фінансів до політики.

Так, приміром, тривалий час в соцмережах поширювали нібито новину за участі Алли Мазур, де вона розповідає про різні методи «швидкого оздоровлення» і просуває певний препарат, як суперефективний. На такі відео звернув увагу Ігор Розкладай, головний експерт з медійного права та модерації контенту в соціальних мережах ЦЕДЕМ.

«Я щоденно моніторю інфопростір соцмереж і бачу такі пости у великій кількості. Шахраї придумують щоразу нові історії та “залучають” у своїх відео відомих лікарів, телеведучих, політиків».

Не лише Україна потерпає від такого «нашестя». В Європі -та сама проблема. Під час етеру на Радіо Розділля екс-директор данської Національної радіокомпанії та медіаксперт Лайф Лонсман заявив, що на гачки дипфейків потрапляє навіть їхній парламент.

Експерти з кібербезпеки також фіксують зростання deepfake-схем, коли шахраї клонують голос і зовнішність керівників фінансових установ, щоб змусити клієнтів робити перекази на чужі рахунки. Тож, якщо ви зустріли дипфейки у своїй стрічці, наголошують медіаекперти, важливо скаржитись, аби алгоритми Мета їх блокували.

Коли популярність важливіша за правду

Соцмережі фактично стали редакторами нашої реальності. Те, що ви бачите у стрічці Facebook, TikTok, X чи Instagram, – це не «що з’явилося останнім», а те, що алгоритм вирішив показати саме вам. І тут головне питання: за яким принципом?

Принцип простий, пояснюють фахівці: утримати вас на платформі якомога довше. Система підштовхує вперед не те, що точне і корисне, а те, що чіпляє ваші емоції: страх, злість, обурення, захват. Саме такий контент найчастіше збирає реакції, коментарі й поширення, а значить, крутиться ще активніше.


Ігор Розкладай (ЦЕДЕМ, головний експерт з медійного права та модерації контенту в соціальних мережах ЦЕДЕМ): «Ми маємо справу з формулами, з алгоритмами — вони не мають почуттів і не мають розуміння контексту».


У результаті ми маємо ситуацію, коли алгоритм не розрізняє фейк і правду – він розрізняє лише залучення (engagement). Якщо фейкова новина про те, що «на обід українці їдять російських хлопчиків» викликає тисячі коментарів – вона буде поширена далі. Якщо спокійне пояснення експерта набирає лише кілька вподобайок -воно зникне зі стрічки. І таку «масову залученість» авдиторії використовує Росія і активно це тестує та впроваджує не лише в Україні, але й у країнах, що підтримують нас у війні проти ворога.

Добрий приклад — дезінформаційна кампанія навколо польської благодійної ініціативи «Тепло для Києва». Поляки зібрали близько 2 млн євро на енергетичне обладнання для столиці, яка страждає від ударів по енергосистемі. У відповідь Росія почала розкручувати в польському інфопросторі фейки, щоб дискредитувати допомогу: у польському сегменті соцмережі X поширювали дописи, ніби після надходження перших генераторів в Україну такі ж моделі «одразу з’явилися у продажі» на OLX та ще приправлені «соковитим емоційним текстом.

Розрахунок був простий: зачепити емоції, зібрати реакції і запустити хвилю недовіри.

Чи є механізми захисту?

Багато демократичних країн намагаються врегулювати використання ШІ та дезінформацію на законодавчому рівні. Так, Європейський Союз уже запровадив:

Digital Services Act (DSA) — простими словами, це правила для соцмереж і платформ: вони мають бути прозорішими, краще стежити за ризиками, швидше реагувати на шкідливий контент і дезінформацію, а також пояснювати, як працюють їхні алгоритми.

AI Act — це закон про штучний інтелект: для сфер, де ризики найбільші (наприклад, політика, вибори, освіта), він вводить строгіші вимоги та обмеження, особливо для генеративних інструментів.

У США процес просувається повільно, бо технологічні гіганти (Meta, Google, X, TikTok тощо) мають сильний вплив і активно відстоюють свої інтереси.

Максим Буткевич, український правозахисник, журналіст, громадський діяч звертає нашу увагу, що це відповідальність не лише тих, хто продукує такий контент, але й споживачів. Бо, більшість, соцмерж заточені на візуальний контент і якщо ми поширюємо дипфейки ми автоматично підриваємо довіру до правдивих новин. Про це він заявив під час панельної дискусії в Українському медіа-центрі.

Звідси висновок простий: інформаційна безпека стала частиною нашої щоденної гігієни, як ремінь в авто. Вочевидь, держава й платформи мають посилювати правила, маркування ШІ-контенту та відповідальність за розгін фейків. Але! І це ключове: без участі користувачів це не спрацює. Наш мінімальний набір дій перевіряти джерело, не поширювати «гаряче» без підтвердження, скаржитися на підозрілий контент і не годувати алгоритми емоційними репостами. Бо у війні за увагу виграє той, хто керує нашими реакціями.

Ірина Телька

«Проект «Посилення стійкості медіа в Україні». Впроваджується Фундацією «Ірондель» (Швейцарія) та IRMI, Інститутом регіональної преси та інформації (Україна).
Фінансується Фондом «Швейцарська солідарність» (Swiss Solidarity)».

 

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *