Де б у світі не виникали конфлікти, пропаганда завжди йшла поруч. Ще у 515 році до н.е. цар Дарій залишив напис на Бегістунській скелі — своєрідну автобіографію, що розповідала про його прихід до влади. У більш сучасні часи ми можемо спостерігати, як різні газети висвітлюють війну, адже, як кажуть, «першою жертвою війни стає правда».
Попри здатність таких повідомлень формувати світогляд людей, вони мали обмеження щодо масштабування. Пропагандистські меседжі зазвичай втрачали свою силу на певній відстані. Проте соціальні мережі й інтернет усунули ці фізичні бар’єри. А зі зростанням можливостей штучного інтелекту (ШІ) зникли й обмеження у масштабуванні впливу.
Ця стаття досліджує наслідки маніпуляцій інформацією та обману, які стають можливими завдяки ШІ, для суспільства та організацій.
Зростання інформаційних бульбашок
За даними Pew Research Center, близько кожен п'ятий американець отримує новини із соціальних мереж. У Європі спостерігається 11% зростання споживання новин через соцмережі. В основі цієї зміни лежать алгоритми ШІ. Вони не зобов’язані показувати різні точки зору, як цього вимагають журналістські стандарти та медіарегулятори. Натомість соцмережі спрямовані на те, щоб утримувати увагу користувачів, показуючи їм контент, який їм подобається, на який вони реагують і який спонукає їх залишатися на платформі.
Такий підхід призводить до створення «інформаційних бульбашок» і поляризації поглядів. Користувачі можуть блокувати небажані думки, а алгоритми автоматично коригують стрічку відповідно до їхніх уподобань. ШІ навіть аналізує швидкість прокручування сторінки, щоб підбирати ще привабливіший контент. У результаті люди починають бачити тільки те, з чим погоджуються, і формують уявлення не про реальний світ, а про світ, створений алгоритмами.
Більше того, значна частина такого контенту тепер генерується штучно. Наприклад, компанія NewsGuard виявила понад 1150 сайтів, що публікують ненадійні новини, створені ШІ. Відсутність обмежень щодо створення контенту вже впливає на політичні процеси в усьому світі.
Як ШІ використовується для маніпуляцій
Людський мозок працює складно й суперечливо. Ми схильні до різних когнітивних упереджень, і на нашу думку впливає безліч факторів. Коли до цього процесу підключаються зловмисники, використовуючи ШІ, наслідки можуть бути серйозними:
Діпфейки під час виборів у США. Сучасні ШІ-інструменти дозволяють створювати реалістичні відео з людьми, що рухаються та говорять, використовуючи лише текстові підказки. Це не потребує спеціальних знань, а отже, кожен охочий може створити фальшивий контент. Microsoft зафіксувала, що Китай і Росія використовували генеративний ШІ для впливу на американські вибори.
Фальшиві аудіозаписи політиків. У 2023 році в Словаччині було поширено аудіо, на якому, нібито, політик Міхал Шімечка обговорював маніпуляції з виборами. Запис виявився фейком, але виборці могли зробити свій вибір, повіривши в його справжність.
ШІ підробляє громадську думку. У 2020 році ранню версію GPT-3 використали для написання тисяч листів американським законодавцям, які відстоювали різні політичні позиції. Виявилося, що реакція чиновників на такі звернення була майже однаковою для текстів, написаних людьми та ШІ.
Вплив ШІ на демократичні процеси
Хоча сьогодні ще можна виявити деякі ШІ-фейки — наприклад, через візуальні дефекти у відео або помилки у вимові, — технології швидко розвиваються. Незабаром буде майже неможливо відрізнити правду від вигадки.
Фактчекери можуть додавати спростування до фейкових дописів, а платформи на кшталт Snopes можуть викривати конспірологічні теорії. Проте немає гарантії, що люди побачать ці спростування так само масово, як початковий фейк. Також важко знайти першоджерело неправдивої інформації через велику кількість каналів поширення.
Ми звикли довіряти тому, що бачимо та чуємо. Фрази «Я повірю, коли побачу» або «Покажи мені, не розповідай» підкреслюють, що наша еволюція сформувала віру у власні відчуття. Але ШІ з’явився надто швидко, щоб людський мозок встиг пристосуватися до нових реалій.
Це відкриває двері для атак на організації та окремих людей. Виборчі кампанії, спроби обману з фінансовими операціями, фішингові атаки — все це стає небезпечнішим.
Як захиститися
Суспільство має усвідомити, що зловмисники використовують природні людські упередження та емоції, аби маніпулювати думкою людей. Один із способів — імітація ШІ-атак, щоб люди змогли на власному досвіді зрозуміти, як це працює.
У світі, де інформація може бути як зброєю, так і захистом, критично важливо використовувати надійні інфраструктурні рішення для захисту даних. GigaTrans забезпечує стабільний та безпечний інтернет для бізнесу, що дозволяє компаніям мінімізувати ризики інформаційних атак і будувати свою роботу на перевірених даних, а не маніпуляціях. Захистіть свою мережу — будуйте майбутнє надійно.