Искусственный интеллект и манипуляции: угроза для общества

Где бы в мире ни возникали конфликты, пропаганда всегда шла рядом. Еще в 515 году до н.э. царь Дарий оставил надпись на Бегистунской скале - своеобразную автобиографию, рассказывающую о его приходе к власти. В более современные времена мы можем наблюдать, как различные газеты освещают войну, ведь, как говорят, «первой жертвой войны становится правда».

Несмотря на способность таких сообщений формировать мировоззрение людей, они имели ограничения по масштабированию. Пропагандистские месседжи обычно теряли свою силу на определенном расстоянии. Однако социальные сети и интернет устранили эти физические барьеры. А с ростом возможностей искусственного интеллекта (ИИ) исчезли и ограничения в масштабировании влияния.

Эта статья исследует последствия манипуляций информацией и обмана, которые становятся возможными благодаря ИИ, для общества и организаций.

Рост информационных пузырей

По данным Pew Research Center, около каждый пятый американец получает новости из социальных сетей. В Европе наблюдается 11% рост потребления новостей через соцсети. В основе этого изменения лежат алгоритмы ИИ. Они не обязаны показывать разные точки зрения, как этого требуют журналистские стандарты и медиарегуляторы. Вместо этого соцсети направлены на то, чтобы удерживать внимание пользователей, показывая им контент, который им нравится, на который они реагируют и который побуждает их оставаться на платформе.

Такой подход приводит к созданию «информационных пузырей» и поляризации взглядов. Пользователи могут блокировать нежелательные мысли, а алгоритмы автоматически корректируют ленту в соответствии с их предпочтениями. ИИ даже анализирует скорость прокрутки страницы, чтобы подбирать еще более привлекательный контент. В результате люди начинают видеть только то, с чем соглашаются, и формируют представление не о реальном мире, а о мире, созданном алгоритмами.

Более того, значительная часть такого контента теперь генерируется искусственно. Например, компания NewsGuard обнаружила более 1150 сайтов, публикующих ненадежные новости, созданные ИИ. Отсутствие ограничений по созданию контента уже влияет на политические процессы во всем мире.

Как ИИ используется для манипуляций?

Человеческий мозг работает сложно и противоречиво. Мы подвержены различным когнитивным предубеждениям, и на наше мнение влияет множество факторов. Когда к этому процессу подключаются злоумышленники, используя ИИ, последствия могут быть серьезными:

  • Дипфейки во время выборов в США. Современные ИИ-инструменты позволяют создавать реалистичные видео с двигающимися и говорящими людьми, используя только текстовые подсказки. Это не требует специальных знаний, а значит, каждый желающий может создать фальшивый контент. Microsoft зафиксировала, что Китай и Россия использовали генеративный ИИ для влияния на американские выборы.
  • Фальшивые аудиозаписи политиков. В 2023 году в Словакии было распространено аудио, на котором, якобы, политик Михал Шимечка обсуждал манипуляции с выборами. Запись оказалась фейком, но избиратели могли сделать свой выбор, поверив в ее подлинность.
  • ИИ подделывает общественное мнение. В 2020 году раннюю версию GPT-3 использовали для написания тысяч писем американским законодателям, которые отстаивали разные политические позиции. Оказалось, что реакция чиновников на такие обращения была почти одинаковой для текстов, написанных людьми и ИИ.

Влияние ИИ на демократические процессы?

Хотя сегодня еще можно обнаружить некоторые ИИ-фейки - например, через визуальные дефекты в видео или ошибки в произношении, - технологии быстро развиваются. Вскоре будет почти невозможно отличить правду от вымысла.

Фактчекеры могут добавлять опровержения к фейковым сообщениям, а платформы вроде Snopes могут разоблачать конспирологические теории. Однако нет гарантии, что люди увидят эти опровержения так же массово, как первоначальный фейк. Также трудно найти первоисточник ложной информации из-за большого количества каналов распространения.

Готово ли общество?
Мы привыкли доверять тому, что видим и слышим. Фразы «Я поверю, когда увижу» или «Покажи мне, не рассказывай» подчеркивают, что наша эволюция сформировала веру в собственные ощущения. Но ИИ появился слишком быстро, чтобы человеческий мозг успел приспособиться к новым реалиям.

Это открывает двери для атак на организации и отдельных людей. Избирательные кампании, попытки обмана с финансовыми операциями, фишинговые атаки - все это становится опаснее.

Как защититься?
Общество должно осознать, что злоумышленники используют естественные человеческие предубеждения и эмоции, чтобы манипулировать мнением людей. Один из способов - имитация ИИ-атак, чтобы люди смогли на собственном опыте понять, как это работает.
В мире, где информация может быть как оружием, так и защитой, критически важно использовать надежные инфраструктурные решения для защиты данных. GigaTrans обеспечивает стабильный и безопасный интернет для бизнеса, что позволяет компаниям минимизировать риски информационных атак и строить свою работу на проверенных данных, а не манипуляциях. Защитите свою сеть - стройте будущее надежно.

Написать нам

От 2 до 500 симв.