Лонгриды

Новая пропаганда: к чему должна быть готова Украина

10 декабря 2020 08:22

Техники пропаганды и дезинформации за последние 3−4 года значительно изменились.

Об этом в своей авторской колонке на НВ рассуждает Артем Биденко - руководитель Института информационной безопасности, экс-госсекретарь Мининформполитики.

***

В 2017 году во время выборов в Великой Британии, около 150 работников штаба лейбористов передали свои аккаунты в Тиндере ботам с целью поддержки лидера партии Джереми Корбина. Боты были запрограммированы на общение с сотнями пользователей, они сгенерировали около 40 тысяч сообщений, а собеседники крайне редко догадывались, что переписываются с машинным алгоритмом.

В ежегодном отчете «Роботролинг» от центра НАТО Стратком можно прочитать, что два из трех профилей в Твиттере, распространяющих в Восточной Европе информацию о деятельности НАТО, были ботами, компьютерными алгоритмами. Нет нужды говорить, что они распространяли негатив. И это только один пример влияния на современную международную политику.

Уровень информационного шума в глобальном масштабе, массовое распространение автоматически сгенерированных сообщений, бесконечное количество вариантов контента и техник его распространения, скорость реагирования — всего за десятилетие тотально изменилось то, как мы потребляем информацию. Точнее, как информационный хаос управляет нами.

Клэр Вордл и Хосейн Дерахшан в отчете для Совета Европы «Информационный беспорядок» пишут: «Боты могут манипулировать алгоритмами платформ для привлечения широкой аудитории и могут привлекать людей-агентов, которые будут дальше распространять сообщения. Правильно разработанная кампания пропаганды создает давление с помощью ботов, выдающих себя за живых людей. Боты используют слабые места в когнитивных и социальных предрассудках людей».

Все говорит о том, что техники пропаганды и дезинформации за последние 3−4 года значительно изменились. Создание нарратива, который формирует повестку либо вводит в заблуждение, все еще лежит в основе такой коммуникации — однако цельная история все меньше является креативной основой, скорее, используется набор фраз, смыслов и техник. Все меньше людей вовлечено в то, чтобы текст был интересным, мимикрировал под настоящую новость или создавал необычную реальность. Достаточно простого технического задания: например, хотим, чтобы в столице люди поверили, что за долги начнут отключать электричество.

Это техзадание с набором нужных слов вводится в программы-генераторы текстов и дальше тысячи ботов на всех мыслимых платформах начинают распространять комментарии, картинки, слухи, фразы и т. д. Вот статья о парламентском большинстве, а под ней десятки комментариев: «Да, что анализировать, завтра уже всем свет отключат». А на форуме для автомобилистов вдруг тысячи профилей пишут: «Где взять генератор, а то завтра свет за долги вроде как отключают». И через несколько дней горожане стойко уверены, что власть врет, и в ближайшие дни наступит тьма.

Компьютерные алгоритмы делают эту работу недорогой (значительно дешевле черного пиара, работы штаба политтехнологов), быстрой и массовой. Там, где мы привыкли называть ботофермой несколько десятков живых людей с 100−150 профилями, появились настоящие компьютерные алгоритмы на сотни тысяч сообщений и комментариев в день. Значительная их часть не поддается рациональному анализу — например, картинки с подписями («мемы»), которые сейчас популярны у молодежи. Никакая медиаграмотность, никакое критическое мышление не способны справиться с лавиной мемов, которые настраивают подростков на те или иные эмоции: недоверия, апатии, злости и т. п. Генерация таких мемов сегодня доступна каждому, например, в чат-боте Телеграм.

Изменения в техниках манипулирования аудиторией вызвали изменения и в подходах к решению проблемы. Буквально несколько лет назад в Европе и США были широко привлечены академические центры для разработки комплексных программ обучения населения. Бесспорно, эта задача остается крайне важной, однако на первый план выходит технологическое отставание от пропагандистов.

Преодолеть это отставание возможно лишь включением в защитные программы дополнительных модулей — программ автоматической верификации, блокировки, разнообразных приложений и расширений. Соответственно, усилия многих государств и организаций сегодня направлены на разработку программных комплексов, способных блокировать агрессивный контент на этапе его появления, еще до попадания на наш экран.

Аналогично качественный анализ текстов перестает быть отправной точкой, так как проблема не только в языке ненависти, словах-паразитах и других технологиях классической пропаганды. На помощь приходит количественный анализ, работа с большими массивами данных. Неестественное поведение тысяч профилей, информационные волны, которые стартуют из определенных регионов, волна регистраций аккаунтов с определенными телефонными кодами — могут отследить только компьютеры, вводя в действие блокирующие алгоритмы.

Пару недель назад мало кто обратил внимание на новость с нью-йоркской биржи об удачном размещении акций компании Palantir. Украинские медиа больше заинтересовались тем, что одним из покупателей стал фонд Джорджа Сороса, с инвестицией более, чем 175 млн долларов. Для специалистов же это был важный знак: Palantir — известная, но крайне закрытая компания, занимающаяся анализом больших данных и разрабатывающая соответствующие алгоритмы. Фактически выход на IPO означает новый этап в работе с информационным полем, фиксирует успех разработанных технологий.

Фактически мы возвращаемся к созданию самодостаточных центров стратегических коммуникаций, внедряющих управленческие подходы для решения реальных задач. Сильные менеджеры с опытом работы в крупных корпорациях либо на государственной службе, с пониманием аспектов развития IT-сферы приходят для организации команд и запуска проектов. Академические центры и специалисты-тренеры отходят на второй план, так как не могут справиться с организацией работы в условиях информационного хаоса. Их роль — поддержки, а не формирования политик. Консультанты уступают место менеджерам.

В Украине вопрос противостояния информационному хаосу особо актуален. Фактически мы попали в зыбучие пески самоанализа и политической рефлексии, что крайне затормозило принятие управленческих решений в сфере информационной безопасности. Система правительственных коммуникаций и реализации «единого голоса» находится в глубоком упадке, противостояние политических акторов на всех уровнях ведет лишь к тому, что для решения вопросов призывают публичных спикеров, но не управленцев.

Поэтому фактически созданием Центра противодействия дезинформации в Украине должен заняться консорциум, состоящих из международных организаций, доноров и IT-компаний. Его задачи — не публичные выступления и отчеты о мониторинге, а создание реальных инструментов, программных продуктов, которые, с одной стороны, будут помогать людям в ежедневном общении, а, с другой — помогать руководству страны с политическими решениями. Ведь сегодня вся наша политика строится исключительно на допущениях, гипотезах, подозрениях, которые часто искусственно внедрены в наш мир недружественными силами. И чем дольше общество и государство будут полагаться на интуицию, опыт, ощущения, проводить круглые столы и искать национальную идею — тем больше страна будет вязнуть в информационном хаосе, все больше напоминая failed state. В условиях реальной войны с Россией пора начать выстраивать действующие механизмы с позиций утилитаризма и рациональных подходов. Нужны менеджеры, а не консультанты по личностному росту.


ТОП-новости
Последние новости
все новости
Gambling