Storm‑1516: как сеть на базе ИИ превращает фейки в масштабную информационную кампанию

Группа под названием Storm‑1516, имеющая связи с военными структурами, в последние годы превратила производство политических фейков в конвейер, опираясь на генеративный искусственный интеллект и расширение охвата в социальных сетях.

Что такое Storm‑1516?

Исследователи впервые выделили этот проект в конце 2023 года. По доступным данным, изначально он восходит к сетям пропагандных троллей, а сейчас операции координируются силами спецслужб. Европейские эксперты называют одним из идеологов крупной глобальной инфовойны высокопоставленного чиновника российской администрации.

Украинские спецслужбы связывают работу группы с воинской частью, которая обеспечивает финансирование, серверы и ИИ‑инструменты; в рядах координаторов называют офицеров, уже замеченных в связях с зарубежными прокремлёвскими активистами.

Чем занимается группа?

Деятельность Storm‑1516 заметно выросла: за определённые месяцы активность группы удвоилась по сравнению с прошлым годом. Основные цели — вмешательство в избирательные процессы в ряде европейских стран и дискредитация проевропейских сил.

В ход идут абсурдные и шокирующие нарративы — от кампаний против политиков до фабрикации сексуальных и финансовых обвинений в адрес руководителей государств. Такие истории запускаются через маргинальные или региональные сайты, затем «легализуются» на ресурсах, претендующих на авторитет, после чего ускоренно распространяются по соцсетям с помощью сгенерированного контента.

Типичная схема: публикация появляется на сомнительном источнике, затем републикуется площадкой с видимостью настоящей редакционной структуры, после чего ИИ‑генерированные версии и посты влиятельных аккаунтов доводят тему до массовой аудитории.

Такие вбросы оказываются достаточно действенными и могут занимать заметную долю информационного поля по определённой теме, регулярно подпитывая общественные настроения фейковыми подробностями.

Какие аккаунты распространяют фейки?

Сила кампаний во многом в том, что их распространяют реальные инфлюенсеры и крупные аккаунты с лояльной аудиторией — иногда авторы репостов искренне считают публикуемое правдой. Вирусные ролики и посты нередко перепощивают скандально известные фигуры и участники громких событий, что даёт миллионы просмотров и новый уровень доверия к ложным материалам.

Происхождение многих роликов прослеживалось до прокремлёвских активистов или бывших партнёров журналистов, что показывает сложную сеть связей между авторами контента и его распространителями.

Почему это работает?

Три ключевых фактора усиливают эффективность таких операций: распространение доступных инструментов ИИ, которые ускоряют производство контента и снижают его стоимость; ослабление модерации в некоторых соцсетях; и снижение ресурсов в структурах, ранее занимавшихся противодействием иностранному влиянию.

Механизмы самопроверки и пометки недостоверного контента часто охватывают лишь небольшую часть подобных вбросов, поэтому многие фейки продолжают тиражироваться без заметных пометок о недостоверности.

Что это значит для нас?

Основная цель кампании — сформировать устойчивое убеждение о тотальной коррупции западных институтов и общее разочарование в демократии как системе. Для общества это означает возрастание информационной токсичности, рост поляризации и сложность отделения фактов от сгенерированных и намеренно искажённых нарративов.

Чтобы противостоять таким угрозам, необходимы сочетание технических мер (улучшение модерации и разметки контента), медийная грамотность населения и активная работа профильных служб по выявлению и нейтрализации координированных кампаний.