Поддержать команду Зеркала
Беларусы на войне
  1. Аналитики изучили российские массированные удары по Украине и выявили несколько закономерностей — вот о чем речь
  2. «Не волнуйтесь, все в порядке». Военком Гомельского района объяснил, что за дрон летает над городом
  3. МВД нашло еще одно экстремистское формирование в стране
  4. Для тех, кто обогревает жилье электричеством, вводят изменение. И оно вряд ли порадует людей — придется платить заметно больше
  5. Похоже, гендиректора «Минсктранса» сняли с должности — рассказываем
  6. Мать воевавшего за РФ беларуса утверждает, что сына «просто добивают» в больнице Курской области
  7. В Минске стала меняться ситуация на рынке труда. Рассказываем, какие тенденции наблюдаются в 2026 году
  8. Силовики нагрянули к беларусу за «политику», а у того дома пестрит от красно-зеленого. Как они отреагировали?
  9. «Можно себе позволить завтрак в 2 часа дня». «Бюро» выяснило подробности жизни внучки Лукашенко — от места учебы до личных отношений
  10. С 1 марта введут новшество для тех, у кого есть дом или квартира. Подробности
  11. Маршрутка в Минске поднимает цену билета сразу на 1,5 рубля
  12. В СК рассказали, откуда приехали трое иностранцев, которые с битой и травматическими пистолетами истязали семью в Смолевичском районе
  13. Беларусский вор в законе встречался с главой BYPOL и, похоже, помогал политзаключенному. Его новые планы звучат тревожно — рассказываем


Как и любой типичный пользователь соцсетей, профессор Королевского колледжа Лондона Алан Рид не придавал особого значения дипфейкам, которые время от времени появлялись в его лентах. Иногда он жаловался на них соцсетям, а иногда просто скроллил дальше. Пока однажды неизвестный аккаунт не отметил профессора на видео с его собственным лицом. Подробности рассказывает Би-би-си.

Сгенерированные при помощи ИИ видео, на которых девушки призывают Польшу выйти из Евросоюза, стали вирусными в прошлом году. Фото из соцсетей, коллаж Би-би-си
Сгенерированные при помощи ИИ видео, на которых девушки призывают Польшу выйти из Евросоюза, стали вирусными в прошлом году. Фото из соцсетей, коллаж Би-би-си

Это перевод материала с сайта BBC News. С оригиналом на английском языке можно ознакомиться здесь.

В этом видео сгенерированный голос, почти идентичный голосу Рида, разразился политической тирадой, направленной против президента Франции Эмманюэля Макрона. Фейковый профессор говорил, что западные лидеры оказались «на борту „Титаника“ с надписью „Евросоюз“ на корпусе».

«Почти все в этом видео было вопиющим, и было ужасно слушать его, — сказал Би-би-си Алан Рид, профессор-театровед, никаким образом не связанный с политикой. — Это кажется мне… чем-то совершенно чужеродным».

Использование образа ничего не подозревающего профессора Рида — лишь один пример сгенерированных видео, связанных с Россией, которые заполнили соцсети в последние месяцы. Специалисты по безопасности предупреждают, что Западу надо готовиться к борьбе с влиянием Кремля в сфере искусственного интеллекта.

«Мы наблюдаем не просто резкий рост числа дипфейков, но и изменения в том, как создаются подобного рода материалы», — говорит Крис Кремидас-Кортни, аналитик по вопросам обороны и безопасности в Центре европейской политики.

«Перед нами системы, которые могут генерировать <…> убедительные материалы за копейки. С моей точки зрения, это революция в методах политического влияния, и ни одна из наших нынешних государственных систем не готова противостоять этому», — поясняет он.

В этих видео дискредитируются институты Евросоюза, а украинское правительство обвиняется в коррупции ровно в то время, когда Киев пытается получить финансирование от западных союзников для противостояния России на пятый год полномасштабной войны.

Некоторые такие видео набрали сотни тысяч просмотров.

Число дипфейков резко выросло через несколько месяцев после того, как компания OpenAI выпустила Sora2 — новейшую версию сервиса для генерации видео. По сравнению с прошлой версией, результат получается намного более реалистичным.

Многочисленные другие приложения пытаются отобрать у гиганта OpenAI долю рынка. Для этого они снижают цены или отказываются от мер предосторожности — например, от водяных знаков, которыми обозначены все видео Sora2, чтобы их можно было отличить от настоящих — не сгенерированных — видеозаписей.

«Им надо привлечь пользователей», — говорит российский эксперт по ИИ Арман Туганбаев. В то время как OpenAI старается предотвратить попытки генерировать видео с реальными людьми, «приложения второго сорта дают и такую опцию», добавляет он.

В OpenAI заявили Би-би-си, что компания принимает меры против аккаунтов, которые совершают обманные действия, направленные на причинение вреда, в том числе — тех, кто делает ложные утверждения о происхождении материала. (В отчете OpenAI о борьбе со злоупотреблениями за февраль 2026 года упоминается блокировка аккаунтов, связанных с телеграм-каналом «Рыбарь», который, в свою очередь, связан с российскими силовиками. — Прим. Русская служба Би-би-си).

Благодаря технической гонке кампании по иностранному влиянию постоянно становятся как более масштабными, так и более искусными, усиливая положение России в ее гибридном конфликте с Западом.

В декабре прошлого года множество видео, сгенерированных при помощи ИИ, стали вирусными в TikTok: на них молодые польки якобы призывали к «Полэкзиту», то есть выходу Польши из Евросоюза.

«Нет никаких сомнений в том, что это — российская дезинформация, — говорит пресс-секретарь правительства Польши Адам Шлапка. — Если присмотреться, то можно заметить, что в этих видео используется русский синтаксис».

Польша призвала Европейскую комиссию провести расследование в отношении TikTok в связи с инцидентом.

TikTok с тех пор удалил видео и аккаунты, опубликовавшие их. В компании заявили, что по всему миру за 2025 год TikTok остановил более 75 скрытых операций по оказанию влияния.

Настоящий рилз, опубликованный Аланом Ридом, подвергся манипуляции при помощи ИИ — и новая версия со сгенерированной озвучкой появилась в аккаунтах, связанных с Россией. Фото из соцсетей
Настоящий рилз, опубликованный Аланом Ридом, подвергся манипуляции при помощи ИИ — и новая версия со сгенерированной озвучкой появилась в аккаунтах, связанных с Россией. Фото из соцсетей

В Великобритании члены парламента опасаются, что связанные с Россией дипфейки могут повлиять на местные выборы в мае.

«Мы видели, как их используют в ходе выборов по всему миру, и нет повода предполагать, что Британия станет исключением», — сказал депутатам исполнительный директор Избирательной комиссии Соединенного Королевства Виджай Рангараджан.

Британский закон об онлайн-безопасности не говорит прямо о том, что дезинформация ведет к причинению вреда. Однако он обязывает платформы удалять материалы, о которых доказано, что они — часть кампании по иностранному влиянию. Но этот процесс занимает слишком много времени, тогда как видео могут стать вирусными за считаные часы.

Происхождение постов с дипфейками отследить нелегко, но западные исследователи говорят, что у них есть много общих характеристик (от стилистики до моделей их распространения). Это позволяет связать их с организованными группами, действующими в интересах Кремля.

Кампания под названием «Матрешка», или «Операция Перегрузка», судя по всему, заключалась в публикации сгенерированных видео, дискредитирующих президента Молдовы Майю Санду во время выборов 2025 года.

Общие характеристики позволяют предложить, что за «Матрешкой» и видео с профессором Ридом стоит одна и та же группировка, полагают в организации NewsGuard, которая следит за онлайн-дезинформацией.

Название кампании — «Матрешка» — отражает ее метод: изначальное ложное заявление как бы «заворачивается» в репосты от заброшенных или украденных аккаунтов в соцсетях.

В отличие от традиционных методов пропаганды (к примеру, RT и Sputnik, попавшие под санкции ЕС в самом начале полномасштабной войны в Украине), такие кампании «позволяют иметь уровень… правдоподобного отрицания, что усложняет усилия по противодействию», говорит Софи Уильямс-Даннинг из Королевского объединенного института оборонных исследований.

Исследователи из Клемсонского университета в Южной Каролине связали другую группу (Центр анализа угроз Microsoft называет ее «Шторм-1516») с выходцами из «фабрики троллей» Евгения Пригожина, погибшего в 2023 году.

Ученые поделились с Би-би-си примером из своего еще не опубликованного исследования, который показывает, с какой скоростью фейковые новости распространяются в соцсетях.

По их наблюдениям, ложный нарратив о Владимире Зеленском (к примеру, что он «коррумпирован»), «вброшенный» «Штормом-1516», за неделю охватывает около 7,5% всех дискуссий о президенте Украины в соцсети X.

«Любая маркетинговая компания гордилась бы таким результатом», — говорит один из авторов исследования Даррен Л. Линвилл.