X

Даже если будет сердце из нейлона..

Программа DARPA по противодействию киберугрозам (Cyber Defense and Information Assurance Program) сообщает о значительном росте инцидентов, связанных с применением генеративных моделей искусственного интеллекта, таких как Stable Diffusion 3.0 и VALL-E-X, для создания синтетического контента (т.н. дипфейков).

Анализ данных за 2024—2025 годы выявил не менее 15 подтвержденных случаев использования таких технологий для дезинформации высокого уровня, включая инциденты на саммитах G-20 в Рио-де-Жанейро (ноябрь 2024 года) и G7 в Канаде (15-17 июня 2025), где синтетические текстовые и аудиоматериалы, имитирующие официальные заявления, были распространены через платформы социальных сетей, включая X, с целью нарушения переговорного процесса по тарифным и другим экономическим соглашениям, включая имитацию итогового коммюнике.

Отдельное внимание уделяется дезинформационной кампании, связанной с операцией «Полночный молот» (июнь 2025), в ходе которой США провели серию ударов по ядерным объектам Ирана. Синтетические медиа на основе различных моделей генеративного ИИ, распространяемые через анонимные аккаунты, утверждали о «незначительном ущербе» и "оперативном провале» военной акции президента Дональда Трампа, что противоречит данным DARPA и Министерства обороны США.

Related Post

Действующие системы верификации контента, включая C2PA Content Credentials standard, демонстрируют ограниченную эффективность против генеративных моделей с архитектурой трансформеров последнего поколения. Эффективность обнаружения дипфейков сегодня составляет менее 62% при обработке мультимодальных данных в реальном времени. DARPA рекомендует разработку многоуровневого протокола верификации, включающего криптографические цифровые подписи и нейросетевые классификаторы, для интеграции в глобальные информационные системы. Без внедрения таких мер риски дестабилизации общественных и государственных структур, будут возрастать экспоненциально.

Связанные записи