Deepfakes — видео, где лицо одного человека заменяется на другое с помощью AI. Технология прошла путь от любительской до профессиональной за 5-7 лет. В 2026 — серьёзная угроза.
Как работают
Generative Adversarial Networks (GAN) или диффузионные модели. Обучаются на тысячах фото целевого человека. Затем накладывают его лицо на видео источника.
Качество
В 2018 — ещё можно было заметить артефакты (мерцание, деформации). К 2024 — лучшие deepfakes неотличимы от реальности для обычного глаза.
Реальные случаи
- Президент Украины "сдаёт позиции" — март 2022, быстро разоблачено
- Том Хэнкс — поддельная реклама стоматологии
- Путин — множественные фейки
- Порно-deepfakes актрис (70-90% всех deepfakes)
- Финансовые мошенничества — "коллега по видеосвязи" просит перевести деньги
Legitimate uses
- Кинопроизводство (молодая версия актёра)
- Озвучка на разных языках
- Образование (исторические реконструкции)
- Игры (реалистичные NPC)
Обнаружение
Сложно. Но возможно:
- AI-детекторы (сами они несовершенны)
- Артефакты в движении глаз
- Несоответствия в освещении
- Анализ метаданных
- Проверка источника
Борьба
Адоб, Microsoft, другие: C2PA — система цифровых подписей подлинности. Фото/видео с подписью на момент съёмки. Любое изменение нарушает подпись.
Регулирование
- EU AI Act — маркировка сгенерированного контента
- Некоторые штаты США — криминализация без согласия
- Россия — закон рассматривается
Ответственность платформ
Meta, TikTok, YouTube удаляют deepfakes. Но с задержкой. За это время — миллионы просмотров.
Угрозы
- Политическая манипуляция
- Финансовые мошенничества
- Репутационные атаки
- Вторжение в частную жизнь
- Недоверие к любому видео
"Liar's Dividend"
Опасность не только в фейках. В эпоху deepfakes реальные обличительные видео можно отрицать как фейк. Это подрывает доказательную силу видео вообще.
Российский контекст
- Российские разработчики в этой области — одни из продвинутых
- Потенциал применения в информационной войне высокий
- Российское законодательство отстаёт
Что делать
- Проверять источники
- Не верить всему, что видите в интернете
- Медиаграмотность детей и пожилых
- Поддерживать технологии аутентификации
- Юридическая защита
Будущее
Война технологий. Deepfakes улучшаются, детекторы улучшаются. Общество постепенно адаптируется к эпохе "любое видео может быть фейком". Доверие смещается — меньше к визуальному доказательству, больше к репутации источника.
Колонка писем
Письма в редакцию № 0
От редакции
Напишите нам письмо — разберём факты вместе.
Для публикации потребуется подписка.
Загрузка комментариев…