Открытие тонких, но эффективных модификаций ИИ в аутентичном видеоконтенте
11 апреля 2025 г.
StevenWalker
42
В 2019 году в обманчивом видео о Нэнси Пелоси, тогдашней спикере Палаты представителей США, широко распространено. Видео, которое было отредактировано, чтобы она появилась в состоянии алкогольного опьянения, было резким напоминанием о том, как легко манипулируемые средства массовой информации могут ввести в заблуждение общественности. Несмотря на свою простоту, этот инцидент подчеркнул потенциальный ущерб даже основных аудиовизуальных редактирования.
В то время в ландшафте Deepfake в значительной степени преобладали технологии на основе лиц на основе аутокодера, которые существуют с конца 2017 года. Эти ранние системы изо всех сил пытались внести нюансированные изменения в видео Pelosi, вместо этого сосредоточившись на более явных свопах лица.
Структура «Нейронные эмоциональные эмоции» 2022 года меняет настроение знаменитого лица. Источник: https://www.youtube.com/watch?v=LI6W8PRDMJQ
Перенесемся на сегодня, и индустрия кино и телевидения все чаще изучает постпроизводственные изменения, управляемые искусственным интеллектом. Эта тенденция вызвала как интерес, так и критику, поскольку ИИ обеспечивает уровень перфекционизма, который ранее был недостижимым. В ответ исследовательское сообщество разработало различные проекты, ориентированные на «локальные изменения» захват лица, таких как диффузионные видео -автоподействия, сшивать его во времени, чатфейс, магистраль и диско.
Экспрессия редактирует с января 2025 года Magicface Magicface. Источник: https://arxiv.org/pdf/2501.02260
Новые лица, новые морщины
Тем не менее, технология создания этих тонких изменений продвигается намного быстрее, чем наша способность обнаружить их. Большинство методов обнаружения глубоких заданий устарели, фокусируются на более старых методах и наборах данных. То есть до недавнего прорыва от исследователей в Индии.
Обнаружение тонких локальных изменений в DeepFakes: реальное видео изменяется для создания подделок с нюансами, такими как поднятые брови, модифицированные гендерные признаки и сдвиги в выражении к отвращению (иллюстрируется здесь одним кадром). Источник: https://arxiv.org/pdf/2503.22121
Это новое исследование нацелена на обнаружение тонких локализованных манипуляций с лицевой лицевой лицевой лицевой лицевой лицевой линейкой, тип подделки, часто упускаемой из виду. Вместо того, чтобы искать широкие несоответствия или несоответствия идентичности, метод обрабатывает необходимые детали, такие как небольшие сдвиги выражения или незначительные изменения в определенных особенностях лица. Он использует систему кодирования действий лица (FACS), которая разбивает выражения лица на 64 измененных областей.
Некоторые из составляющих 64 экспрессионных частей в FACS. Источник: https://www.cs.cmu.edu/~face/facs.htm
Исследователи проверили свой подход к различным недавним методам редактирования и обнаружили, что он последовательно превзошел существующие решения, даже при более старых наборах данных и более новых векторов атаки.
«Используя функции на основе AU для направления видео-представлений, изучаемых с помощью Masked AutoEncoders (MAE), наш метод эффективно отражает локализованные изменения, имеющие решающее значение для обнаружения тонких изменений лица.
«Этот подход позволяет нам построить унифицированное скрытое представление, которое кодирует как локализованные редакторы, так и более широкие изменения в видео, ориентированных на лицо, обеспечивая всеобъемлющее и адаптируемое решение для обнаружения глубоких черт».
Документ под названием «Обнаружение локализованных манипуляций с глубокимфуксом» с использованием видео-представлений, управляемых действием , была авторирована исследователями Индийского технологического института в Мадрасе.
Метод
Метод начинается с обнаружения лиц в видео и отбора проб равномерно расстояния, сосредоточенных на этих лицах. Эти рамы затем разбиваются на небольшие 3D -пятна, захватывая локальные пространственные и временные детали.
Схема для нового метода. Входное видео обрабатывается с обнаружением лица для извлечения равномерно распределенных, фокусированных кадров, которые затем делятся на «трубчатые» пятна и проходят через энкодер, который предотвращает скрытые представления от двух предварительных задач предлога. Полученный вектор затем используется классификатором, чтобы определить, является ли видео реальным или фальшивым.
Каждый патч содержит небольшое окно пикселей из нескольких последовательных кадров, что позволяет модели изучать краткосрочные изменения движения и выражения. Эти патчи встроены и позиционно закодированы, прежде чем подавать в кодировщик, предназначенный для того, чтобы отличить реальные от поддельных видео.
Задача обнаружения тонких манипуляций решается с использованием энкодера, который объединяет два типа изученных представлений с помощью механизма перекрестного взаимодействия, направленного на создание более чувствительного и обобщаемого пространства признаков.
Продолжительные задачи
Первое представление происходит от энкодера, обученного задачу автоматического маскировки. Скрыв большинство 3D -патчей видео, энкодер учится реконструировать недостающие части, захватывая важные пространственно -временные узоры, такие как движение лица.
Обучение задачи предварительно включает в себя маскирование частей видео входа и использование настройки энкодера-декодера для восстановления либо оригинальных кадров, либо карт действия для затрат на карты, в зависимости от задачи.
Тем не менее, этого одного недостаточно, чтобы обнаружить мелкозернистые изменения. Исследователи ввели второй энкодер, обученный для обнаружения единиц действия лица (AUS), поощряя его сосредоточиться на локализованной мышечной активности, где часто возникают тонкие глубокие изменения.
Дальнейшие примеры единиц действия лица (FAUS или AUS). Источник: https://www.eiagroup.com/the-facial-action-coding-system/
После предварительной подготовки выходы обоих кодеров объединяются с использованием перекрестного привлечения, а функции, основанные на AU, направляют внимание к пространственным временным особенностям. Это приводит к тому, что скрытое скрытое представление, которое отражает как более широкий контекст движения, так и локализованные детали выражения, используемые для конечной задачи классификации.
Данные и тесты
Выполнение
Система была реализована с использованием структуры обнаружения лиц на основе Facexzoo Pytorch, извлекая 16 кадров, ориентированных на лицо из каждого видеоклипа. Задачи предлогов были обучены набору данных Celebv-HQ, который включает 35 000 высококачественных видеороликов.
Из исходной статьи примеры из набора данных Celebv-HQ, используемых в новом проекте. Источник: https://arxiv.org/pdf/2207.12393
Половина данных была замаскирована, чтобы предотвратить переживание. Для задачи реконструкции кадров в масках модель была обучена прогнозированию недостающих областей с использованием потери L1. Для второй задачи было обучено генерировать карты для 16 единиц действия лица, под руководством потери L1.
После предварительной подготовки энкодеры были объединены и настраивались для обнаружения глубоких черт с использованием набора данных FaceForensics ++, который включает как реальные, так и манипулируемые видео.
Набор данных FaceForensics ++ был краеугольным камнем обнаружения DeepFake с 2017 года, хотя в настоящее время он значительно устарел в отношении последних методов синтеза лица. Источник: https://www.youtube.com/watch?v=x2g48q2i2zq
Чтобы решить проблему дисбаланса класса, авторы использовали фокусную потерю, подчеркивая более сложные примеры во время обучения. Все тренировки проводились на одном графическом процессоре RTX 4090 с 24 ГБ VRAM, с использованием предварительно обученных контрольных точек от Videomae.
Тесты
Метод был оценен по различным методам обнаружения глубоких черт, сосредоточив внимание на локально отредактированных глубоководствах. Тесты включали в себя ряд методов редактирования и более старые наборы данных DeepFake, используя такие показатели, как область под кривой (AUC), средняя точность и средний балл F1.
Из статьи: Сравнение недавних локализованных DeepFakes показывает, что предлагаемый метод превзошел все остальные, причем 15-20 процентов увеличивается как AUC, так и средняя точность по сравнению с следующим лучшим подходом.
Авторы предоставили визуальные сравнения локально манипулируемых видео, показывая превосходную чувствительность их метода к тонким изменениям.
Настоящее видео было изменено с использованием трех различных локализованных манипуляций для создания подделок, которые оставались визуально похожими на оригинал. Здесь показаны репрезентативные кадры, а также средние показатели обнаружения подделки для каждого метода. В то время как существующие детекторы боролись с этими тонкими изменениями, предложенная модель последовательно назначала высокие фальшивые вероятности, что указывает на большую чувствительность к локализованным изменениям.
Исследователи отметили, что существующие современные методы обнаружения боролись с последними методами генерации DeepFake, в то время как их метод показал надежное обобщение, достигая высоких AUC и средних показателей точности.
Производительность на традиционных наборах данных DeepFake показывает, что предлагаемый метод оставался конкурентоспособным с ведущими подходами, что указывает на сильное обобщение в ряде типов манипуляций.
Авторы также проверили надежность модели в реальных условиях, находя ее устойчивой к общим видео-искажениям, таким как корректировки насыщения, размытие Гаусса и пикселяция.
Иллюстрация того, как точность обнаружения меняется при разных видео -искажениях. В большинстве случаев новый метод оставался устойчивым, с небольшим снижением AUC. Наиболее значительное падение произошло, когда был введен гауссовый шум.
Заключение
В то время как общественность часто думает о темно -разбирательстве как обмена идентичности, реальность манипуляции с ИИ более нюансирована и потенциально более коварна. Вид местного редактирования, обсуждаемого в этом новом исследовании, может не привлечь внимание общественности, пока не произойдет еще один громкий инцидент. Тем не менее, как отметил актер Ник Кейдж, потенциал для пост-продакшн-редакций для изменения выступлений-это беспокойство, о которой мы все должны знать. Мы, естественно, чувствительны к даже малейшим изменениям в выражениях лица, и контекст может резко изменить их влияние.
Впервые опубликовано в среду, 2 апреля 2025 года
Связанная статья
Civitai tăng cường các quy định của Deepfake trong bối cảnh áp lực từ Thẻ Mastercard và Visa
Civitai, một trong những kho lưu trữ mô hình AI nổi bật nhất trên Internet, gần đây đã thực hiện những thay đổi đáng kể đối với các chính sách của mình về nội dung NSFW, đặc biệt liên quan đến người nổi tiếng Loras. Những thay đổi này đã được thúc đẩy bởi áp lực từ MasterCard và Visa của người hỗ trợ thanh toán. Người nổi tiếng Loras, đó là bạn
Google sử dụng AI để đình chỉ hơn 39 triệu tài khoản AD vì bị nghi ngờ gian lận
Google đã công bố vào thứ Tư rằng họ đã có một bước quan trọng trong việc chống gian lận quảng cáo bằng cách đình chỉ một tài khoản nhà quảng cáo đáng kinh ngạc 39,2 triệu trên nền tảng của mình vào năm 2024.
Tạo video AI chuyển sang kiểm soát hoàn toàn
Các mô hình nền tảng video như Hunyuan và WAN 2.1 đã có những bước tiến đáng kể, nhưng chúng thường bị thiếu hụt khi nói đến điều khiển chi tiết cần thiết trong sản xuất phim và TV, đặc biệt là trong lĩnh vực hiệu ứng hình ảnh (VFX). Trong VFX Studios chuyên nghiệp, những mô hình này, cùng với hình ảnh trước đó
Комментарии (25)
KevinAnderson
13 апреля 2025 г., 16:16:26 GMT
The Nancy Pelosi video was a wake-up call! It's scary how easily AI can manipulate videos. I appreciate the app for showing how subtle changes can have big impacts. But it's also a bit unsettling; makes you question what's real. Needs more transparency, I think.
0
NicholasYoung
13 апреля 2025 г., 1:51:07 GMT
ナンシー・ペロシのビデオは目覚まし時計のようなものでした!AIがどれだけ簡単にビデオを操作できるかは恐ろしいです。このアプリが微妙な変更が大きな影響を与えることを示してくれたのは良かったです。でも、ちょっと不気味ですね。本物が何か疑問に思います。もっと透明性が必要だと思います。
0
MichaelDavis
12 апреля 2025 г., 11:12:26 GMT
O vídeo da Nancy Pelosi foi um alerta! É assustador como a IA pode manipular vídeos tão facilmente. Gosto do app por mostrar como mudanças sutis podem ter grandes impactos. Mas também é um pouco perturbador; faz você questionar o que é real. Precisa de mais transparência, acho eu.
0
JustinNelson
14 апреля 2025 г., 1:30:55 GMT
नैन्सी पेलोसी का वीडियो एक जागृति कॉल था! यह डरावना है कि AI कितनी आसानी से वीडियो को मैनिपुलेट कर सकता है। मुझे ऐप पसंद है कि यह दिखाता है कि सूक्ष्म परिवर्तन कैसे बड़े प्रभाव डाल सकते हैं। लेकिन यह भी थोड़ा असहज है; आपको यह सोचने पर मजबूर करता है कि क्या सच है। मुझे लगता है कि इसमें और पारदर्शिता की जरूरत है।
0
MarkLopez
12 апреля 2025 г., 14:16:16 GMT
La vidéo de Nancy Pelosi a été un signal d'alarme ! C'est effrayant de voir à quel point l'IA peut facilement manipuler des vidéos. J'apprécie l'application pour montrer comment des changements subtils peuvent avoir un grand impact. Mais c'est aussi un peu dérangeant ; ça vous fait douter de ce qui est réel. Il faudrait plus de transparence, je pense.
0
RogerMartinez
13 апреля 2025 г., 0:33:37 GMT
The Nancy Pelosi video was a wake-up call on how AI can subtly change videos to mislead us. It's scary how simple it was to make her look intoxicated. This app really shows the power of AI in media manipulation. Needs to be more accessible though, so more people can understand the risks!
0






В 2019 году в обманчивом видео о Нэнси Пелоси, тогдашней спикере Палаты представителей США, широко распространено. Видео, которое было отредактировано, чтобы она появилась в состоянии алкогольного опьянения, было резким напоминанием о том, как легко манипулируемые средства массовой информации могут ввести в заблуждение общественности. Несмотря на свою простоту, этот инцидент подчеркнул потенциальный ущерб даже основных аудиовизуальных редактирования.
В то время в ландшафте Deepfake в значительной степени преобладали технологии на основе лиц на основе аутокодера, которые существуют с конца 2017 года. Эти ранние системы изо всех сил пытались внести нюансированные изменения в видео Pelosi, вместо этого сосредоточившись на более явных свопах лица.
Структура «Нейронные эмоциональные эмоции» 2022 года меняет настроение знаменитого лица. Источник: https://www.youtube.com/watch?v=LI6W8PRDMJQ
Перенесемся на сегодня, и индустрия кино и телевидения все чаще изучает постпроизводственные изменения, управляемые искусственным интеллектом. Эта тенденция вызвала как интерес, так и критику, поскольку ИИ обеспечивает уровень перфекционизма, который ранее был недостижимым. В ответ исследовательское сообщество разработало различные проекты, ориентированные на «локальные изменения» захват лица, таких как диффузионные видео -автоподействия, сшивать его во времени, чатфейс, магистраль и диско.
Экспрессия редактирует с января 2025 года Magicface Magicface. Источник: https://arxiv.org/pdf/2501.02260
Новые лица, новые морщины
Тем не менее, технология создания этих тонких изменений продвигается намного быстрее, чем наша способность обнаружить их. Большинство методов обнаружения глубоких заданий устарели, фокусируются на более старых методах и наборах данных. То есть до недавнего прорыва от исследователей в Индии.
Обнаружение тонких локальных изменений в DeepFakes: реальное видео изменяется для создания подделок с нюансами, такими как поднятые брови, модифицированные гендерные признаки и сдвиги в выражении к отвращению (иллюстрируется здесь одним кадром). Источник: https://arxiv.org/pdf/2503.22121
Это новое исследование нацелена на обнаружение тонких локализованных манипуляций с лицевой лицевой лицевой лицевой лицевой лицевой линейкой, тип подделки, часто упускаемой из виду. Вместо того, чтобы искать широкие несоответствия или несоответствия идентичности, метод обрабатывает необходимые детали, такие как небольшие сдвиги выражения или незначительные изменения в определенных особенностях лица. Он использует систему кодирования действий лица (FACS), которая разбивает выражения лица на 64 измененных областей.
Некоторые из составляющих 64 экспрессионных частей в FACS. Источник: https://www.cs.cmu.edu/~face/facs.htm
Исследователи проверили свой подход к различным недавним методам редактирования и обнаружили, что он последовательно превзошел существующие решения, даже при более старых наборах данных и более новых векторов атаки.
«Используя функции на основе AU для направления видео-представлений, изучаемых с помощью Masked AutoEncoders (MAE), наш метод эффективно отражает локализованные изменения, имеющие решающее значение для обнаружения тонких изменений лица.
«Этот подход позволяет нам построить унифицированное скрытое представление, которое кодирует как локализованные редакторы, так и более широкие изменения в видео, ориентированных на лицо, обеспечивая всеобъемлющее и адаптируемое решение для обнаружения глубоких черт».
Документ под названием «Обнаружение локализованных манипуляций с глубокимфуксом» с использованием видео-представлений, управляемых действием , была авторирована исследователями Индийского технологического института в Мадрасе.
Метод
Метод начинается с обнаружения лиц в видео и отбора проб равномерно расстояния, сосредоточенных на этих лицах. Эти рамы затем разбиваются на небольшие 3D -пятна, захватывая локальные пространственные и временные детали.
Схема для нового метода. Входное видео обрабатывается с обнаружением лица для извлечения равномерно распределенных, фокусированных кадров, которые затем делятся на «трубчатые» пятна и проходят через энкодер, который предотвращает скрытые представления от двух предварительных задач предлога. Полученный вектор затем используется классификатором, чтобы определить, является ли видео реальным или фальшивым.
Каждый патч содержит небольшое окно пикселей из нескольких последовательных кадров, что позволяет модели изучать краткосрочные изменения движения и выражения. Эти патчи встроены и позиционно закодированы, прежде чем подавать в кодировщик, предназначенный для того, чтобы отличить реальные от поддельных видео.
Задача обнаружения тонких манипуляций решается с использованием энкодера, который объединяет два типа изученных представлений с помощью механизма перекрестного взаимодействия, направленного на создание более чувствительного и обобщаемого пространства признаков.
Продолжительные задачи
Первое представление происходит от энкодера, обученного задачу автоматического маскировки. Скрыв большинство 3D -патчей видео, энкодер учится реконструировать недостающие части, захватывая важные пространственно -временные узоры, такие как движение лица.
Обучение задачи предварительно включает в себя маскирование частей видео входа и использование настройки энкодера-декодера для восстановления либо оригинальных кадров, либо карт действия для затрат на карты, в зависимости от задачи.
Тем не менее, этого одного недостаточно, чтобы обнаружить мелкозернистые изменения. Исследователи ввели второй энкодер, обученный для обнаружения единиц действия лица (AUS), поощряя его сосредоточиться на локализованной мышечной активности, где часто возникают тонкие глубокие изменения.
Дальнейшие примеры единиц действия лица (FAUS или AUS). Источник: https://www.eiagroup.com/the-facial-action-coding-system/
После предварительной подготовки выходы обоих кодеров объединяются с использованием перекрестного привлечения, а функции, основанные на AU, направляют внимание к пространственным временным особенностям. Это приводит к тому, что скрытое скрытое представление, которое отражает как более широкий контекст движения, так и локализованные детали выражения, используемые для конечной задачи классификации.
Данные и тесты
Выполнение
Система была реализована с использованием структуры обнаружения лиц на основе Facexzoo Pytorch, извлекая 16 кадров, ориентированных на лицо из каждого видеоклипа. Задачи предлогов были обучены набору данных Celebv-HQ, который включает 35 000 высококачественных видеороликов.
Из исходной статьи примеры из набора данных Celebv-HQ, используемых в новом проекте. Источник: https://arxiv.org/pdf/2207.12393
Половина данных была замаскирована, чтобы предотвратить переживание. Для задачи реконструкции кадров в масках модель была обучена прогнозированию недостающих областей с использованием потери L1. Для второй задачи было обучено генерировать карты для 16 единиц действия лица, под руководством потери L1.
После предварительной подготовки энкодеры были объединены и настраивались для обнаружения глубоких черт с использованием набора данных FaceForensics ++, который включает как реальные, так и манипулируемые видео.
Набор данных FaceForensics ++ был краеугольным камнем обнаружения DeepFake с 2017 года, хотя в настоящее время он значительно устарел в отношении последних методов синтеза лица. Источник: https://www.youtube.com/watch?v=x2g48q2i2zq
Чтобы решить проблему дисбаланса класса, авторы использовали фокусную потерю, подчеркивая более сложные примеры во время обучения. Все тренировки проводились на одном графическом процессоре RTX 4090 с 24 ГБ VRAM, с использованием предварительно обученных контрольных точек от Videomae.
Тесты
Метод был оценен по различным методам обнаружения глубоких черт, сосредоточив внимание на локально отредактированных глубоководствах. Тесты включали в себя ряд методов редактирования и более старые наборы данных DeepFake, используя такие показатели, как область под кривой (AUC), средняя точность и средний балл F1.
Из статьи: Сравнение недавних локализованных DeepFakes показывает, что предлагаемый метод превзошел все остальные, причем 15-20 процентов увеличивается как AUC, так и средняя точность по сравнению с следующим лучшим подходом.
Авторы предоставили визуальные сравнения локально манипулируемых видео, показывая превосходную чувствительность их метода к тонким изменениям.
Настоящее видео было изменено с использованием трех различных локализованных манипуляций для создания подделок, которые оставались визуально похожими на оригинал. Здесь показаны репрезентативные кадры, а также средние показатели обнаружения подделки для каждого метода. В то время как существующие детекторы боролись с этими тонкими изменениями, предложенная модель последовательно назначала высокие фальшивые вероятности, что указывает на большую чувствительность к локализованным изменениям.
Исследователи отметили, что существующие современные методы обнаружения боролись с последними методами генерации DeepFake, в то время как их метод показал надежное обобщение, достигая высоких AUC и средних показателей точности.
Производительность на традиционных наборах данных DeepFake показывает, что предлагаемый метод оставался конкурентоспособным с ведущими подходами, что указывает на сильное обобщение в ряде типов манипуляций.
Авторы также проверили надежность модели в реальных условиях, находя ее устойчивой к общим видео-искажениям, таким как корректировки насыщения, размытие Гаусса и пикселяция.
Иллюстрация того, как точность обнаружения меняется при разных видео -искажениях. В большинстве случаев новый метод оставался устойчивым, с небольшим снижением AUC. Наиболее значительное падение произошло, когда был введен гауссовый шум.
Заключение
В то время как общественность часто думает о темно -разбирательстве как обмена идентичности, реальность манипуляции с ИИ более нюансирована и потенциально более коварна. Вид местного редактирования, обсуждаемого в этом новом исследовании, может не привлечь внимание общественности, пока не произойдет еще один громкий инцидент. Тем не менее, как отметил актер Ник Кейдж, потенциал для пост-продакшн-редакций для изменения выступлений-это беспокойство, о которой мы все должны знать. Мы, естественно, чувствительны к даже малейшим изменениям в выражениях лица, и контекст может резко изменить их влияние.
Впервые опубликовано в среду, 2 апреля 2025 года



The Nancy Pelosi video was a wake-up call! It's scary how easily AI can manipulate videos. I appreciate the app for showing how subtle changes can have big impacts. But it's also a bit unsettling; makes you question what's real. Needs more transparency, I think.




ナンシー・ペロシのビデオは目覚まし時計のようなものでした!AIがどれだけ簡単にビデオを操作できるかは恐ろしいです。このアプリが微妙な変更が大きな影響を与えることを示してくれたのは良かったです。でも、ちょっと不気味ですね。本物が何か疑問に思います。もっと透明性が必要だと思います。




O vídeo da Nancy Pelosi foi um alerta! É assustador como a IA pode manipular vídeos tão facilmente. Gosto do app por mostrar como mudanças sutis podem ter grandes impactos. Mas também é um pouco perturbador; faz você questionar o que é real. Precisa de mais transparência, acho eu.




नैन्सी पेलोसी का वीडियो एक जागृति कॉल था! यह डरावना है कि AI कितनी आसानी से वीडियो को मैनिपुलेट कर सकता है। मुझे ऐप पसंद है कि यह दिखाता है कि सूक्ष्म परिवर्तन कैसे बड़े प्रभाव डाल सकते हैं। लेकिन यह भी थोड़ा असहज है; आपको यह सोचने पर मजबूर करता है कि क्या सच है। मुझे लगता है कि इसमें और पारदर्शिता की जरूरत है।




La vidéo de Nancy Pelosi a été un signal d'alarme ! C'est effrayant de voir à quel point l'IA peut facilement manipuler des vidéos. J'apprécie l'application pour montrer comment des changements subtils peuvent avoir un grand impact. Mais c'est aussi un peu dérangeant ; ça vous fait douter de ce qui est réel. Il faudrait plus de transparence, je pense.




The Nancy Pelosi video was a wake-up call on how AI can subtly change videos to mislead us. It's scary how simple it was to make her look intoxicated. This app really shows the power of AI in media manipulation. Needs to be more accessible though, so more people can understand the risks!












