在真實視頻內容中揭示微妙而有影響力的AI修改
2019年,一段關於時任美國眾議院議長南希·佩洛西的欺騙性影片廣泛流傳。這段影片經過編輯,使她看起來像是醉酒狀態,清楚提醒人們操縱媒體多麼容易誤導公眾。儘管手法簡單,這一事件凸顯了即使是基本的音視頻編輯也可能造成的潛在傷害。
當時,深度偽造技術主要由基於自編碼器的面部替換技術主導,這些技術自2017年底開始出現。這些早期系統難以實現佩洛西影片中看到的細微變化,更多專注於較明顯的面部替換。
2022年的‘神經情感導演’框架改變了知名人物的情緒。 來源:https://www.youtube.com/watch?v=Li6W8pRDMJQ
時至今日,電影和電視產業越來越探索AI驅動的後期製作編輯。這一趨勢引發了興趣與批評,因為AI實現了以往無法達到的完美主義水平。作為回應,研究社群開發了多個專注於面部捕捉「局部編輯」的項目,如擴散視頻自編碼器、時空縫合、ChatFace、MagicFace和DISCO。
2025年1月的MagicFace項目進行表情編輯。 來源:https://arxiv.org/pdf/2501.02260
新面孔,新挑戰
然而,用於創建這些細微編輯的技術進展遠快於我們檢測它們的能力。大多數深度偽造檢測方法已過時,專注於較舊的技術和數據集。直到最近來自印度的研究人員取得突破。
檢測深度偽造中的細微局部編輯:真實影片被更改以生成具有細微變化的偽造影片,例如抬高眉毛、修改性別特徵以及表情轉向厭惡(此處以單幀圖示)。 來源:https://arxiv.org/pdf/2503.22121
這項新研究針對細微、局部化的面部操縱檢測,這類偽造往往被忽視。該方法不尋找廣泛的不一致或身份不匹配,而是聚焦於細微的表情變化或特定面部特徵的微小編輯。它利用了面部動作編碼系統(FACS),將面部表情分解為64個可變區域。
FACS中的部分64個表情
相關文章
在萬事達卡和簽證的壓力下,Civitai加強了深層法規
Civitai是Internet上最傑出的AI模型存儲庫之一,最近對NSFW內容的政策進行了重大更改,尤其是關於名人Loras的政策。這些變化受到付款促進者萬事達卡和簽證的壓力刺激了這些變化。名人洛拉斯,你是
Google利用AI暫停了超過3900萬的廣告帳戶,以涉嫌欺詐
Google週三宣布,它通過在2024年在其平台上暫停了驚人的3920萬個廣告客戶帳戶,在與廣告欺詐的鬥爭中邁出了重要一步。這一數字超過了上一年報告的三倍,展示了Google清理其AD Ecosy的加劇努力
人工智能視頻生成朝著完全控制
諸如Hunyuan和Wan 2.1之類的視頻基礎模型已經取得了長足的進步,但是當涉及電影和電視製作所需的詳細控制時,尤其是在視覺效果領域(VFX)所需的詳細控制。在專業的VFX Studios中,這些模型以及早期的Image-Bas
評論 (41)
0/200
RyanPerez
2025-07-29 20:25:16
That Pelosi video from 2019 is wild! It’s scary how a few tweaks can make someone look totally out of it. AI’s power to mess with reality is no joke—makes you wonder what’s real anymore. 🫣
0
MarkRoberts
2025-04-24 10:24:54
Este herramienta de IA me mostró lo fácil que es manipular videos. El incidente de Nancy Pelosi fue un recordatorio impactante. Es aterrador pensar en cuántas noticias falsas pueden existir. Ahora estoy más atento a lo que creo en línea. ¡Cuidado, amigos! 👀
0
RobertMartin
2025-04-21 04:42:51
このAIツールは、ビデオを操作するのがどれほど簡単かを教えてくれました。ナンシー・ペロシの事件は衝撃的でした。偽ニュースがどれだけあるかと思うと恐ろしいです。オンラインで何を信じるかについて、今はもっと注意しています。みなさんも気をつけてくださいね!👀
0
PaulMartínez
2025-04-19 18:25:50
Dieses KI-Tool hat mir gezeigt, wie einfach es ist, Videos zu manipulieren! Der Vorfall mit Nancy Pelosi war ein Weckruf. Es ist beängstigend, wie viele gefälschte Nachrichten es geben könnte. Ich bin jetzt vorsichtiger mit dem, was ich online glaube. Seid wachsam, Leute! 👀
0
HarryWilliams
2025-04-19 18:17:36
This AI tool really opened my eyes to how easy it is to manipulate videos! The Nancy Pelosi incident was a wake-up call. It's scary to think how much fake news could be out there. Definitely makes me more cautious about what I believe online. Keep an eye out, folks! 👀
0
EricRoberts
2025-04-15 18:05:37
이 앱은 눈을 뜨게 합니다! AI의 미묘한 변화가 비디오의 진위성을 어떻게 망칠 수 있는지를 보여줍니다. 낸시 펠로시의 예는 경고였어요. 하지만 설명이 때때로 나에게는 너무 기술적이어서요. 더 간단하게 설명해주면 좋겠어요! 그래도 AI의 영향을 이해하는 데는 좋은 도구입니다. 👀
0
2019年,一段關於時任美國眾議院議長南希·佩洛西的欺騙性影片廣泛流傳。這段影片經過編輯,使她看起來像是醉酒狀態,清楚提醒人們操縱媒體多麼容易誤導公眾。儘管手法簡單,這一事件凸顯了即使是基本的音視頻編輯也可能造成的潛在傷害。
當時,深度偽造技術主要由基於自編碼器的面部替換技術主導,這些技術自2017年底開始出現。這些早期系統難以實現佩洛西影片中看到的細微變化,更多專注於較明顯的面部替換。
2022年的‘神經情感導演’框架改變了知名人物的情緒。 來源:https://www.youtube.com/watch?v=Li6W8pRDMJQ
時至今日,電影和電視產業越來越探索AI驅動的後期製作編輯。這一趨勢引發了興趣與批評,因為AI實現了以往無法達到的完美主義水平。作為回應,研究社群開發了多個專注於面部捕捉「局部編輯」的項目,如擴散視頻自編碼器、時空縫合、ChatFace、MagicFace和DISCO。
2025年1月的MagicFace項目進行表情編輯。 來源:https://arxiv.org/pdf/2501.02260
新面孔,新挑戰
然而,用於創建這些細微編輯的技術進展遠快於我們檢測它們的能力。大多數深度偽造檢測方法已過時,專注於較舊的技術和數據集。直到最近來自印度的研究人員取得突破。
檢測深度偽造中的細微局部編輯:真實影片被更改以生成具有細微變化的偽造影片,例如抬高眉毛、修改性別特徵以及表情轉向厭惡(此處以單幀圖示)。 來源:https://arxiv.org/pdf/2503.22121
這項新研究針對細微、局部化的面部操縱檢測,這類偽造往往被忽視。該方法不尋找廣泛的不一致或身份不匹配,而是聚焦於細微的表情變化或特定面部特徵的微小編輯。它利用了面部動作編碼系統(FACS),將面部表情分解為64個可變區域。
FACS中的部分64個表情



That Pelosi video from 2019 is wild! It’s scary how a few tweaks can make someone look totally out of it. AI’s power to mess with reality is no joke—makes you wonder what’s real anymore. 🫣




Este herramienta de IA me mostró lo fácil que es manipular videos. El incidente de Nancy Pelosi fue un recordatorio impactante. Es aterrador pensar en cuántas noticias falsas pueden existir. Ahora estoy más atento a lo que creo en línea. ¡Cuidado, amigos! 👀




このAIツールは、ビデオを操作するのがどれほど簡単かを教えてくれました。ナンシー・ペロシの事件は衝撃的でした。偽ニュースがどれだけあるかと思うと恐ろしいです。オンラインで何を信じるかについて、今はもっと注意しています。みなさんも気をつけてくださいね!👀




Dieses KI-Tool hat mir gezeigt, wie einfach es ist, Videos zu manipulieren! Der Vorfall mit Nancy Pelosi war ein Weckruf. Es ist beängstigend, wie viele gefälschte Nachrichten es geben könnte. Ich bin jetzt vorsichtiger mit dem, was ich online glaube. Seid wachsam, Leute! 👀




This AI tool really opened my eyes to how easy it is to manipulate videos! The Nancy Pelosi incident was a wake-up call. It's scary to think how much fake news could be out there. Definitely makes me more cautious about what I believe online. Keep an eye out, folks! 👀




이 앱은 눈을 뜨게 합니다! AI의 미묘한 변화가 비디오의 진위성을 어떻게 망칠 수 있는지를 보여줍니다. 낸시 펠로시의 예는 경고였어요. 하지만 설명이 때때로 나에게는 너무 기술적이어서요. 더 간단하게 설명해주면 좋겠어요! 그래도 AI의 영향을 이해하는 데는 좋은 도구입니다. 👀












