“眾所周知,視頻不能P”,GAN:是嗎?
微笑“赫敏”瞬間發怒,女版奧巴馬侃侃而談
見過用GAN來P圖,見過用GANP視頻嗎?
瞧,原本一直在面無表情地講話的人,全程露出了微笑;原本得4、50歲的人,直接變20幾歲了:
另一邊,正在微笑唱歌的“赫敏”一下子憤怒起來,還能換上一張幾歲小孩的臉:
奧巴馬也如此,4種版本的面部狀態信手拈來,甚至連性別都給P成女的了:
不管人臉表情和狀態如何變化,這些視頻都沒有給人任何違和感,全程如此的絲滑~
哦對,除了真人,動漫視頻里的臉也可以P:
有點厲害了。
基于GAN的視頻面部編輯
這個模型出自以色列特拉維夫大學。
眾所周知,GAN在其潛空間內編碼豐富語義的能力,已經被廣泛用于人臉編輯。
不過將它用在視頻中還是有點挑戰性:一個是缺乏高質量數據集,一個是需要克服時間一致性?(temporal coherency)這一基本障礙。
不過研究人員認為,第二點這個障礙主要是人為的。
因為原視頻本具備時間一致性,編輯后的視頻卻變了,部分原因就是在editing pipeline中對一些組件(component)處理不當。
而他們提出的這個視頻人臉語義編輯框架,相對于當前技術水平做出了重大改進:
只采用了標準的非時序StyleGAN2,對GAN editing pipeline中的不同組件進行分析,確定哪些組件具備一致性,就用這些組件來操作。
整個過程不涉及任何用來維持時間一致性的額外操作。
具體流程一共分為六步:
1、輸入視頻首先被分割成幀,每幀中的人臉都被裁剪下來并對齊;
2、使用預訓練的e4e編碼器,將每張已裁剪的人臉反演到預訓練的StyleGAN2的潛空間中;
3、在所有并行幀中使用PTI(最新提出的一種視頻人臉編輯方法)對生成器進行微調,糾正初始反演中的錯誤,恢復全局一致性;
4、所有幀通過使用固定的方向和步長,線性地操縱其軸心潛碼(pivot latent codes)進行相應編輯;
5、再次微調生成器,將背景和編輯過的人臉“縫合”在一起;
6、反轉對齊步驟,并將修改后的人臉粘貼回視頻中。
△?注意頸部曾產生了大量瑕疵,在最后一步完全修復好
和SOTA模型對比
這個模型效果到底有多好,來個對比就知道:
第一個是變年輕、第二、三個都是變老。
可以明顯看到目前的SOTA模型(Latent Transformer)和PTI模型中的人臉會“抽巴”,并出現一些偽影,而這個新模型就避開了這些問題。
此外,研究人員還進行了時間一致性測試。
指標包含兩個:
- 局部時間一致性(TL-ID),通過現成的一致性檢測網絡來評估相鄰兩幀之間的一致性。TL-ID分數越高,表明該方法產生的效果越平滑,沒有明顯的局部抖動。
- 全局時間一致性(TG-ID),同樣使用一致性檢測網絡來評估所有可能的幀(不一定相鄰)之間的相似性。得分為1表示該方法成功保持了和原視頻的時間一致性。
結果如下:
可以看到,這個新模型在兩項指標中都略勝一籌。
最后,代碼將于2月14號發布,感興趣的朋友可以蹲一蹲了~
論文地址:
https://arxiv.org/abs/2201.08361
項目主頁:
https://stitch-time.github.io/
- 北大開源最強aiXcoder-7B代碼大模型!聚焦真實開發場景,專為企業私有部署設計2024-04-09
- 剛剛,圖靈獎揭曉!史上首位數學和計算機最高獎“雙料王”出現了2024-04-10
- 8.3K Stars!《多模態大語言模型綜述》重大升級2024-04-10
- 谷歌最強大模型免費開放了!長音頻理解功能獨一份,100萬上下文敞開用2024-04-10



