深度偽造流行 影片假可亂真

深度偽造影片滿布全球,當中假新聞(Fake News) 、誤傳資訊(Mis-information)等在網上無處不在,難以避免。

YouTube上載了一套麻省理工(MIT)入門深度學習(Deep Learning, DL)課程6.S191的視頻,其2020年版本的觀賞率在短短半年時間之內高達55萬次之多。課程第一堂,MIT主講老師阿米尼(Alexander Amuni)教授「邀請」了一名重要人物(VIP)作開場介紹,他便是美國前總統奧巴馬(Barack Obama)。雖然總統在屏幕前只是出現了片刻,但他竟能滔滔不絕、繪聲繪色地介紹深度學習的優點。外行的觀賞者對奧巴馬的表現無不嘆為觀止,事實上他們是被人工智能(AI)徹底瞞騙了!

「奧巴馬」講解深度學習 嘆為觀止

阿米尼老師是故意播放那條短片的,目的是透過它來展示深度學習在影片製作上的應用。那段片是利用深度偽造(Deepfake)技術而製成,顧名思義該技術是使用深度學習算法去製造虛假資訊,特別是在多媒體方面。以奧巴馬短片為例,深度偽造技術把片中奧巴馬的臉上疊加( superimpose)了因應其講話的口型,及加上原聲配音,使偽造影片的效果真假難分。

在深度偽造之前,類似的應用在照片處理上屢見不鮮。在社交應用中,照片疊加是行外人較為熟悉的技術,常見的例子是移花接木,比如在照片中某人的頭像與明星的替換。眾所周知,現實中很多惡作劇的創作品(例如虛設的桃色照片)就是如此造成的,再且不少偽造的照片更被非法之徒用作敲詐勒索的工具。

近期市面上出現了一些更先進、有趣的應用,相關的App可以把一張照片中的肖像年輕化、老齡化或改變性別等。其採用的技術比前者較為複雜,牽涉到局部性疊加兩個肖像(例如當今及其相似之老人肖像),而非純粹換頭。同一道理,一張照片中的人臉上之表情(喜、怒、哀、樂)經過疊加技術處理均能任意變臉。

簡單而言,深度偽造是照片移花接木及變臉技術的進階版,而它所應用的媒介是影片(包括錄像及視頻),相比之下深度偽造的運作更加複雜、需要的運算能力更大,例如在疊加時要同步考慮目標人物的臉部表情、講說話時的口形和發音、劃面的時序等。然而,隨着深度學習軟件及人工智能硬件技術的日漸進步,這類算法複雜及運算量大等技術問題已能迎刃而解,而且這些技術大部分都是開源(例如 TensorFlow、OpenCV),可供研究員開放使用。

雖然深度偽造應用已大行其道,可是負面的案例較為注目,例如荷蘭網絡安全公司 Deeptrace於2019年發表的研究報告估計 96% 的深度偽造在線影片都是以色情為主。又例如臨近美國總統大選,政黨利用深度偽造技術製造醜聞打擊對手候選人。

道德倫理問題 業界必須正視

深度偽造影片滿布全球,當中假新聞(Fake News) 、誤傳資訊(Mis-information)等在網上無處不在,難以避免。要應對深度偽造影片,專家建議可以從三個層面着手:(一)法律層面:政府可以立法限制使用,例如美國維珍尼亞州禁止市民使用深度偽造技術;(二)檢測層面:影片接收者可以採用自動檢測技術,仔細去分析影片中的像素點(pixels)以尋找移花接木的接囗,從而辨認影片的原創性;(三)保障層面:創作者在影片中加入水印(Watermark)作防偽之用。

歸根究柢,深度偽造是人工智能應用的道德倫理問題,業界必須正視。然而,上述所提的應對方法只可以治標,要治本及徹底解決深度偽造面對的問題,政府必須要從源頭做起,因此教育十分之重要,而且要從小學開始,為業界培養出具正確人工智能道德觀的創造者、設計師、工程師等專才。

原刊於《信報》,本社獲作者授權轉載。

黃錦輝