You are currently at: lj.hkej.com
Skip This Ads

博客Priscilla:AI 換臉英女王被惡搞跳TikTok舞,Deepfake帶來資訊末日危機?

Priscilla | 2021-01-06

Image description

英國第四台(Channel 4) 一條以「深度造假」(Deepfake)技術製作出來的惡搞版「英女王聖誕文告」, 在這個假期引起了不少對人工智能「深度造假」技術影響的討論。但見「女王」 除了在片中說了幾句有關哈利王子和梅根的「真心話」之外,竟然還跳了一part Tik Tok 的流行舞步, 難怪在影片播出之前,BBC 就已經開宗明義預告他們製作這條猶如「黑鏡」版的聖誕文告,正是要警告世人我們已經進入有圖有片都未必有真相,數碼化假新聞氾濫的年代。其實,這並非第一次有政要被媒體公司以數碼科技被粉墨登場。在2018年,BuzzFeed便已經以好幾種數碼「深度造假」技術,利用前美國總統奧巴馬的影像,製作出一條警告有關數碼化假新聞的短片

何謂深度造假(Deepfake)
「深度造假」( Deepfake )一般是指利用人工智能(Artificial Intelligence)和機器學習(Machine Learning)合成的媒體資訊(圖片、聲音、影像等)1。資訊主人翁可以是真有其人,但是整個影像內容卻是虛構。

隨着近年電腦運算能力的不斷提高和A.I.及機器學習的長速發展,坊間已經有不少開源程式碼和軟件可以讓一般人製作出有一定水準的「深度造假」媒體資訊。片中人無論容貌、神態、聲線均幾可亂真的。更何況,在資訊爆炸的年代要做到以訛傳訛,門檻並不需要太高,製成品不一定要天衣無縫的大師級數才可以引君入甕。

除了上述的政要之外,最常成為「深度造假」目標的,應該是一眾知名女星。這幾年就有不少不法之徒透過「深度造假」的換臉技術把Gal Gadot、Scarlett Johansson、Taylor Swift、Emma Watson、Natalie Portman,甚至朱茵變成數碼合成的性愛影片主人翁。

「深度造假」帶來「資訊末日」危機?
在去年(2020)中才出版的「深度造假」(Deepfakes: The Coming Infocalypse)一書 ,作者Nina Schick引述了美國科技專家Aviv Ovadya對惡質資訊充斥,以致整個社會無法負荷的「資訊末日」提出的警告。
當影像可以隨便被操弄,便很容易被有心人透過刻意散播被修改的錯誤資訊以其達到目的 – 例如左右選舉、敲詐勒索、篡改資訊以圖利等等惡意操作將會變得防不勝防。BBC的假英女王聖誕文告和BuzzFeed的假奧巴馬演說正是要警告我們正在面對偽造資訊泛濫的危機。

可是,當我們對所有接收的資訊都變得步步為營,社會的互信就會變得薄弱。今天在社交媒體看到網紅們的逆天長腿,很多時我們不是驚嘆他們的天生麗質,而是質疑他們有否修圖。當一個社會不少車禍都是由「碰瓷」所造成,市民就會傾向為了自保而埋沒同情心。假如「深度造假」資訊氾濫,事情的真假彷彿沒有了界線,我們對資訊的信任便會逐漸崩潰瓦解。

「深度造假」書中提及「資訊末日」的其中一個顯著特徵,就是對於如何呈現和理解這個世界,和建立合理的共識變得越來越難。不少議題變得政治化、兩極化,以致民眾不時覺得自己被迫「選邊站」。立意良善的努力被導向輸贏之爭,落入派系對立的惡性巡環,最終雙方都無法說服彼此。「深度造假」資訊的出現,將會令這個「資訊末日」的問題更為嚴重。

「深度造假」 的善與惡
「深度造假」技術能夠輕易顛倒真偽,的確容易被人利用,做出危害社會的事,大眾不可不察。然而,水能載舟亦能覆舟,這麼強大的新科技假如被妥善採用, 亦能夠做出很多有利的事情。

例如,對於已經逝去的人,我們本來只能透過照片、錄音、錄像去懷念。然而,「深度造假」技術卻可以把本來已經不可能的交流在數碼世界實現。在美國的達利博物館就透過「深度造假」技術,用6000多張畫家薩爾瓦多・達利(Salvador Dali)生前的照片, 加上超過1000小時的機器學習,把達利在博物館重現人前──讓他向參觀者把自己的生平娓娓道來,還拿着手機和觀眾一起自拍。達利素以超現實主義畫風著名,博物館以「深度造假」技術令他「重生」,倒是匹配。

荷李活有夢工場之稱。「深度造假」科技無可避免亦成為電影製作的新寵兒。名導演馬田史高西斯2019年為Netflix執導的《The Irishman》,就用上了「深度造假」技術把羅拔迪尼路在戲中減齡30年

既然可以無縫數碼換臉,夢工場創作的可能性可以是無限的。明星英年早逝?有導演就提出要以數碼科技讓占士甸演出他的動作片新作。坊間亦有不少惡搞經典作品的「深度造假」嘗試,例如讓史泰龍取代阿諾舒華辛力加主演《未來戰士》,韋史密夫代替了奇洛李維斯出演《The Matrix》等。

「深度造假」科技亦可以突破語言的限制。為了提高世界各地民眾對瘧疾的重視,著名球星碧咸在2019年就透過了「深度造假」技術以九種語言宣揚瘧疾的禍害。傳統的配音,片中人的口型會對不上。以「深度造假」製作出來的影片,就不會有此問題。

在大企業身居要職卻怯於進行公開演說?又或者因為疾病等各種身體狀況而未能暢所欲言?在未來都可以在數碼世界由專業替身為你代勞,再透過「深度造假」科技把你的臉孔和聲音換上,效果將會是天衣無縫。

保持警醒的心
「深度造假」的效果很大程度取決於被換臉對象的影像、聲音資源是否充分。知名人士、影視紅星紛紛成為「深度造假」實驗的目標, 除了因為話題性十足和容易吸引眼球之外,亦因為他們的照片、視頻等等俯拾皆是,因而容易做出幾可亂真的作品。

社交媒體是不少人生活的一部份。然而,其中的照片標籤功能、各類修圖和換臉軟件和遊戲,卻對我們保障個人私隱造成一定風險。早在2012年,Noelle Martin,一個住在澳洲的印度籍平凡女生就無意中發現了自己的臉孔被移花接木到色情視頻中,視頻的留言欄還附有他真實的個人資訊。當年Deepfake (深度造假)這個詞還未流行,原來不少尋常百姓就已經成為了受害者而不自知。當Noelle鼓起勇氣質問對方為何非法盜用他的肖像,只換來冷嘲熱諷 -「只怪你在網上公開自己的照片」。人臉識別技術已經在不同應用層面逐漸普及,縱使不能完全避免,我們還是需要保持警醒,留意各類程式的權限,並盡量減少公開自己的個人資訊,以保障自己。

社會上惡質、甚至虛假資訊充斥,已經是不爭的事實。每當遇到具爭議性的課題,有人伺機發佈虛假信息乘機混水摸魚是無可避免。「深度造假」科技令我們更難分辨真偽。雖然各大科技和媒體公司已經開始認真處理這個課題, 在個人層面我們也應該在接收資訊的時候盡量保持冷靜、客觀,對於有懷疑的資訊,更應該盡量查證,並避免轉發,以免被利用成為散播不實訊息的幫兇。

更多文章,請參考作者博客