本論壇文章反映作者意見,不代表《遠見》立場

子導覽列
首頁 > 產業創新 > 吳乙南台北 > 歐巴馬最容易被Deepfake?金融科技也要當心「刷臉」詐欺

歐巴馬最容易被Deepfake?金融科技也要當心「刷臉」詐欺

發文時間: 2021/10/27   文 / 吳乙南台北 瀏覽數 / 15,950+

Deepfake這個詞是在2018年首次於Reddit社群部落格上出現,Reddit主要是在北美地區(美國&加拿大)被使用在行銷論壇上的留言板,之後因為流傳出偽造女性名人的性影片。

雖然立即關閉此一社群,但也已經阻止不了湧現大量人們利用相關軟體製作把他人「張冠李戴」的偽造影片。想當然爾,此一偽造他人肖像進行詐欺或公然猥褻已經屬於犯罪行為。

隨著日益精進的深偽技術,有些應用在電影後製當中,2019年7月有個短片將1980年非常流行的一部電影《鬼店》(The Shinning)中非常著名的男主角傑可尼克遜的人臉,置換成諧星金凱瑞的頭臉現身於該短片上,雖然是藝術但卻不真實。爾後名人的肖像被合成出現的畫面,陸續在網路的平台頻繁的出現,尤其前美國總統歐巴馬成為最容易Deepfake的男主角之一。

前美國總統歐巴馬成為最容易Deepfake的男主角之一。圖片來自維基百科圖/前美國總統歐巴馬成為最容易Deepfake的男主角之一。圖片來自維基百科

AI技術精進、Deepfake幾可亂真 

廣泛用於Deepfake的技術是奠基於深度學習的生成式對抗網路GAN (Generative Adversarial Networks),簡單說:就是一種生成產出的圖片跟真實的圖片對照判別並立即辨偽,進而持續改善而製作擬真效果最好的圖片或是影像,所以當電腦主機運算能力越強,人工智慧之演算方程式技術更加精進,Deepfake幾可亂真的擬真技術,讓人難以分辨真假。

而且要提醒的是「影」、「音」深度偽造的關聯性,因為語音的模仿要比影像更加容易,以警方偵辦擄人勒索個案為例,家屬聽到家人的聲音就誤以為真,事實上那是在慌亂中的緊張感所造成的錯覺,甚至有偽造名人或是公司高階主管撥打假電話或私人對話,慘遭詐騙而造成金額上的損失。

名人出現頻率高,讓機器學習更加精準 

為何名人被Deepfake的機率很高,如同資安駭客想要發動資安攻擊,一開始的軌跡搜尋(Footprint)就已經在收集資料,因名人在網路等相關媒體上出現的頻率很高,其自身的影音也同時被收集做為人工智慧中機器學習的訓練題材,讓機器學習的結果可以更加精準。

一般造成資安事件的主因有90%是釣魚郵件所造成,而Deepfake的圖像、影音轉換可以變成釣魚郵件的素材,比起單純文字敘述加上連結更具吸睛力,此時勿亂點選其連結或是檔案都是預防被惡意程式入侵的必要常識。

Deepfake也常被利用政治或競選廣告,或是網路媒體常見的「名人見證」的產品代言,這類「假訊息」也時有所聞。Deepfake運用在軍事上的無人機攻擊或是犯罪行徑上的「變臉」,儲存於該單位的「影像(圖像)資料庫」,其建檔的數位鐵證也無法真的「眼見為憑」。

數位ID可以「刷臉」,但是靠人臉辨識進行身分認定也成了Fintech最大危機。遠見陳之俊攝影圖/數位ID可以「刷臉」,但是靠人臉辨識進行身分認定也成了Fintech最大危機。遠見陳之俊攝影

金融科技(Fintech)慎防Deepfake詐欺 

在金融科技(Fintech)中最重要的身分識別,其數位ID可以「刷臉」,其中靠人臉辨識進行身分認定,就是Fintech最大的危機,當然憑證發放數位ID可以零信任(Zero Trust)方式補強並降低風險,但其潛在的Deepfake詐欺仍必須提防。

能立法規範此類Deepfake的應用範圍嗎?如果深偽的技術變成深度詐欺或不實散播就必須加重刑罰?若已經觸及犯罪這類的行為或是事實是屬於公訴或是必須被害人提出告訴?這些都是必須經過廣泛討論,耗時且無法預見,但可能造成的人身傷害或是對當事人心理的折磨就不是短時間可以消彌。

可以肯定的是Deepfake技術在人工智慧(AI)人臉辨識上的愈精準就會孕育更擬真的深偽技術,相關軟體也會越容易取得,因為成本低廉,不是只有最近某位惡搞網紅所引發熱烈討論才注意到Deepfake深度造假的負面影響力。

培養數位思辨力 

因此如何防止自身受害或是不助長類似的深偽詐欺,當然可以在公民法治教育上由公權力單位像防制賄選一樣教育一般民眾留意,否則真假難辨!

有一句廣告詞:「家人共處的時間最長,相處的時間卻不一定」,那Deepfake偽造名人或是周遭可能認識的人更是容易讓人誤以為真,所以還是有賴自身提高警覺再三求證,勿輕易相信網路資訊。身處在這個資訊爆炸年代,面對數位科技的發展與應用,雖無法事事求證,平日養成數位思辨的能力非常重要!

本文章反映作者意見,不代表《遠見》立場

(作者為安碁資訊公司總經理)