科普之窗
當前位置: 首頁 > 科普 > 科普之窗
參加多人視頻會議只有自己是真人,新型“AI換臉”詐騙怎么防?
發(fā)布時間:2024-03-06 來源:鄂州市科學技術協(xié)會

香港警方近日披露,一家跨國公司香港分部的職員受邀參加了一場總部的“多人視頻會議”,按領導要求匯款被騙2億港元,后發(fā)現(xiàn)多人視頻會議只有自己是真人;陜西西安從事財務工作的張女士在與老板視頻通話時,被要求轉(zhuǎn)賬186萬元到一個指定賬號,見面后老板表示未與她進行該視頻通話……近來,新型的視頻“AI換臉”詐騙案件出現(xiàn),警方經(jīng)過調(diào)查發(fā)現(xiàn),這些跟受害者視頻溝通的“同事”,全部是經(jīng)過“AI換臉”后的詐騙人員。

“AI技術的快速發(fā)展,特別是‘AI換臉’技術的出現(xiàn),不僅改變著我們的生活,也開始顛覆人們的認知。就連一直被人們奉為圭臬的成語‘耳聽為虛,眼見為實’,也變成‘耳聽為虛,眼見也不一定為實’了。”南京航空航天大學計算機科學與技術學院/人工智能學院副教授李博涵告訴科普時報記者。

基于動態(tài)視頻的“AI換臉”詐騙,技術上是怎么實現(xiàn)的?

“其實只需一張目標人物的臉部照片,導入到AI軟件就可實現(xiàn)。”李博涵說,“AI換臉”技術的原理在于將預先訓練好的深度學習模型應用于人臉識別和替換。這些模型基于大量的人臉數(shù)據(jù)進行特征標注和生成訓練,通過檢測和提取源視頻中的人臉,模型就可以將目標人臉嵌入到源視頻中,然后合成逼真的新視頻場景。

電科網(wǎng)安AI團隊負責人吳杰告訴記者,雖然AI處理換臉的過程瞬間就可完成,但在技術層面上也包括人臉位置檢測與追蹤、人臉特征抽取等多個步驟。

隨著Sora的問世,技術上已經(jīng)可以用更少的人臉數(shù)據(jù),構造出高逼真的特定人臉模型。“AI技術發(fā)展已經(jīng)讓‘換臉’的門檻變得越來越低,這肯定會導致深度偽造內(nèi)容更加泛濫,進而增加被用于違法活動的風險和隱患。”李博涵說。

那么,我們又該如何防范呢?

吳杰提醒,首先要謹慎對待陌生鏈接與視頻要求,切勿輕易點擊或提供個人信息。此外,個人信息安全是防范“AI換臉”詐騙的關鍵,要強化對人臉、聲紋等生物特征數(shù)據(jù)防護,不要過度公開或分享動圖、視頻等含有這些信息的資料。“如果實在無法避免,那么在視頻對話時,我們可以要求對方在臉部前方進行揮手等動作,以觀察其面部是否存在異常情況,也可以問一些只有對方知道的問題,以確保對方身份的真實性。”

當然,完全依靠公眾自己來判斷真?zhèn)慰隙y以杜絕詐騙的發(fā)生。吳杰介紹,“‘用AI打敗AI’是應對這一問題的技術趨勢。”目前在技術防范層面,主要是通過加入不可見水印等方法進行主動防御,以及用AI分析唇部運動、圖像重建放大偽造痕跡等進行被動檢測。

科普鄂州
科普湖北
科普中國
返回頂部