AI“多人換臉”冒充公司高層香港一財務(wù)職員被騙2億港元
分類: 最新資訊
戀愛詞典
編輯 : 大寶
發(fā)布 : 03-28
閱讀 :175
參加多人視頻會議,結(jié)果只有自己是真人,這事聽上去似乎匪夷所思,卻真實地發(fā)生了。近期,香港警方披露了一起多人“AI換臉”詐騙案,涉案金額高達2億港元。除了此次香港AI“多人換臉”視頻詐騙案,香港近期還出現(xiàn)了其他“AI換臉”行騙隱患。據(jù)香港特區(qū)政府新聞網(wǎng)消息,近日,網(wǎng)上出現(xiàn)以人工智能偽造的電視節(jié)目片段,冒稱香港特區(qū)行政長官向市民推介一項投資計劃。 “AI換臉”背后的技術(shù)原理到底是什么?在技術(shù)層面,它是如何實現(xiàn)人臉的精確識別與替換,創(chuàng)造出逼真效果?我們應(yīng)該如何看清這類AI“深度造假”?辨別“AI換臉”有沒有什么好方法? 香港首次涉及AI“多人換臉”的詐騙案 在這起案件中,一家跨國公司香港分部的職員受邀參加總部首席財務(wù)官發(fā)起的“多人視頻會議”,并按照要求先后轉(zhuǎn)賬多次,將2億港元分別轉(zhuǎn)賬15次,轉(zhuǎn)到5個本地銀行賬戶內(nèi)。 其后,向總部查詢才知道受騙。據(jù)香港媒體報道,詐騙分子是利用了人工智能的深度偽造技術(shù),從國外視聽網(wǎng)站YouTube上下載了視頻,模仿了公司高層人員的聲音再對受害者發(fā)出行動指示,再利用Deepfake(深度偽造)技術(shù)制作偽冒視頻,造成多人參與視頻會議的效果,然而會議內(nèi)只有參加的職員一人為“真人”。這起案件涉及的金額達2億港元,不僅是香港歷史上損失最慘重的“換臉”案例,而且也是首次涉及AI“多人換臉”的詐騙案。 據(jù)悉,除了此次香港AI“多人換臉”視頻詐騙案,香港近期還出現(xiàn)了其他AI換臉行騙隱患。網(wǎng)上出現(xiàn)以人工智能(AI)偽造的電視節(jié)目片段,冒稱香港特別行政區(qū)行政長官向市民推介一項投資計劃。在網(wǎng)上出現(xiàn)以AI偽造的短片中,可以看到“AI李家超”現(xiàn)身推介一項“高回報的投資計劃”。 1月24日晚,香港特區(qū)政府發(fā)布新聞公報稱,特區(qū)政府發(fā)言人呼吁市民必須提高警惕,切勿誤信網(wǎng)上以AI偽造的電視節(jié)目片段,節(jié)目內(nèi)容均冒稱行政長官向市民推介一項投資計劃。特區(qū)政府嚴正澄清,影片全屬偽造,行政長官從未作出相關(guān)言論,并強烈譴責(zé)不法之徒假冒行政長官向市民詐騙。 發(fā)言人再次提醒市民,切勿輕信類似的所謂投資廣告或推廣影片,在網(wǎng)上提供個人資料給他人,登記加入有關(guān)的應(yīng)用程序或點擊任何鏈接。市民應(yīng)小心求證,核實真?zhèn)?,慎防受騙。有關(guān)事件將轉(zhuǎn)交警方作進一步調(diào)查。 目前AI“換臉”更多應(yīng)用于娛樂視頻錄制 中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專委會專家薛智慧介紹,AI換臉過程主要包括人臉識別追蹤、面部特征提取、人臉變換融合、背景環(huán)境渲染、圖像與音頻合成等幾個關(guān)鍵步驟。其背后最核心的包括三個部分,首先,利用深度學(xué)習(xí)算法精準地識別視頻中的人臉圖像,并提取出如眼睛、鼻子、嘴巴等關(guān)鍵面部特征。其次,將這些特征與目標(biāo)人臉圖像進行匹配、替換、融合。最后,通過背景環(huán)境渲染并添加合成后的聲音,生成逼真度較高的虛假換臉視頻。 為了了解AI換臉到底能有多么逼真,記者經(jīng)過與專業(yè)技術(shù)人員合作,深度體驗了AI換臉技術(shù)。 技術(shù)人員首先用手機給記者拍了一張臉部照片,導(dǎo)入到AI人工智能軟件后,讓記者驚訝的是,雖然電腦攝像頭前的是技術(shù)人員,但是輸出的卻是記者的照片,幾乎可以說是“一鍵換臉”,不需要復(fù)雜的環(huán)境和解壓操作。更令人驚訝的是,隨著技術(shù)人員面部表情變化,照片上記者的臉也跟著一起發(fā)生了相應(yīng)變化。 專家告訴記者,如果想要實現(xiàn)視頻實時通話時采用人工智能AI換臉技術(shù),一張照片是遠遠不夠的,那就需要不同角度的近千張照片的采集。 除了一些不法分子企圖利用AI技術(shù)實施詐騙,事實上,近年來,AI技術(shù)更多地被應(yīng)用于短視頻的二次創(chuàng)作,屬于娛樂性質(zhì),越來越多的名人AI換臉視頻出現(xiàn)在網(wǎng)絡(luò)上,不少網(wǎng)友感嘆,這類視頻“嘴型、手勢都對得上,太自然了,差點兒以為是真的”。目前已有軟件僅通過面部照片,就能錄制生成出一段視頻。記者發(fā)現(xiàn)在手機應(yīng)用商城中,有數(shù)十款換臉軟件,都可以達到換臉的目的。 薛智慧說,“如果從娛樂大眾的角度來說的話,現(xiàn)在市面上也有很多這些軟件和工具,能夠達到AI換臉的效果,但是仿真度只有六七分的樣子,大眾直接就能看出來?!薄 ? 學(xué)會幾招輕易識別AI“換臉換聲” 中國計算機學(xué)會安全專業(yè)委員會數(shù)字經(jīng)濟與安全工作組成員方宇提醒,“實際上從我目前看到的深度偽造的實時視頻上來看,其實還是可以通過一些方式,去進行驗證”。 比如說我們可以要求對方在視頻對話的時候,在臉部前通過揮手的方式,去進行識別實時偽造的視頻。在揮手的過程中,就會造成面部數(shù)據(jù)的干擾,最終產(chǎn)生的效果就是揮手的過程中,他所偽造的人臉會產(chǎn)生一定的抖動、閃現(xiàn),或者是一些異常的情況。第二個方法就是點對點的溝通中可以問一些只有對方知道的問題,驗證對方的真實性?! ? 鏈接 香港科技罪案同比增長53% 根據(jù)中國香港警方最新數(shù)據(jù),去年1至11月,香港科技罪案激增至近3.2萬起,占所有罪案的四成,同比增53%,涉案金額超50億港元,同比增72%。其中,一電郵詐騙案涉款最高,達7820萬港元。網(wǎng)絡(luò)投資詐騙增加顯著,共4703起,是前年同期的1.8倍,占總科技罪案的15%,涉及金額達30億港元。 香港網(wǎng)絡(luò)安全及科技罪案調(diào)查科網(wǎng)絡(luò)安全組署理高級警司陳純青表示,利用人工智能“深度偽造”的欺詐手法,與傳統(tǒng)詐騙手法其實如出一轍,只是利用不同手段以取得受害人信任進行詐騙,最終目的主要是誘騙受害人將款項轉(zhuǎn)賬到騙徒指定戶口。 他強調(diào),雖然科技發(fā)展一日千里,只要市民時刻保持警惕,養(yǎng)成一個高防騙意識的習(xí)慣,對任何社交平臺或通訊軟件所收到的信息,也要有一個查證真?zhèn)蔚囊庾R及必須要有行動,謹記在人工智能“深偽技術(shù)”下,網(wǎng)上已經(jīng)“眼見不一定為實,有圖片亦不一定是真相”。 知多D 深度偽造技術(shù)何以以假亂真? Deepfake(深度偽造)是英文“Deep learning”(深度學(xué)習(xí))和“Fake”(偽造)的混成詞,指利用深度學(xué)習(xí)技術(shù)生成合成圖像、音頻或視頻的技術(shù)。由于公眾人物的視頻、音頻、圖片資料的公開性,為AI訓(xùn)練提供了大量素材,因此名人經(jīng)常成為AI造假的受害者。 Deepfake的實現(xiàn)原理主要依賴于深度神經(jīng)網(wǎng)絡(luò),特別是生成對抗網(wǎng)絡(luò)(GAN)。通過訓(xùn)練大量的面部圖像數(shù)據(jù),Deepfake模型能夠?qū)W習(xí)到面部特征之間的潛在關(guān)系,并生成與真實面部特征高度相似的虛假面部特征。 目前,Deepfake技術(shù)的應(yīng)用較為廣泛,可以用于電影制作、視頻編輯、虛擬現(xiàn)實等領(lǐng)域,而該技術(shù)的急速發(fā)展對維護網(wǎng)絡(luò)安全帶來挑戰(zhàn)。 整合:董淑云 來源:央視新聞、光明網(wǎng)、中國青年網(wǎng)、證券時報等 制圖由騰訊混元大模型生成