AI換臉,曾經(jīng)只會困擾名人,如今卻會直接影響到我們普通人的財產(chǎn)安全。
偽造人臉盜號、轉(zhuǎn)賬的新聞不在少數(shù),今年8月,就有兩名犯罪嫌疑人因使用手機軟件制作人臉識別動態(tài)視頻,并“偽裝”登錄他人的網(wǎng)絡(luò)賬號盜取資金而被警方抓獲。
另一則新聞提到,由于制作簡單,一個視頻價格僅為2至10元,“客戶”往往是成百上千購買,牟利空間巨大 | 圖源:北京青年報
根據(jù)新聞報道和法院裁定書,這類案件的非法獲利幾千至幾十萬元不等,全國各地都已經(jīng)發(fā)生了許多類似案件。甚至有不法分子利用銀行的人臉識別授權(quán)功能,再通過木馬病毒攔截短信驗證碼盜取存款,涉案總金額超200萬元。
騙不過人,可以騙攝像頭??!
AI換臉,術(shù)語是Deepfake(深度偽造),是把Deep learning(深度學(xué)習(xí))和Fake(偽造)組合在一起,用AI把一個人的人臉換到另一個人的照片/視頻當(dāng)中的技術(shù)。
圍繞AI換臉有著相當(dāng)多的“犯罪應(yīng)用”,包括且不限于:
· 攻擊刷臉驗證:直接從支付寶、微信錢包、甚至貸款軟件里,偽造他人信息套現(xiàn);
· 制作虛假色情圖片/視頻:詐騙、敲詐勒索或損壞他人名譽;
· 實時換臉通話:盜號并詐騙號主親友;
· 制造虛假信息:蒙騙政客、法官、投資者等;
· 發(fā)布假新聞:煽動民眾、引起混亂恐慌、打擊商業(yè)對手、制造股市動蕩等。
在這當(dāng)中,刷臉驗證與普通人關(guān)系最大,因為它驗證的是一個人的身份,一旦這個信息被突破,你的資產(chǎn)安全與信息安全都會受到威脅,很容易在網(wǎng)絡(luò)上“裸奔”。
除了Deepfake技術(shù),還有相當(dāng)多的方法可以干擾人臉識別認(rèn)證,比如造一個“騙AI眼鏡”:
不好意思放錯了,是這個:
圖源:Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition.
在一篇圖像識別領(lǐng)域的經(jīng)典文獻中,研究者通過數(shù)學(xué)運算設(shè)計了一種特定的“眼鏡”(中圖),戴上就可以讓一個人(左圖)被AI人臉識別認(rèn)成另外一個人(右圖)。
另一種騙檢測設(shè)備的方式是3D面具,比如下面這些圖:
圖源:businessinsider & kneron
這是Kneron這家公司的產(chǎn)品,他們在2019年底聲明,對于微信、支付寶的刷臉支付和火車站的人臉識別閘機,都可以戴著面具偽裝成別人通過。
AI換臉,特別在哪?
對普通人來說,上述技術(shù)還不必過于擔(dān)心,因為它們有著各種各樣的缺陷,比如“騙AI眼鏡”主要是針對靜態(tài)圖片識別,無法突破動態(tài)人臉識別,而“人臉面具”需要定制、價值不菲且制作工藝復(fù)雜,用在普通人身上性價比并不高。
但AI改變了一切,簡直把造假成本降到了“白菜價”。
視頻越短、像素越低、實時性要求(需要實時換臉還是可以制作完視頻再發(fā)出)越低、欺騙對象警惕性越低、可用素材(就是目標(biāo)人物的多角度照片、視頻)越多,造假成本就越低。
舉個例子,同樣是一個人說話,AI換成另一個人的臉,直接上手就能用的AI模型配合NVIDIA GTX1080 Ti可以做到這樣,動作還算流暢,但“塑膠感”嚴(yán)重,一眼就能看出不是真人的視頻。
圖源:Youtube@Matthias Niessner
而經(jīng)過NVIDIA RTX 3090 Ti長時間(數(shù)小時甚至數(shù)天)訓(xùn)練的AI模型,可以做出相當(dāng)以假亂真的效果??赡苤挥性谡J(rèn)真反復(fù)的觀看下,才會發(fā)現(xiàn):誒?剛剛這個人額頭的皺紋是不是在閃?
圖源:Youtube@Druuzil Tech & Games
針對“人臉識別”,deepfake便宜很多;因為攻破“人臉識別”不需要最“精細(xì)”,最費工夫的Deepfake技術(shù),只需要一個清晰度一般的幾秒鐘的視頻。
而提高成本后制作的更精細(xì)的視頻,則可以用于其他的詐騙用途。并且這種造假是一種“一本萬利”的買賣,在設(shè)備與算法齊全后,就可以根據(jù)不同的情境與需求,批量生產(chǎn)假視頻。
普通人能怎么辦
當(dāng)AI換臉進入普通人的生活,我們能做些什么來應(yīng)對跟它相關(guān)的不法行為呢?
“騙”機器的換臉咋辦?
針對刷臉驗證身份這一類場景,偽造的視頻需要通過的是人臉識別系統(tǒng)的自動驗證,或者說“騙過”機器。所需的視頻時間短(幾秒鐘以內(nèi))、動態(tài)簡單(只有少量固定動作、甚至有些系統(tǒng)僅僅識別圖片)、沒有實時要求,從技術(shù)上來講是相對簡單的,識別端也不在真人的掌控之中。
對于這類案件,普通人能做的就是平時守護好自己的個人信息(包括人臉信息),并且盡量采用多種方式結(jié)合的身份驗證。
密碼、指紋、手機號,能選的驗證方式都選上,雖然自己也會麻煩點,但是相當(dāng)于多幾道保險,全部被同時攻破的可能性還是小很多的。
如果不幸被盜刷,立刻報警,配合警察追蹤不法分子、追回違法所得,同時上報平臺,讓平臺獲取更多的信息來修補漏洞、升級系統(tǒng)。
“騙”真人的換臉,咋辦?
欺騙真人的AI換臉,比如面對個人的勒索、詐騙,還有面對大眾的虛假新聞,則顯得更加隱蔽和多樣化。
從根本上來說,有了AI換臉技術(shù)以后,普通人面對圖像信息都應(yīng)該多留個心眼,不能一味相信“眼見為實”。
如果被人用偽造的裸照、不雅視頻勒索,不要回應(yīng),直接報警。
這類犯罪的AI換臉目標(biāo)就是受害人,所以只要看到視頻的人知道自己沒有拍過此類照片、視頻,就可以判斷視頻是偽造的。最大的難點反而在于不要自亂陣腳、不要因為害怕而向不法分子交付錢財。
如果被人用偽造的視頻詐騙,比如騙子盜了你朋友的號,用AI換臉跟你實時通話借錢。這個時候,多渠道驗證就很重要,各個社交平臺、郵箱、短信、電話,不要因為對方看起來很著急就想都不想地打錢。
在觀看網(wǎng)上的新聞、視頻時,多查查新聞來源是否可靠。尤其是什么拜登講話,馬斯克講話,這些名人們可用于機器學(xué)習(xí)的訓(xùn)練集太多了,仿造高精度視頻很容易。
這張圖里的馬斯克是假的哈…… | 圖源:VR陀螺
識別Deepfake的億些小技巧
還有一些小訣竅,可以幫助你更好地判斷一個視頻是不是AI換臉偽造的(如果開了十級美顏,這些方法就不是很可靠了。畢竟,十級美顏也可以被看作一種AI換臉呢):
關(guān)注臉型
多看看臉的大小、形狀、下顎線位置,尤其是動起來的樣子,和本人是否一致。
關(guān)注皺紋
畢竟每個人的皮膚情況和皺紋走向都是不一樣的,AI模型僅憑一些照片(而且不一定是最近的照片),生成的皺紋很難跟本人一模一樣。
一個人皮膚過于光滑、皺紋過多、或者全臉皮膚狀況不一致(比如額頭很多皺紋、臉頰卻很光滑)、一段視頻中年齡感不一致(一會兒看著年輕一會兒看著年長),都可能是偽造視頻的特征。
關(guān)注背景
看看這個背景是不是這個人平時用的背景、背景和人的銜接是不是自然、背景本身有沒有變形等等。
關(guān)注光影
AI換臉生成的視頻并不遵循現(xiàn)實世界的物理光影規(guī)則,因此面部的陰影、眼鏡的反光等等,都可能出賣偽造的視頻。
關(guān)注五官的位置和大小
AI偽造的視頻可能會出現(xiàn)五官忽大忽小、位置飄移的現(xiàn)象。
關(guān)注獨特的面部特征
如果這個人臉上有痣、文身、疤痕,它們看起來都在正確的位置嗎?
關(guān)注頭發(fā)
發(fā)量、發(fā)際線看起來真實嗎?頭發(fā)邊緣看起來自然嗎?
關(guān)注動態(tài)
比如眨眼的頻率和方式是否正常、眉毛和嘴的運動是否像這個人平時的樣子、轉(zhuǎn)頭(尤其是轉(zhuǎn)到90度的側(cè)面)的時候有無變形、臉部被遮擋的時候遮擋物是否清晰可見,都是一些辨別AI偽造視頻的要點。
一些容易露餡的動作 | 圖源:metaphysic & VFXChris Ume
除了以上的理論知識,你還可以試著去這個網(wǎng)站https://detectfakes.media.mit.edu/)實操做題,提升一下自己鑒別假視頻的能力,說不定還能幫科學(xué)家對抗使用AI換臉的不法行為。
名人們有說過這些話嗎?| 圖源:MIT Media Lab
只要還有很高的潛在非法收益,不法分子就會不惜加大投入,制作更精美、更“真實”的虛假視頻,去欺騙普通人、大公司、大機構(gòu)乃至政府。
所以,除了個人能做到的事情外,其實也更應(yīng)該由政府、公司從政策法規(guī)和技術(shù)建設(shè)上不斷完善和加強,讓技術(shù)的進步真正造福于人類,而不是淪為傷害他人的犯罪工具。