經(jīng)濟觀察網(wǎng) 記者 葉心冉 深度偽造與鑒別偽造之間在展開一場技術博弈。
7月9日,2021世界人工智能大會相關論壇上,國家工信安全中心人工智能所副所長劉永東在發(fā)表演講時指出,當前,人工智能的安全風險可分為三類,一是技術的內(nèi)生風險,二是數(shù)據(jù)隱私風險,三是技術濫用風險。
深度偽造便是屬于技術的內(nèi)生風險。資料顯示,深度偽造技術源自英文詞匯deepfake,是計算機“深度學習”(deep learning)和“偽造”(fake)的組合,指通過深度學習偽造數(shù)字內(nèi)容的人工智能技術,實質上是一種聲音、圖像與視頻的智能處理技術,能夠模仿特定人物或者讓特定人物看起來在做特定的事件。其效果可以達到以假亂真的程度,被稱為“音視頻領域的PS技術”。
前段時間,從抖音到微博,多位大咖齊唱“螞蟻呀嘿”的畫面不斷刷屏,這一玩法來自于國外的一款AI軟件——Avatarify。這其實便是深度偽造技術的應用。
瑞萊智慧 RealAI CEO田天指出,如果深度偽造技術被用于國家領導人或是知名專家虛假惡意的傳播,會在社會上引起不良后果。“所以我們需要用新的技術,用AI來對抗AI,用新的技術去檢測AI偽造的內(nèi)容。”
7月9日,瑞萊智慧發(fā)布了DeepReal深度偽造內(nèi)容檢測平臺(基于第三代人工智能),能夠對多種格式與質量的圖像進行真?zhèn)舞b別,為遏制和防范深度偽造技術的大規(guī)模濫用提供支撐。
瑞萊智慧RealAI副總裁唐家渝指出,深度偽造技術檢測工作當前面臨兩大難點:一是肉眼難以辨別,傳統(tǒng)人工內(nèi)容審核團隊無法應對,二是深度偽造檢測面臨"強對抗性",新型偽造方法層出不窮、網(wǎng)絡傳播環(huán)境復雜、算法模型存在結構性缺陷等。
識別技術與偽造技術一樣扎根于深度學習算法,根據(jù)唐家渝介紹,一方面利用貝葉斯深度學習,將偽造視頻的先驗知識進行融合,以此增加對預測結果確定性的預判;二是能夠快速即時應對新型的深度偽造類型,一是利用貝葉斯深度學習,二是利用了小樣本增量學習的方法,使得在初期見到少量新型偽造數(shù)據(jù)時,便能學習到偽造特征。
前不久,國家關注到深度偽造技術所存在的風險,對多家企業(yè)進行了約談。3月18日,國家互聯(lián)網(wǎng)信息辦公室、公安部指導各地網(wǎng)信部門、公安機關近日加強對語音社交軟件和涉“深度偽造”技術的互聯(lián)網(wǎng)新技術新應用安全評估工作。映客、小米、快手、字節(jié)跳動、鯨準數(shù)服、云賬戶、喜馬拉雅、阿里巴巴、網(wǎng)易云音樂、騰訊、去演等11家企業(yè)被各地方網(wǎng)信部門、公安機關依法約談。
中國信息安全研究院副院長左曉棟曾指出,此次有約談,一方面是為了給部分平臺上存在涉深度偽造技術的安全隱患敲警鐘;另一方面也要求行業(yè)內(nèi)的相關企業(yè)依法依規(guī)保護用戶個人信息和名譽權,對于可能涉嫌違法犯罪的相關線索,要及時上報有關監(jiān)管部門。
過去言有圖有真相,但是現(xiàn)在視頻都不一定代表著真相。深度偽造技術一方面有著被濫用的風險,另一方面,這其中還存在對人臉信息等生物識別信息的保護缺位的問題。
人臉識別已經(jīng)逐步被運用到多個場景當中,但是人臉識別帶來的數(shù)據(jù)安全問題卻也愈發(fā)嚴峻。當人臉識別站上風口,爭議未曾間斷。其邊界在哪里?安全性如何確保?
多起企業(yè)違規(guī)收集人臉識別的事件曾被報道。以徐州為例,今年6月,徐州市公安局鼓樓分局網(wǎng)安大隊對徐州某工程項目部檢查時,發(fā)現(xiàn)該單位使用的人臉識別系統(tǒng),未對該系統(tǒng)采集到的個人信息采取保護措施。1月還曾發(fā)現(xiàn)徐州某樓盤售樓處安裝使用了人臉識別系統(tǒng),但在未征得客戶同意的情況下,非法收集、存儲人臉信息數(shù)千條,用于營銷使用。實際上,這已經(jīng)構成了非法獲取個人信息的違法行為。
此前在采寫智能家居相關報道,與企業(yè)進行采訪和接觸的時候,涉及智能安防、人臉識別的企業(yè)會對人臉識別安全性的提問尤為敏感、謹慎。
唐家瑜表示,人臉識別系統(tǒng)不安全的地方,在于兩個方面看,一是本身算法的問題,如果有人利用算法漏洞做相應的攻擊,就會有安全問題,另一類問題則與隱私相關,比如圖像被非法倒賣,再比如銀行資產(chǎn)等的風險。
田天指出,AI之間的對抗是一個長期的過程,且對抗的方法也多種多樣。但從總體而言,“我們需要的是算法更加可靠安全、數(shù)據(jù)安全并且應用可控的人工智能。”
京公網(wǎng)安備 11010802028547號