經(jīng)濟觀察網(wǎng) 記者 沈怡然 隨著AI技術(shù)的精進和產(chǎn)業(yè)落地,業(yè)界開始聚焦關(guān)于產(chǎn)業(yè)治理的爭端和問題。
8月3日,首屆全球數(shù)字經(jīng)濟大會的人工智能產(chǎn)業(yè)治理主題論壇在京舉辦,該論壇由北京市經(jīng)濟信息化局、海淀區(qū)人民政府共同主辦,由清華大學(xué)人工智能研究院、北京智源人工智能研究院以及北京瑞萊智慧科技有限公司共同承辦。
在論壇上,中國科學(xué)院院士張鈸首先拋出一個觀點:當(dāng)前,AI的安全治理是迫在眉睫的,隨著技術(shù)潛入到“深水區(qū)”,研究界發(fā)現(xiàn),AI的算法存在一些根本性的問題,本身就帶有不安全性,容易受到攻擊。
張鈸認(rèn)為,對人工智能進行治理,防止它被誤用、制止它被濫用,需要從技術(shù)創(chuàng)新層面發(fā)力去“治本”,但這條路漫長且艱難,同時,也要從法律法規(guī)、倫理規(guī)范、行業(yè)共識等不同層面去“治標(biāo)”。
爭議和問題隨之出現(xiàn),為何AI的安全漏洞難以修補,AI的發(fā)展方向是否正確,政府、企業(yè)在其中又該承擔(dān)什么責(zé)任?
原理的漏洞
行業(yè)普遍將人工智能的主體分為四類,研發(fā)者、設(shè)計者、部署者、用戶。張鈸表示,信息技術(shù)產(chǎn)業(yè)發(fā)展中有很多安全性問題,普遍是由設(shè)計的缺陷造成的,這個缺陷被利用后,對系統(tǒng)進行了攻擊,所以只要把漏洞補上就能解決。
但AI技術(shù)所面臨的安全問題是非常特殊的,其問題不在于設(shè)計,而是源自算法本身的不安全性。在張鈸看來,這種算法的不安全性,是由第二代人工智能所引起的。
第一代人工智能指的是用知識規(guī)則來解決問題,第二代指的是以AlphaGo為標(biāo)志的深度學(xué)習(xí)。張鈸表示,在第二代技術(shù)中,對圖像、語音、文字的處理都可以利用深度學(xué)習(xí)來做,這種技術(shù)在數(shù)據(jù)樣本充足的條件下,在人臉識別、語音識別等場景下,效率是非常高的。
但是,里面用到的算法非常脆弱。張鈸舉例稱,“兩張一模一樣的雪山圖片,如果對右圖加入一點噪聲,那么人類視覺看起來還是雪山,但計算機就會將右圖識別成一條狗。可以看出人類視覺和計算機識別完全是兩回事”。
張鈸認(rèn)為,這是有可能通過創(chuàng)新來解決的,方案之一就是發(fā)展第三代人工智能技術(shù),但這是一項長期任務(wù),技術(shù)的路徑也非常艱難。
法律的治理
針對不安全性,治理的目標(biāo)也指向兩類行為,一類是有意識地濫用AI技術(shù),一類是無意識地誤用。前者行為需要通過法律來解決,加以制止。
中倫律師事務(wù)所合伙人陳際紅在會上表示,當(dāng)前,人工智能的立法,已經(jīng)涉及到隱私保護、數(shù)據(jù)安全、網(wǎng)絡(luò)安全、公平競爭、消費者權(quán)益保護等方面。
人工智能產(chǎn)業(yè)離不開數(shù)據(jù)處理,一個重要的立法就是《數(shù)據(jù)安全法》,該法將于今年9月生效。陳際紅表示,該法的監(jiān)管對象是數(shù)據(jù)處理活動,一個重要的內(nèi)容是,建立分類分級保護制度。在判斷一種數(shù)據(jù)能否使用、能否公開、能否跨境運輸方面,這些內(nèi)容提供了很好的標(biāo)準(zhǔn)。如果是關(guān)系到重要民生、國家安全的核心數(shù)據(jù),出境則需要強監(jiān)管。
另一項限定關(guān)于數(shù)據(jù)交易。陳際紅表示,當(dāng)前一些數(shù)據(jù)交易機構(gòu)的運作,引起了很多問題,比如數(shù)據(jù)的可交易性、對隱私的侵犯等。該法也針對數(shù)據(jù)中介做了一系列明確規(guī)定和管控。
同時,該法也建立起國家安全審查制度,同時,對數(shù)據(jù)處理活動也提出了監(jiān)管措施,以及一定的反制措施。隨著AI與社會的關(guān)系發(fā)展密切,關(guān)于立法、司法解釋會延伸到技術(shù)的更多角落。
倫理的規(guī)范
若將AI作為客體,則可用法律來治理。但換個角度,我們究竟要發(fā)展什么樣的人工智能,過去的路是否走偏了?厘清它的愿景,對于當(dāng)前的治理也是非常重要的。
論壇上,中國科學(xué)院自動化研究所研究員、聯(lián)合國教科文組織人工智能倫理特設(shè)專家組專家曾毅表示,全球發(fā)展AI的一個共同目標(biāo)是“以人類為中心”,這會讓人忽略技術(shù)對環(huán)境、生態(tài)的影響,甚至讓人過于看重短期利益。
在曾毅看來,愿景應(yīng)該是打造一個負(fù)責(zé)任的、可持續(xù)的人工智能,這也是最大倫理原則,“如果人工智能的創(chuàng)新的目標(biāo)就是賺錢,那么大多數(shù)可持續(xù)發(fā)展目標(biāo)無法通過人工智能來實現(xiàn)”。
國家新一代人工智能治理專委會曾對AI提出一些原則,重點之一是協(xié)調(diào)好發(fā)展與治理的關(guān)系;重點之二是,在安全可靠、可控的背景下,推動的不僅僅是經(jīng)濟發(fā)展,同時關(guān)注經(jīng)濟社會和生態(tài)協(xié)同的可持續(xù)發(fā)展,共建人類命運體。
這些治理的理念必須落實到參與者之間。曾毅表示,這和企業(yè)非常相關(guān),但絕對不是企業(yè)唯一的問題,還涉及到設(shè)計者、研發(fā)者、供應(yīng)者、部署者、管理者,真正實現(xiàn)多方共治。
企業(yè)的責(zé)任擔(dān)當(dāng)
在本次大會上,首個《人工智能產(chǎn)業(yè)擔(dān)當(dāng)宣言》正式發(fā)布,該宣言由北京智源人工智能研究院和瑞萊智慧共同發(fā)起,百度、華為、螞蟻集團、寒武紀(jì)、愛筆科技、第四范式、出門問問等在內(nèi)數(shù)十家研究機構(gòu)與創(chuàng)新企業(yè)聯(lián)合參與。
宣言包含五項倡議,首先強調(diào),人工智能系統(tǒng)的設(shè)計、研發(fā)、實施和推廣應(yīng)符合可持續(xù)發(fā)展理念,以促進社會安全和福祉為目標(biāo),以尊重人類尊嚴(yán)和權(quán)益為前提。其次在技術(shù)能力方面,提出要最大限度確保人工智能系統(tǒng)安全可信,提高魯棒性及抗干擾性,要增強算法透明性和可解釋性,同時保障各方權(quán)利和隱私,對用戶數(shù)據(jù)提供充分的安全保障。
對于該宣言,北京瑞萊智慧科技有限公司CEO田天表示,讓人工智能更好地服務(wù)于人類,是行業(yè)共同的目標(biāo),當(dāng)整個社會重新審視技術(shù)的價值,科技從業(yè)者更應(yīng)感受到科技治理的緊迫性和使命感,應(yīng)當(dāng)積極主動開展自治工作,同時開放共享,共舉科技擔(dān)當(dāng)。
京公網(wǎng)安備 11010802028547號