就在歐盟《人工智能法案》落地只差最后一公里時,內(nèi)部出現(xiàn)了不同聲音。
近日,據(jù)報道,一份聯(lián)合文件顯示法國、德國、意大利就如何監(jiān)管人工智能達成協(xié)議。三個歐洲重要經(jīng)濟體一致認為,《人工智能法案》不應針對基礎模型,歐洲需要“一個促進創(chuàng)新和競爭的監(jiān)管框架,以便歐洲參與者能在全球人工智能變革中位于前列。”
法德意的發(fā)難,似乎讓他們站在了歐洲議會立法者的對立面——后者希望嚴格監(jiān)管基礎模型。
歐盟《人工智能法案》是全球首部人工智能的法律草案,正處于立法程序的最后階段。受訪專家指出,當前核心分歧是基礎模型的監(jiān)管方式,各方應該在12月6日的三方談判上提出解決方案。如果屆時無法達成共識,《人工智能法案》落地或面臨壓力。
法德意發(fā)布的文件首先指出,人工智能的本質(zhì)風險是應用,而不是技術(shù)本身,由此“反對基礎模型的兩層分級方法”。
“兩層分級方法”指的是《人工智能法案》中,將人工智能系統(tǒng)劃分為不同的風險組,規(guī)定不同的合規(guī)義務。一些義務僅適用于算力更強、更通用的大模型,從而產(chǎn)生了一套兩層規(guī)則。三個國家在文件中明確要求對基礎模型放棄這套規(guī)則。
模型卡是他們提出的替代方案。模型卡的內(nèi)容必須包含模型的功能和缺陷。根據(jù)文件示例,具體有模型參數(shù)量、預期用途、潛在限制、偏見測試結(jié)果,以及紅隊安全評估結(jié)果。
此外,聯(lián)合文件還呼吁自愿承諾、延遲建立制裁。法德意三國都贊成,AI提供商應做出具有約束力的自愿承諾,且最初不實施任何制裁措施。文件提到,只有在一定時間后發(fā)現(xiàn)違規(guī)行為,再建立明確的制裁機制。
《人工智能法案》授權(quán)草案于今年6月高票通過歐洲議會,目前已經(jīng)進入成員國、歐洲議會、歐盟委員會的“三方談判”,原計劃年底前通過。
據(jù)了解,三方本在10月24日就分級監(jiān)管模型達成了初步共識,但包括法國、德國、意大利在內(nèi)的至少五個成員國改變立場,提出不應對基礎模型施加任何監(jiān)管;10月30日,法德意三國在意大利首都羅馬舉行高級別會議,決定加強人工智能領(lǐng)域合作;本月19日,法德意開始分發(fā)非正式文件,再次轉(zhuǎn)變監(jiān)管立場,提出用模型卡來監(jiān)管基礎模型。關(guān)于《人工智能法案》的談判仍在繼續(xù)。
同濟大學法學院助理教授、上海市人工智能社會治理協(xié)同創(chuàng)新中心研究員朱悅分析,聯(lián)合文件與《人工智能法案》立法談判其他各方的實質(zhì)性矛盾集中于一點——如何監(jiān)管、由誰監(jiān)管基礎模型。
對于基礎模型,《人工智能法案》始終主張風險分級,但與聯(lián)合文件的風險識別思路有很大不同。北京師范大學法學院博士生導師、中國互聯(lián)網(wǎng)協(xié)會研究中心副主任吳沈括指出,整體來看,《人工智能法案》強調(diào)前置、抽象的風險判定,而聯(lián)合文件強調(diào)后置、實際的風險判定。
落到具體層面,模型卡可能涉及主體更少,合規(guī)義務更輕。朱悅認為,早先三方談判中達成的分級監(jiān)管,涵蓋了數(shù)據(jù)治理、紅藍對抗等實質(zhì)性義務。而以透明義務和行為守則為核心的模型卡,更多屬于一種弱強制性的自律監(jiān)管。對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任張欣補充,模型卡主要針對基礎模型的開發(fā)者,分級監(jiān)管則面向整個人工智能系統(tǒng)的開發(fā)者、部署者、運行者。不過,“分級監(jiān)管確實存在一定挑戰(zhàn),比如未來步入真正的通用人工智能(AGI)階段時,可能有分級標準難設定、風險動態(tài)變化的挑戰(zhàn)。又比如,在現(xiàn)有方案下,可能導致基礎模型的開發(fā)者承擔較多連帶義務和責任。”張欣說。
張欣向21記者進一步解釋,模型卡類似于基礎模型說明書,示例中的安全測試、偏見測試類似出廠前的產(chǎn)品測試。如果按照早先《人工智能法案》規(guī)定的分級監(jiān)管,落在高風險區(qū)域的大模型相關(guān)主體,還需要履行一系列備案、糾正、標識等合規(guī)義務,負擔可能遠遠大于模型卡。
一個更關(guān)鍵的問題也許是,誰來決定模型卡的嚴格程度,以及誰來執(zhí)行。
在朱悅看來,不能簡單斷言模型卡和分級監(jiān)管之間有本質(zhì)差別。如果模型卡配置了詳細、深入的可解釋性條目,其依然可以稱為一種深入的監(jiān)管。但如果模型卡不是交給專門監(jiān)管機關(guān)或者數(shù)據(jù)保護機關(guān),而是主要由行業(yè)協(xié)會或者技術(shù)社區(qū)來評估和執(zhí)行,自由度就會相對充裕。
此外,聯(lián)合文件中的自愿承諾也值得注意。張欣表示,“一般情況下,如果要求企業(yè)自我承諾,那么違背承諾時執(zhí)法機關(guān)會采取相應的處罰措施。”但聯(lián)合文件提議推遲制裁,并沒有進一步明確到底要如何建立強制性、有約束力的自我承諾機制。
受訪專家均認同,聯(lián)合文件旨在為基礎模型的開發(fā)者松土。
一個值得關(guān)注的時間點是今年10月。就在這個月,巴黎的初創(chuàng)公司Mistral AI發(fā)布了自己的大模型Mistral 7B,據(jù)稱性能超過Meta 的 Llama 2大模型,且算力耗費更少,一舉成為人工智能領(lǐng)域一顆冉冉上升的新星。與此同時,德國的AI領(lǐng)頭公司 Aleph Alpha GmbH 也獲得了超過5億美元的B輪融資,官網(wǎng)自稱“德國自己的OpenAI”。
除了本國冠軍企業(yè)的大模型發(fā)展迅速,政府面臨游說壓力外,法德意也有布局人工智能的國家性戰(zhàn)略。今年6月,法國總統(tǒng)馬克龍宣布要推動法國成為歐洲的AI中心,劃撥5億歐元發(fā)展人工智能。德國數(shù)字事務部長則在近期采訪中,將德國定位為“進入全球人工智能領(lǐng)域最高梯隊競爭”,發(fā)展野心可見一隅。
法德意此時叫板,最令人關(guān)心的問題無疑是:《人工智能法案》還能順利落地嗎?
張欣表示,目前難以預料聯(lián)合文件的實質(zhì)影響,但它的確為《人工智能法案》達成共識增加了不確定性。
在朱悅看來,達成共識的可能性很大。主要依據(jù)是各方已經(jīng)初步達成了共識——同意一定程度上監(jiān)管基礎模型,只是在概念、時限和其他一些關(guān)鍵細節(jié)上需要博弈。另外,從談判過程來看,相關(guān)主體的態(tài)度在不斷軟化。根據(jù)朱悅的分析,此次發(fā)難的策略性性質(zhì)較強,即為了針對特定的條款爭取談判籌碼,并不是關(guān)于《人工智能法案》是否應該通過的分歧。
“如果能夠達成妥協(xié),《人工智能法案》可能放棄對基礎模型的進一步分級,通過細化透明項目、補強審計義務和關(guān)聯(lián)產(chǎn)品責任等方式做實透明義務,放棄其他絕大部分的實質(zhì)要求。可以說是一種差強人意的方案。”朱悅表示。
在后續(xù)的執(zhí)行過程中,《人工智能法案》也存在進一步松綁的可能性。吳沈括向21記者指出,聯(lián)合文件立場更市場友好,因此各成員國在貫徹執(zhí)行《人工智能法案》時,可能有本地化松綁的動作。張欣對此的擔憂是,模型性能強大,更多未知風險會與大模型涌現(xiàn)能力一同出現(xiàn)。而且在開發(fā)熱潮下,資本逐利可能帶來模型異化的風險。以上種種都要求對基礎模型進行更系統(tǒng)的硬法規(guī)制。
通過《人工智能法案》的機會之窗正在快速關(guān)閉,12月6日將是一個關(guān)鍵的時間點。
考慮到歐洲議會將在明年6月?lián)Q屆,今年12月6日的三方談判可以視作《人工智能法案》立法談判的收尾。歐洲媒體透露,越來越多的成員國認為《人工智能法案》監(jiān)管過度。如果無法盡快找到解決方案,立法將面臨風險。
朱悅表示,“《人工智能法案》之前的談判進程確實太快了,理事會和其他各方內(nèi)部并沒有達到高度一致。之前達成的所有共識,都是一種脆弱而精細的平衡。”而這份脆弱、精細的平衡,接下來隨時都有可能打破。
來源:21世紀經(jīng)濟報道 作者:肖瀟