<nav id="4uuuu"></nav>
  • <tr id="4uuuu"></tr>
  • <tr id="4uuuu"></tr>
  • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
    • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>

      久久精品福利网站免费,亚洲色大情网站WWW在线观看,久久水蜜桃网国产免费网手机 ,男女性高视频免费观看国内,老色鬼第一页av在线,久久久久精品婷婷

      AI算法治理,難點在哪里

      張成洪2023-09-01 20:10

      張成洪/文

      自2016年3月阿爾法狗(AlphaGo)擊敗人類棋手李世石的新聞傳出,到去年年底ChatGPT問世,人工智能(AI)技術開始具備了通用人類意圖理解和思維鏈的能力,尤其是在與深度學習和生成式AI相結合的情況下,再加上基于人類反饋的強化學習,計算機已經(jīng)能夠完成編程、寫作、繪畫等任務,逐步接近了“人類能力地圖”上的幾座高峰。

      人們對人工智能的關注逐漸升高,興奮之余也開始思考機器智能是否可能超越人類智能。

      AI的“遠慮”和“近憂”

      今年上半年,包括馬斯克在內(nèi)的千名全球科技人士聯(lián)名發(fā)布了一份公開信,呼吁暫停推出更強大的人工智能系統(tǒng)。

      盡管我認為這份公開信的呼吁不太可行,但其中提出的許多觀點值得深思。其中,特別強調(diào)需要建立專門負責人工智能的、有能力的監(jiān)管機構;強調(diào)推出標明來源系統(tǒng)和水印系統(tǒng)的重要性,以幫助區(qū)分真實信息和合成信息,并跟蹤模型的泄露;此外,還提出需要強大的審計和認證體系,以確保人工智能系統(tǒng)的透明度和可信度。另外,公開信還提出了需要明確人工智能可能造成的傷害所對應的責任歸屬。

      這些內(nèi)容表明,科技領域的關注不僅僅局限于人工智能的應用,更多地開始關注人工智能是否會帶來負面影響,是否需要對其發(fā)展進行適當?shù)南拗啤?/p>

      即使不去考慮AI的“遠慮”,也需關注AI的“近憂”。比如,電商平臺依賴算法進行推薦和定價,可能導致價格歧視和大數(shù)據(jù)殺熟現(xiàn)象;視頻網(wǎng)站通過算法推薦內(nèi)容,可能造成信息繭房,加劇信息偏見,還有比如搜索排名與個性化推薦被操縱;醫(yī)療領域誤診風險;隱私泄露、誘發(fā)輿論暴力、種族、性別的歧視;人類過度依賴算法,使個體失去自主性等負面案例;當算法決策或應用結果損害特定主體權益時,由于規(guī)則和原則不明確,可能導致利益救濟不足的風險;濫用或誤用算法也是一個潛在的風險,算法產(chǎn)生的決策效果可能會破壞社會的公正和社會凝聚力。

      因此我們迫切需要對AI算法進行有效的治理。

      AI算法的基本原則

      AI算法治理的定義是基于風險防范的要求,把算法本身以及其應用的場景和解決的問題,作為治理對象進行規(guī)范化、合規(guī)化的監(jiān)管和修正。

      目前學界對于算法治理提出了不同的定義,有學者認為算法治理致力于提高算法的可解釋性、透明性和技術保障,涉及一系列技術標準和法律規(guī)范的制定。也有學者認為,算法治理旨在確保算法的安全性,要對算法建模和預測的全過程進行管理。

      當涉及到算法的標準和要求時,現(xiàn)在出現(xiàn)了一些新的術語,例如公平的AI、可解釋的AI、負責任的AI和可信的AI等等。綜合考慮這些概念,我們總結出七點制定AI算法的基本要求。

      1)準確性。AI算法的首要任務是準確,如果不準確本身就沒用,還會帶來負面效果。

      2)穩(wěn)定性。它要求我們的算法不僅在當前情境下準確可靠,還需在不同情境下保持準確可靠。

      3)可靠性。保證算法決策依據(jù)的充分性,保證決策結果可靠,可信任。

      4)公平性。保證算法的決策無偏向性,無指向性。

      5)透明性(可理解性)。保證算法的決策過程是透明的,決策結果是讓大眾可以理解的。

      6)安全性。算法的開發(fā)和使用必須免受安全隱患的影響,不能因為外部干擾或攻擊而導致算法誤判。

      7)隱私保護。算法一定會使用數(shù)據(jù),所以要保證數(shù)據(jù)的安全,保護用戶隱私。

      對于AI算法治理的必要性,目前社會已經(jīng)擁有共識,但我們還沒有形成AI算法治理的體系。難點在哪里?在于AI算法是一個“黑匣子”,難以檢測AI算法是否符合透明可解釋、公平多樣、安全合規(guī)等要求。此外還存在著設計人員怎么保證算法是合規(guī)合法的、符合科技倫理的,應該由誰負責AI算法的治理,誰又有能力來做AI算法治理等一系列問題。

      基于此,我認為AI算法治理至少要包含三個層次。第一個層次,是算法治理的政策法規(guī),由國家行業(yè)的主管部門制定政策,給予指導。

      第二個層次,是算法合規(guī)性的審計,依據(jù)法律法規(guī)或者行業(yè)要求對企業(yè)展開檢查和監(jiān)管,這個可能企業(yè)內(nèi)部做,也可能需要行業(yè)或國家成立專門的監(jiān)管機構去做。

      第三個層次,是開發(fā)出合規(guī)合法的AI算法,這對開發(fā)人員、對算法工程師是有要求的。

      算法治理的政策法規(guī)

      算法治理的政策法規(guī)具有特殊重要性,因為它是算法治理的重要指引,是全社會的共識。政府與行業(yè)需要共同合作,制定法律法規(guī),以確保算法的合理運用,并進行必要的政府監(jiān)管。這需要確立健全的算法問責機制,明晰算法的責任主體,以促進算法治理走向科學化、體系化。

      同時,倫理道德方面的約束也不可或缺。一些企業(yè)在這方面也展現(xiàn)出積極努力,例如微軟設立了人工智能能力委員會、美國聯(lián)邦政府與亞馬遜合作開發(fā)促進算法公平性的項目。另外,騰訊一直強調(diào)科技向善,阿里在實踐中也致力于開發(fā)負責任的AIGC。

      實際上,從2021年起,我國相繼頒布了一系列關于算法治理的法律法規(guī)。例如,于2021年3月發(fā)布的人工智能算法在金融領域應用的評價規(guī)范; 7月份人力資源和社會保障部等八個部門共同發(fā)布了一份指導意見,著眼于維護新興就業(yè)形態(tài)下勞動者權益的保護;8月份國家出臺了互聯(lián)網(wǎng)信息服務算法推薦管理的規(guī)定,主要是強調(diào)信息服務的推薦過程中要避免信息繭房,在2022年形成了正式的意見;9月份發(fā)布《新一代人工智能的倫理規(guī)范》,2022年11月份,又出臺了《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)范》,今年發(fā)布了《生成式人工智能服務管理辦法》的征求意見稿。近幾年有大量的相關文件發(fā)布。

      AI算法合規(guī)性審計的意義與困難

      算法治理的第二個層次即算法合規(guī)性審計,以2021年美團為例,為應對社會上對于騎手困在算法中的關注,在國家出臺相應要求以保護騎手權益之際,美團采取了措施,公開了其騎手調(diào)度管理算法。然而,此舉并未如預期般奏效,因公開程度較為粗略,難以被廣泛理解。

      在此引發(fā)一個問題:公開的程度應如何界定?若完全公開,是否會損害公司有關算法的知識產(chǎn)權?公開程度與算法知識產(chǎn)權保護怎么去平衡?這是一種矛盾。

      相比之下,更好的方式是將其向專業(yè)人士或專門機構公開,設立專門的審計機構,以審計為手段檢查企業(yè)或其AI程序是否遵守政策法規(guī),確保其算法達到合規(guī)向善的企業(yè)承諾。當然,審計方式或可為企業(yè)內(nèi)部部門,亦或為外部專業(yè)機構。

      目前,對于AI算法進行審計確實極具挑戰(zhàn)性。

      過去,企業(yè)對業(yè)務進行審計時可能發(fā)現(xiàn),大部分業(yè)務實際上是由信息技術(IT)主導的,或者說業(yè)務的運轉離不開IT系統(tǒng)。因此,對于IT系統(tǒng)的審計變得不可或缺,這可能需要對IT系統(tǒng)的邏輯進行嚴格審查。

      而當我們面臨算法審計時,即便有條件打開算法代碼,很可能仍然無法判斷其合規(guī)性,尤其對于許多深度學習的AI算法來說,它們常常被視為黑匣子,難以深入探究其內(nèi)部機理。

      當然,算法審計仍然需要繼續(xù)前行,這需要在幾個方面展開工作。

      首先,制度建設是關鍵,其中一個方向是確立相應的監(jiān)管體系。監(jiān)管部門需要將算法視為監(jiān)管對象,并對其全過程進行監(jiān)管。有時候,由企業(yè)內(nèi)部自行進行算法治理,而在某些情況下需要引入第三方的外部算法治理。其次,我們還可以借鑒傳統(tǒng)審計流程的經(jīng)驗。制定一套標準,通過調(diào)研收集必要的信息,并進行測試和反饋,再總結審計結果。此外,需要基于算法合規(guī)性要求設定審計目標,并逐步細化成合規(guī)性的評價指標。最后,利用專門的方法和工具去測試被審計算法的各種指標,從而判斷該算法的合規(guī)性。

      目前,AI算法審計仍處于初步探索階段,還需要大量的研究和探索,但同時也蘊含著巨大的機遇和潛力。在AI監(jiān)管要求不斷加強、AI負面事件增多的背景下,隨著技術的不斷發(fā)展和專業(yè)機構的建立,我相信AI算法審計會逐漸成為一項重要的工作,為確保AI系統(tǒng)的透明性、公平性和合規(guī)性發(fā)揮著關鍵作用。

      合規(guī)算法開發(fā)的需求與挑戰(zhàn)

      實際上,在算法開發(fā)階段就考慮合規(guī)性問題是非常重要的,因為事后審計存在局限性,有時候可以說是于事無補。

      然而,確保算法在開發(fā)過程中合規(guī)并不是一項容易的任務。對于可解釋的模型,我們可能可以采取一些方法來確保樣本特征、參數(shù)、目標函數(shù)等都符合合規(guī)要求,但對于深度學習等復雜模型來說可能更具挑戰(zhàn)性。

      此外,如何將合規(guī)性要求與業(yè)務要求融合并在模型的訓練過程中加以約束也是一個重要問題。我們需要考慮如何確保模型是可解釋和可監(jiān)管的,同時符合科技倫理標準。這可能需要采用一系列策略。

      綜合而言,人工智能對人類的影響深遠,然而它又可以說是一把“雙刃劍”,我們既需善用人工智能,也要嚴密監(jiān)管,特別是在AI算法治理方面。盡管我國已在政策層面積極出臺許多相關政策,但就算法治理的合規(guī)性審計和合規(guī)算法開發(fā)而言,仍處于探索初期。

      要推進AI算法治理,需要高校和企業(yè)共同研究推進,行業(yè)和政府制度也應密切參與,同時,AI開發(fā)人員也需自覺承擔責任。我深信,通過對AI算法的有效治理,我們將確保科技未來的善用,真正實現(xiàn)人工智能的負責任發(fā)展。

      (作者系復旦大學管理學院信息管理與商業(yè)智能系教授)

      版權聲明:以上內(nèi)容為《經(jīng)濟觀察報》社原創(chuàng)作品,版權歸《經(jīng)濟觀察報》社所有。未經(jīng)《經(jīng)濟觀察報》社授權,嚴禁轉載或鏡像,否則將依法追究相關行為主體的法律責任。版權合作請致電:【010-60910566-1260】。
      久久精品福利网站免费
      <nav id="4uuuu"></nav>
    • <tr id="4uuuu"></tr>
    • <tr id="4uuuu"></tr>
    • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
      • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>