<nav id="4uuuu"></nav>
  • <tr id="4uuuu"></tr>
  • <tr id="4uuuu"></tr>
  • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
    • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>

      久久精品福利网站免费,亚洲色大情网站WWW在线观看,久久水蜜桃网国产免费网手机 ,男女性高视频免费观看国内,老色鬼第一页av在线,久久久久精品婷婷

      呼吁“暫停大型AI研究”,馬斯克們多慮了嗎

      佘宗明2023-03-30 10:21

      佘宗明/文 ChatGPT引發(fā)的“余震未息。就在近日,包括埃隆·馬斯克、圖靈獎得主約書亞·本吉奧、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、《人類簡史》作者尤瓦爾·赫拉利在內(nèi)的上千名科技人士發(fā)聯(lián)名公開信,呼吁所有AI實驗室立即暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng),為期至少6個月,以確保人類能夠有效管理其風險。

      乍聽起來,很容易讓人聯(lián)想到馬車夫要求禁止汽車上路之類的場景。但簡單將這類呼聲概括為反技術(shù)進步的新勒德主義,有失偏頗。這次發(fā)聲的上千人,并非都是所謂的頑固派,其中許多人是赫赫有名的科技領(lǐng)袖、AI大牛。約書亞·本吉奧就被稱為“AI教父”,馬斯克也是裹著極客底色的動能派。

      從公開信內(nèi)容看,他們并不是反對發(fā)展AI技術(shù),更多的是擔心。他們的擔心分為兩類:第一,AI跑得太快,不會等一等人類。這通向的往往是霍金式憂慮——AI會導(dǎo)致人類族群滅絕;第二,AI被惡意使用。無論哪種,都可能帶來災(zāi)難性影響,所以他們希望AI實驗室“從奔向不可預(yù)測的大型黑盒模型的危險競賽中收回腳步”。

      平心而論,這番呼吁未必能得到科技巨頭們的響應(yīng)。要知道,生成式AI被認為是下個時代的信息入口,而AI時代的創(chuàng)新又呈現(xiàn)高度的非線性、裂變式特征,今天落后一步,明天就可能落后十步。

      也因如此,科技巨頭們已掀起AI軍備競賽,在生成式AI的“iPhone時刻”已到來的背景下,誰都不甘心失去先機。更何況,再考慮到事關(guān)國家數(shù)字主權(quán)、未來科技競爭等,想讓所有AI實驗室一齊摁下研發(fā)暫停鍵,也并不現(xiàn)實。自數(shù)字化技術(shù)出現(xiàn)以來,沒有哪項技術(shù)是可以說叫停就叫停的。

      但我們不能說這些科技領(lǐng)袖的呼吁是杞人憂天。在超級人工智能雛形已現(xiàn),以往科幻片中的場景密集涌現(xiàn)的當下,昔日很多遠在天邊的“AI失控風險”可以說是已近在眼前,不容回避。

      具體而言,AI失控風險,可能體現(xiàn)在AI“成精”上,也可能體現(xiàn)在AI被不當濫用上。

      前者是馬斯克的顧慮所在,他此前之所以將人工智能比作核技術(shù),稱“它有巨大的前景也有巨大的能力,但隨之而來的危險也是巨大的”,就是源于大膽猜想:人類就是引出超級數(shù)字智能物種(AI)的引導(dǎo)程序,最終AI代表的硅基文明可以對人類代表的碳基文明實施降維打擊。

      周鴻祎也曾表達擔心:目前ChatGPT還只有大腦,接下來它可能進化出“眼睛”、“耳朵”、“手”跟“腳”……將來它會不會在看完類似《終結(jié)者》的電影后,產(chǎn)生與人類為敵的想法。在他看來,人類從智人發(fā)展而來,智人從類人猿發(fā)展而來,類人猿能進化為智人,就是因為腦中的神經(jīng)元網(wǎng)絡(luò)發(fā)生突變,現(xiàn)在ChatGPT大語言模型參數(shù)達到了1750億,同樣引發(fā)了突變。斯坦福大學(xué)教授曝光的GPT-4“越獄計劃”,也似乎形成了印證。

      后者是更多科技人士的憂心之處。厄休拉·M·富蘭克林曾在《技術(shù)的真相》中寫道:技術(shù)的發(fā)展和運用都是在一個特定的社會、經(jīng)濟和政治語境中發(fā)生的,它從一個社會結(jié)構(gòu)中產(chǎn)生,然后被嫁接在這個結(jié)構(gòu)上。也就是說,技術(shù)也許沒有善惡之分,但社會結(jié)構(gòu)決定了,它可能被用來做惡。

      “AI一鍵脫衣”“換臉親吻”……這兩天媒體曝出的諸多亂象,就表露了這層風險。更讓人擔心的或許是AI被詐騙分子乃至恐怖分子利用。故而紐約大學(xué)教授加里·馬庫斯說,他現(xiàn)在并不擔心超級AI帶來的“AGI風險”(我們無法控制的超級智能機器的風險),在短期內(nèi)他擔心的是平庸AI被廣泛部署帶來的“MAI風險”。

      就連OpenAI的CEO薩姆·阿爾特曼、首席技術(shù)官米拉·穆拉蒂,也對此類風險直言不諱。阿爾特曼曾表示,AI潛在的危險性讓他徹夜難眠,擔心它被壞人所用。穆拉蒂也說,ChatGPT可能會編造事實,應(yīng)受到監(jiān)管。

      這未必就該導(dǎo)向?qū)π录夹g(shù)“審慎過度,包容欠缺”的強監(jiān)管,但毫無疑問,馬斯克們提醒的風險應(yīng)當被重視。某種程度上,這其實就是要用科技向善的“地圖”為AI發(fā)展導(dǎo)航,讓AI回歸以人為本,而不是讓AI技術(shù)伴生的釣魚、欺詐、監(jiān)控去劫奪人的權(quán)利或損害人的尊嚴。

      說白了,人是目的,AI則不是,它應(yīng)該成為人類為善的工具,而不是作惡的利器。

      (作者系資深媒體人)

      版權(quán)聲明:本文僅代表作者個人觀點,不代表經(jīng)濟觀察網(wǎng)立場。
      久久精品福利网站免费
      <nav id="4uuuu"></nav>
    • <tr id="4uuuu"></tr>
    • <tr id="4uuuu"></tr>
    • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
      • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>