<nav id="4uuuu"></nav>
  • <tr id="4uuuu"></tr>
  • <tr id="4uuuu"></tr>
  • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
    • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>

      亚洲的天堂A∨无码视色,尤物久久免费一区二区三区,国产醉酒女邻居在线观看,9AⅤ高清无码免费看大片

      數(shù)字經(jīng)濟將向何處去

      陳永偉2024-02-05 19:53

      陳永偉/文

      2024年的第一個月已悄然而去,再過幾天,農歷新年也將到來。人們通常會在這辭舊迎新的時刻對過去進行一番總結,同時對未來進行一番展望。作為一名研究數(shù)字經(jīng)濟的專欄作家,我也難以免俗,因此就用這一期的篇幅,和各位讀者聊一下未來幾年中的數(shù)字經(jīng)濟會有哪些發(fā)展趨勢。

      坦白來講,對數(shù)字經(jīng)濟的發(fā)展趨勢進行展望并不是一件容易的事情。這主要是因為數(shù)字技術的發(fā)展十分迅速,圍繞著這些技術展開的商業(yè)模式更是層出不窮,這就導致了這個領域內的新名詞像走馬燈一樣變換不停。比如,在過去幾年中,區(qū)塊鏈、數(shù)字貨幣、元宇宙等概念都曾被新聞熱捧,還被寄予改變世界的厚望,但事實則證明,它們所引發(fā)的變革離人們先前的期望都存在著一段不小的距離。類似現(xiàn)象的產(chǎn)生,一部分固然可以歸因于一些過度炒作,但更為重要的原因則是人們在預測未來時忽略了這些技術的屬性。

      按照性質,技術可以分為“專用目的技術”(SpecificPurposeTechnologies,簡稱SPTs)和“通用目的技術”(GeneralPurposeTechnologies,簡稱GPTs)。其中,前一類技術通常只能應用于某個特定的領域,后一類技術則可以被廣泛應用到眾多不同的領域。也因為這個原因,從對經(jīng)濟和社會的影響看,GPTs的影響更為廣泛和深遠。GPTs不僅可以被直接應用到各個領域,從而對這些領域產(chǎn)生賦能,還可能激發(fā)起這些領域的創(chuàng)新聯(lián)動,從而推進技術的持續(xù)演進。

      經(jīng)濟史學家李普賽(RichardLipsey)、卡洛(KennethCarlaw)和貝克爾(CliffordBeker)曾在他們合著的《經(jīng)濟轉型:通用目的技術和長期經(jīng)濟增長》(E-conomicTransformations:GeneralPurposeTechnologiesandLongTerm EconomicGrowth)中對技術發(fā)展史進行了詳細的梳理。他們認為,在整個人類歷史上,總共有24種技術可以被歸入GPTs的范疇,而所有的這些技術都在人類歷史上起到了重大的推動作用。比如,其中的蒸汽機啟動了第一次工業(yè)革命,內燃機和電氣化等技術則是第二次工業(yè)革命的標志,而現(xiàn)在蓬勃發(fā)展的數(shù)字經(jīng)濟則是建立在計算機和互聯(lián)網(wǎng)這兩種GPTs的基礎之上的。

      從這個角度看,假使我們能找到一類新的GPTs,就可以十分自信地斷定,它將會在未來的某一個時間點成為引領社會發(fā)展的“火車頭”。

      當然,如果是對較近的一段時間進行預測,那么僅僅找到GPTs是不夠的。這是因為,GPTs作用的發(fā)揮依賴于相關基礎設施的支撐,以及與具體業(yè)務部門的結合,而這一切是需要時間的。比如,電氣化技術從發(fā)明到廣泛應用,中間的間隔時間達到了三十多年。因此,如果我們要預言某項技術可能在較近的一段時間內顯現(xiàn)出廣泛而深遠的影響力,那么它除了需要具有GPTs的特征之外,其技術成熟度還需要達到一定的水平。如果我們用這兩個標準來衡量區(qū)塊鏈、元宇宙等明星技術,就會發(fā)現(xiàn)它們要么不是GPTs,要么就是成熟度依然處在較低水平。

      那么,在當下,究竟是否存在著一類被歸為GPTs,同時又具有較高成熟度的技術呢?答案是肯定的,那就是人工智能(ArtificialIntelligence,以下簡稱AI)。自“深度學習革命”以來,AI領域展現(xiàn)出了欣欣向榮的發(fā)展態(tài)勢。尤其是在以聊天機器人程序ChatGPT為代表的生成式AI橫空出世之后,AI領域的發(fā)展更是可以用日新月異來形容。

      不同于其他的明星技術,AI已經(jīng)證明了它在不同領域都有著廣闊的應用前景。從這個意義上講,它已經(jīng)具有了GPTs的特征。更為重要的是,在AI向人們顯示了其強大的應用潛力之后,就立刻引起了企業(yè)和投資者的注意,巨額的資金開始涌入這個領域。這使得AI無論是在相關基礎設施的構建,還是在和具體業(yè)務的結合方面,都做得比其他明星技術更為出色。其投入和產(chǎn)出之間的良性循環(huán)已基本實現(xiàn),技術成熟度也達到了較高的水平。基于這一點,我們有理由相信至少在未來的幾年內,整個數(shù)字經(jīng)濟領域的故事將會圍繞著AI及其上下游展開。

      AI技術的發(fā)展展望

      在未來的幾年中,AI技術將會持續(xù)地發(fā)展。這種發(fā)展將表現(xiàn)在兩個方面:一是對現(xiàn)有AI模型缺陷的克服;二是向通用人工智能,即所謂的AGI(ArtificialGeneralIntelligence)持續(xù)邁進。

      (1)克服AI模型的缺陷

      目前,AI大模型已經(jīng)達到了一個相當高的水平,其表現(xiàn)可以用驚艷來形容。但盡管如此,現(xiàn)有的大模型也還存在著很多缺陷,例如嚴重的幻覺問題、過大的規(guī)模、較低的可解釋性等。在未來的一段時間內,克服這些問題將會是相關企業(yè)的首要工作。(a)幻覺問題

      所謂“幻覺”(Hallucination),簡而言之,就是AI大模型“一本正經(jīng)的胡說八道”。顯然,虛假信息不僅會對用戶造成嚴重的誤導,還可能給他們帶來很大的損失。比如,美國就有一位律師因在訴狀中錯引了ChatGPT編造的虛假案例,不僅輸?shù)袅斯偎荆€因藐視法庭而受到了處罰。

      從根本上看,這是由目前AI的根本原理導致的。眾所周知,目前的生成式AI在生成內容時依據(jù)的主要是概率原則。因此,不當?shù)挠柧殧?shù)據(jù)、訓練方式都可能會引發(fā)“幻覺”。打個比方:如果一個高中數(shù)學老師在設計選擇題時,凡是出到關于三角函數(shù)的問題,都會將C項設定為正確的答案。那么,久而久之,他教的學生就會逐漸發(fā)現(xiàn)這個秘密,以后一遇到三角函數(shù)題,就直接選C了事。但很顯然,這是一種不恰當?shù)年P聯(lián)想象。或許,這種答題策略針對這位老師依然是奏效的,但如果遇到了其他老師出的題,無條件選C就很難保證答題的正確性。類似的,在大模型中,AI是根據(jù)與上下文的關聯(lián)概率來選擇輸出結果的。因此,在某些場景之下,它就可能會輸出一些與上下文中的文字關聯(lián)度較高,但實際上風馬牛不相及的內容——就好像學生習慣了老師的出題風格后,看到三角函數(shù)就選C一樣。

      那么,有什么方法可以克制這種問題呢?其實,其思路是比較直接的,就是在訓練和應用模型時,要求AI知其然,并知其所以然。我們依然可以用解題作為類比。在一些教學質量比較高的學校,老師會要求學生在解題時,不僅要寫出答案,還要寫出完整的答題思路。那么無論學生是否熟知老師的出題思路,都會在解題時把每一個題的具體解答策略思考清楚。這樣,即使換了其他老師出題,他們也可以應對自如。

      將同樣的邏輯用到AI領域,就可以得到很多破解幻覺問題的方法。

      第一種方法來自于OpenAI。最近,它引入了一種基于步驟的監(jiān)督學習方法來訓練模型。具體來說,這種方法摒棄了過去純粹以結果為導向的方式,改為以步驟來衡量模型性能。當模型進行了一步正確的推理之后,就可以獲得相應的得分。這樣,以得分最大化為目標的模型就會不斷對自身進行優(yōu)化、調整,從而讓其性能更為優(yōu)化。

      第二種方法是采用所謂的“檢索增強生成”(RetrievalAugmentedGeneration,簡稱RAG)。例如,斯坦福訓練的Wi-kiChat就采用了這一種思路。它要求模型在回答用戶的問題時,都要去維基百科查找、核對相關的內容。

      此外,谷歌也推出了一種解決思路。該公司與威斯康辛麥迪遜分校組建的聯(lián)合團隊推出了一款名為ASPIRE的系統(tǒng)。這款系統(tǒng)可以在大模型與用戶交互時要求模型給自己的回答打分。其邏輯就好像我們拿著一份答卷,讓答題的學生自己回答究竟是真的懂了還是亂答一氣的。如果模型感覺自己的回答有很強的依據(jù),就會給自己打高分;反之,如果模型的回答并沒有足夠的依據(jù),它就會給自己打低分。這樣,通過得分,用戶就可以對答案的可靠性做到心中有數(shù),從而有效避免幻覺問題的影響。

      當然,無論以上的哪一種方案,都還沒能從根本上徹底解決幻覺問題。因此,可以預見在未來的一段時間內,對幻覺問題的應對依然會是各大AI企業(yè)和研究機構主攻的一個重點。

      (b)規(guī)模問題

      在很大程度上,大模型的成功是由龐大的參數(shù)量支撐的。以目前最為成功的大模型GPT為例:GPT-1的參數(shù)量不過1億左右,而到了GPT-3,其參數(shù)量已經(jīng)達到了1750億。雖然OpenAI并沒有公布GPT-4的確切信息,但其參數(shù)量應該遠高于GPT-3。隨著參數(shù)的膨脹,GPT模型的性能也呈現(xiàn)出了指數(shù)級別的增長。尤其值得注意的是,對GPT模型而言,千億參數(shù)似乎是一個實現(xiàn)智力涌現(xiàn)的臨界點。GPT-3正是在突破了這個點后,才表現(xiàn)出了令人驚嘆的性能,從而讓此前名不見經(jīng)傳的OpenAI一舉奠定了在業(yè)界的地位。在看到GPT的成功之后,各大企業(yè)紛紛將把模型做大作為了攻關的重點。在一番嚴重的內卷之下,參數(shù)量很快就從千億級膨脹到了萬億級,甚至十萬億級。

      從理論上講,更大的參數(shù)量應該可以為模型的性能帶來更為廣闊的空間。不過,更廣闊的空間和模型的實際表現(xiàn)并不總是一致的。模型的參數(shù)量如果太小,可能把握不住數(shù)據(jù)提供的信息,其性能固然會不好,但如果其參數(shù)過多,也完全沒有必要。不僅如此,當模型的參數(shù)過多時,還可能帶來很多負面問題:首先,在訓練它時,需要投入過高的算力資源,從而導致過高的成本;其次,在應用它時,則會有“大炮打蚊子”之嫌,不僅浪費資源,而且影響使用效果;再次,它還可能導致“過擬合”等問題,造成模型的外推效果欠佳。正是因為以上原因,所以很多AI開發(fā)企業(yè)在致力于大模型開發(fā)的同時,開始紛紛試圖通過剪枝、參數(shù)共享、知識蒸餾等方式對模型進行壓縮,從而實現(xiàn)大模型的小型化。

      現(xiàn)在,很多AI企業(yè)組建了小模型團隊,專門負責AI小模型的開發(fā)。其中,Meta在這個方向的行動似乎是最早的。早在去年2月,它就推出了LLaMA模型。和千億級別參數(shù)的GPT模型不同,LLaMA有幾個不同的版本,各版本的參數(shù)量從70億到630億不等。由于其完全開源,并且參數(shù)量相對較少,便于訓練,因此在推出之后,很快就成為了廣大開發(fā)者青睞的對象。在Meta之后,各企業(yè)也陸續(xù)推出了一系列小模型。比如,去年年底,微軟開源了一款名為Phi-2的自研小模型。根據(jù)報道,這款模型的參數(shù)僅27億,但它在常識推理、語言理解、數(shù)學和編碼等任務上的表現(xiàn)已經(jīng)超過了許多參數(shù)遠大于它的模型。

      可以預見,在未來的一段時間內,模型的小型化也將是AI大模型發(fā)展的一個重要方向。(c)可解釋性問題

      所謂可解釋性,就是對模型算法的機制及運行過程進行理解的可能性。或者更通俗地說,就是人們要能知道AI模型到底在干什么。

      現(xiàn)在的AI大模型都是建立在深度學習的基礎之上的。不同于回歸、支持向量機等傳統(tǒng)的機器學習模型,深度學習算法在可解釋性上本身就存在著很大的短板。而在大模型的參數(shù)膨脹到了千億量級之后,要解釋模型就更是難上加難。在多數(shù)時候,人們只知道運用自己的模型可以實現(xiàn)某個功能,但它到底是怎么做到這一切的,卻無從得知。

      模型在可解釋性上的缺陷會帶來很多問題。一方面,它會限制人們對模型的改進。一般來說,人們如果要改進模型,就必須要明白現(xiàn)在的模型究竟有哪些不足。但如果模型是不可解釋的,那么這個前提就不能成立。另一方面,它還可能潛藏很多風險。如果模型對于人們來說完全是一個黑箱,那么即使它正在悄悄執(zhí)行著一些可能對人們帶來潛在危害的任務,人們也很難及時發(fā)現(xiàn)并糾正。現(xiàn)在,包括OpenAI在內的一些機構都在努力嘗試讓AI進行自主的學習和演化。在這樣的前提下,如果人們根本不知道模型自我演化的方向究竟是什么,那將會是十分危險的。或許,在不經(jīng)意之間,《終結者》中的“天網(wǎng)”就會悄然降臨。

      針對以上問題,不少AI企業(yè)將提升可解釋性作為重點研究方向。現(xiàn)在,一個主流思路是“用魔法打敗魔法”,即用AI模型來對AI模型進行解釋。比如,Ope-nAI就曾嘗試用GPT-4來對AI模型進行解釋,并取得了一定的成果。盡管這些成果和人們的理想相比還存在著一定的距離,但其方向應該是正確的。可以想象,在未來的一段時間內,眾多企業(yè)和研究機構應該會沿著這個方向,繼續(xù)對AI模型的可解釋性進行探索。

      (2)邁向AGI

      除了對現(xiàn)有AI大模型的缺陷進行改進,以完善基礎大模型的性能之外,積極對通用人工智能(ArtificialGener-alIntelligence,簡稱AGI)進行探索也將會是AI企業(yè)和研究機構的研究方向。AGI這個名詞最早出現(xiàn)于瑞典哲學家尼克·波斯特羅姆(NickBostrom)2003年的論文,指的是智能水平遠超過人類的AI。后來,人們對AGI的概念進行了界定,認為只有當AI在所有方面的能力都達到人類水平,甚至超過人類時,才可以被稱為AGI。

      需要指出的是,雖然AGI的提法出現(xiàn)的時間并不久,但創(chuàng)造一個智能高于人類的AI的設想從人工智能這個學科開始時就已經(jīng)存在了。隨著GPT等大模型的出現(xiàn),這個夢想似乎比過去任何時間更近了。根據(jù)OpenAI公布的論文,GPT在完成很多任務時,水平都已經(jīng)接近或超過了人類。尤其是在完成某些考試時,其成績甚至高于人類。在加入了多模態(tài)能力之后,GPT更是補足了“視覺”、“聽力”等方面的能力,變得越來越像人了。

      那么,我們是不是可以說,現(xiàn)在的GPT,或者其他的什么模型已經(jīng)是AGI了呢?答案是否定的。事實上,盡管現(xiàn)在的AI在很多領域的表現(xiàn)優(yōu)于人類,但在另一些領域,它們的表現(xiàn)還遠不能和人相比。以學習為例,即使是一個幼兒,也可以通過少數(shù)的幾次學習,將動物與它的物種名對應起來。比如,給他看過了一只貓,下次在看到貓時,他就可以指出來——即使這只貓的品種和先前看到的有很多不同,甚至只是一只卡通貓,他也多半可以識別出來。然而,對于AI來說,要做到這一點,可能需要看數(shù)以萬計的貓的照片。

      為什么會這樣呢?這一方面源于人腦構造和AI模型之間的區(qū)別:比如,在人腦中,會有兩個不同的區(qū)域分別記錄一般信息和情景信息。人腦的這種構造使得人很容易在不同的情景之間進行切換和聯(lián)想,以非常低的學習成本進行知識的遷移。而現(xiàn)在的大模型則通常是根據(jù)抽象的物與物的關聯(lián)來進行學習的,因而它要學會一個事物,就需要通過海量數(shù)據(jù)的投入。另一方面,人與AI之間認識方式的差別也是導致兩者學習效率差別的重要原因。一般來說,人的學習過程是通過觀察,并在觀察的基礎上總結出因果關系,然后借由這個因果關系來理解事物。而現(xiàn)在AI的所謂學習過程則更多是借助于相關性,沒有考慮因果關系。這不僅會嚴重影響AI的學習效率,也會導致很多不必要的問題。

      針對以上問題,在未來幾年內,人們出于對AGI的追求,應當會努力去修補AI的上述缺陷,以拉近其與人腦之間的差距。具體來說,人們應該會繼續(xù)加強對人腦的研究,并努力將人腦的結構復刻到AI上。與此同時,因果推論等領域也可能會成為AI界的新熱點。

      AI技術的應用展望

      相比于對AI模型性能的改進,AI在各個領域的應用可能會帶來更多令人興奮之處。事實上,在過去一年多里,以ChatGPT、StableDiffusion、MidJourney為代表的一大批AI模型已經(jīng)得到了廣泛的應用。可以想象,隨著AI技術的發(fā)展,AI的應用將會變得更為廣泛。在此過程中,以下三個趨勢是最為值得注意的:

      (1)AI與行業(yè)的深度結合

      雖然很多行業(yè)已經(jīng)廣泛應用了AI模型,但到目前為止,AI在多數(shù)行業(yè)中扮演的角色依然是工具,或者至多是一個輔助者。對于人類而言,它們更多的是作為一個補充,而非替代。不過,隨著AI技術的發(fā)展,很多行業(yè)的“含AI量”正在迅速提升。這一點,不僅在文本整理、插畫繪制等領域得到了體現(xiàn),就連編程、醫(yī)藥開發(fā)、芯片設計等領域,也已經(jīng)出現(xiàn)了類似的勢頭。

      尤其需要重視的是,過去人們一度認為AI雖然可能在某些專業(yè)領域內勝過人,但在協(xié)調方面,人的作用依然是不可忽視的。根據(jù)這種觀點,隨著AI使用成本的降低,單個人+多個AI模型的新型工作模式將會成為主流。不過,這種情況或許只是一個短暫的過渡。隨著可以協(xié)調不同AI模型的AI智能體的出現(xiàn),完全由AI協(xié)調、AI執(zhí)行的全AI工作模式或許才是最終的發(fā)展方向。在去年5月,由微軟推出的HuggingGPT就已經(jīng)可以做到根據(jù)任務需要自行選擇所需要的AI模型,并監(jiān)督它們完成工作。雖然根據(jù)測試,其性能還有很多有待完善之處,但在此之后,已經(jīng)有很多開發(fā)者嘗試著從各個方面對其進行了優(yōu)化。相信在不久的將來,更為完美的全AI工作團隊就將出現(xiàn)。

      (2)智能應用的興起

      智能應用(IntelligenceApplica-tions)的概念最早出現(xiàn)于著名科技咨詢公司高德納(Gartner)的一份報告。顧名思義,所謂智能應用就是由AI賦能的應用軟件。和傳統(tǒng)的應用軟件不同,智能應用并不只是作為一個工具被動地被人們所使用,而是可以學習、適應使用者的使用習慣,并有針對性地為其提出新的解決方案,甚至幫助其直接進行一些任務的處理。

      在生成式AI技術取得突破后,已經(jīng)有一些軟件企業(yè)嘗試將AI集成到自己的應用當中,以提升其效能。其中,比較有代表性的就是微軟。目前,它已經(jīng)將智能工具Copilot集成到了其辦公軟件Office當中。通過Copilot,用戶可以更為便利地操控Office進行文檔處理、表格編輯、PPT制作等一系列工作。不過,從總體上看,這樣的融合案例還并不普及。根據(jù)高德納的估計,目前的所有獨立應用開發(fā)商當中,大約只有不到1%引入了AI進行賦能,而AI原生的應用則更是少見。

      之所以如此,主要是因為目前的AI發(fā)展還存在著很多的不足。一方面,正如前面所說的,現(xiàn)在的幻覺問題在AI模型中還很常見。雖然對于一般的聊天而言,這并不會造成太大的問題,但如果將這樣的AI模型應用到輔助工作,則可能會產(chǎn)生很大的問題。另一方面,在生成式AI發(fā)展的初期,模型基本都是單模態(tài)的,因而如果作為工作助手,其與用戶的交互并不能做到十分順暢。

      不過,隨著AI技術的進步,以上問題都在得到解決。尤其是現(xiàn)在多模態(tài)模型的發(fā)展,使將AI作為一個助手的角色植入各種應用已經(jīng)變得越來越可行。根據(jù)高德納的預測,到2026年,超過80%的獨立應用開發(fā)商會將AI植入自己的應用,并且大批AI原生的應用也將出現(xiàn)。

      (3)硬件的AI化

      在AI被植入越來越多的應用軟件的同時,AI與硬件的結合也將會成為一股趨勢。或許有人要問,既然現(xiàn)在AI的獲取已經(jīng)變得越來越容易,人們只要上網(wǎng),就可以在云端輕易調用各種AI模型,將AI直接植入硬件還有什么意義呢?在我看來,其理由至少有兩個方面:一方面,受服務器承載能力、網(wǎng)絡傳輸速度等因素的限制,人們對AI模型的調用可能并不流暢。并且至少在短期內,隨著人們對AI需求量的暴漲,這個矛盾還可能變得更為突出——這一點,從過去幾個月中人們使用ChatGPT的感受就可見一斑。如果可以將AI模型植入硬件,讓用戶直接從本地調用相關模型,就可以比較好地解決這個矛盾。另一方面,出于保護商業(yè)機密、隱私等需要,人們在使用某些硬件時并不會連接網(wǎng)絡,因而也就不可能在線調用模型。出于滿足這些需要的考慮,在硬件中直接植入AI就變得很有必要。

      從短期看,在AI硬件中,AIPC(個人計算機)和AI手機將是最有可能率先得到市場認可的,因而,它們也成為了很多企業(yè)重點押注的對象。以AIPC為例:目前包括戴爾、惠普、聯(lián)想在內的PC制造大廠都已經(jīng)相繼推出了自己的AIPC產(chǎn)品或產(chǎn)品方案,英偉達、英特爾、AMD等芯片巨頭則已經(jīng)開始為爭奪AIPC的芯片市場而努力。而作為軟件巨頭的微軟,則已經(jīng)從運行AI應用軟件的角度出發(fā)為AIPC制定了相關的配置標準。可以想見,在這些巨頭們的共同力捧之下,AIPC將會在未來的幾年內引發(fā)一波市場的熱潮。

      如果我們將眼光放得更為長遠一些,那么搭載了AI的機器人無疑將會是最為值得關注的AI硬件。僅僅在幾年前,人們還認為智能機器人進入家庭和辦公室是一個遙不可及的夢想,即使有機器人做到了這一點,也是形式大于內容,難以真正承擔復雜任務。然而,隨著近幾年軟硬件技術的發(fā)展,這個夢想正在一步步成為現(xiàn)實。目前,特斯拉民用人形機器人擎天柱(Optimus)的原型產(chǎn)品已經(jīng)迭代了數(shù)個版本,并且已可以完成一些相對復雜的任務。根據(jù)馬斯克的承諾,在未來幾年,擎天柱機器人的造價將會降到2萬美元以下。如果是這樣,那么這款機器人就可以真正地走入尋常百姓家了。斯坦福前不久發(fā)布的機器人MobileALOHA則為民用機器人提供了另外一個可行的路徑。與擎天柱不同,這款可以烹飪、做家務的機器人將其軟硬件進行了完全的開源,因而十分容易被廣大機器人制造商所效仿。因而可以預見,很快就會有很多制造商通過對MobileALOHA的配置進行改造,推出成本較低、功能較強的機器人。從這個角度看,MobileALOHA對機器人行業(yè)的意義恐怕不亞于開源的LLaMA模型對AI大模型行業(yè)的意義。

      AI的衍生需求展望

      隨著AI的迅速發(fā)展,大量對其進行支撐、輔助的需求也隨之衍生了出來。比如,算力供給、數(shù)據(jù)投入、安全保障、支撐服務等,都可以被歸入AI衍生需求的類別。限于篇幅,這里只討論算力供給和數(shù)據(jù)投入兩個方面。

      (1)算力供給

      眾所周知,以深度學習為基礎的AI模型都需要龐大的算力作為支撐。因而,AI迅猛發(fā)展的一個后果就是對算力的需求會出現(xiàn)暴漲。無論是訓練AI,還是使用AI,都需要投入龐大的算力。根據(jù)華為的報告《計算2030》,到2030年,全球通用計算(FP32)預計總量將達3.3ZFLOPS(注:FLOPS指每秒浮點運算次數(shù),是刻畫計算次數(shù)的單位。1Z=1021),其數(shù)量相當于2020年的10倍;而AI計算(FP16)總量則將達到105ZFLOPS,約為2020年的500倍。由此可見,AI的計算量將成為全社會總計算量的大頭。在這樣的情況下,算力供應將會成為制約AI發(fā)展的瓶頸。

      如何才能突破這個瓶頸呢?對于單個的應用企業(yè)而言,其選擇無外乎購買更多的芯片,或者使用云服務。這些需求表現(xiàn)在市場上,就是芯片,尤其是AI專用芯片價格的高企,以及云服務需求的猛增。可以預見,至少在未來一段時期內,這些現(xiàn)象依然將持續(xù),同時還會帶動一些其他的相關需求。比如,由于受傳輸速度影響等原因,調用云端算力來訓練和服務AI的效率可能較低,因而對邊緣計算的需求可能就會被調動起來。

      當然,如果是從整個社會或國家層面看,云計算和邊緣計算其實只是進行了算力的再分配,并不能從根本上解決算力總體上供不應求的問題。要從根本上解決這個問題,還需要從基本的算力供給單元——芯片上著手。而這又分為幾種不同的思路。

      一種思路是在現(xiàn)有的芯片設計思路下,通過制作工藝的優(yōu)化來不斷提升芯片的性能和產(chǎn)量。

      從根本上看,芯片的制作就是在微小的硅晶片上搭建復雜的集成電路。總體上看,在單位面積上排布的晶體管數(shù)量越多,芯片的性能就越強大。在過去的幾十年中,人們一直將提升芯片性能的著力點放在對光刻技術的改進上。其邏輯是非常直接的:當我們用的畫筆具有更細的筆尖,就更容易畫出細致的線條,同樣的,光刻的制程越小,就可以讓晶體管之間的間距(即所謂的柵格)越小,從而達到讓單位芯片排布更多晶體管的目的。然而,隨著光刻技術的不斷發(fā)展,要繼續(xù)在這一技術上實現(xiàn)進一步的突破已變得越來越困難。在這種情況下,人們開始考慮更多利用封裝技術來實現(xiàn)目標,由此引發(fā)了不少有價值的改進思路。其中,“芯粒”(Chiplet)技術就是一種頗有價值的嘗試。

      從本質上講,芯粒技術可以看作模塊化思路在芯片制作上的應用。在設計上,每一個芯粒是一個預制的、包含特定功能的微型集成電路。作為一種異構集成技術,基于芯粒的設計技術可利用先進的封裝技術在不改變晶體管電路的線寬、線距的前提下,將不同功能的多個異構芯片集成到單個芯片中,從而實現(xiàn)高密度的集成——其過程就像對樂高積木進行拼接一樣。得益于這種模塊化的設計思路,芯粒技術可以大幅降低設計的復雜度。不僅如此,由于芯片的良品率通常和其面積成反比,因而芯粒技術的出現(xiàn)還有望讓良品率大幅提升。

      在以上思路之外,另一種思路就是從全新計算原理出發(fā),重新探索、構造新的計算硬件。從現(xiàn)在的實踐看,從量子計算的角度來進行探索似乎是一條比較流行的思路,包括谷歌、微軟、IBM、英特爾在內的一眾業(yè)界巨頭都在量子計算和量子芯片領域投下了重注。如不出意外,至少在未來一段時間內,這些巨頭之間對于量子霸權的競逐將繼續(xù)持續(xù)。值得一提的是,就在巨頭們?yōu)榱孔佑嬎銧幤祁^的時候,一些初創(chuàng)企業(yè)則正在探索其他的方向。比如,創(chuàng)立于2022年的Extropic公司就是其中一例。有意思的是,Extropic公司的研究團隊來自谷歌的量子計算團隊。在老東家,他們曾經(jīng)設計了可用于在量子計算芯片上運行 AI模型的 TensorFlowQuantum,然而在創(chuàng)業(yè)之后,他們則試圖從非平衡熱力學的角度入手,力求研發(fā)一款全新原理的芯片。盡管這個方向比較小眾,但或許在未來的某個時候,正是這樣不走尋常路的新創(chuàng)企業(yè)會為我們找到從根本上突破算力瓶頸的道路。

      (2)數(shù)據(jù)投入

      現(xiàn)有的大模型的開發(fā)極端依賴于數(shù)據(jù)的投入。比如,為了開發(fā)和訓練GPT,OpenAI幾乎爬取了互聯(lián)網(wǎng)上所有可用的語料數(shù)據(jù),為此還因著作權侵權問題被《紐約時報》等媒體告上了法院。然而,隨著人們對模型性能要求日益不斷提升,現(xiàn)有的數(shù)據(jù)已經(jīng)難以滿足模型的訓練需求,人們就需要找尋新的訓練數(shù)據(jù)來源。

      針對這個問題,現(xiàn)在的一個思路是采用合成數(shù)據(jù),即AI生成的數(shù)據(jù)來訓練數(shù)據(jù)。盡管這個思路聽起來略顯荒誕,但事實上,相比于自然獲取的數(shù)據(jù),優(yōu)質的合成數(shù)據(jù)可以有效地剔除數(shù)據(jù)中的雜音,因而甚至可以達到更好的訓練效果。不僅如此,相比于通過傳統(tǒng)方式獲取數(shù)據(jù),合成數(shù)據(jù)將可以大幅降低成本,并且能有效地規(guī)避法律風險。因此,在未來的一段時間內,AI行業(yè)對于合成數(shù)據(jù)的需求應該會出現(xiàn)大幅增長。一部分資質較好的企業(yè)將可能成為專業(yè)的合成數(shù)據(jù)供應商,一個合成數(shù)據(jù)的交易市場也有望形成。

      結語

      到此為止,我們已經(jīng)圍繞著AI這個GPTs,探討了未來幾年內數(shù)字經(jīng)濟領域可能出現(xiàn)的一些趨勢。需要說明的是,盡管我認為AI應該是這段時期內最重要,且處于主導地位的一類技術,但其實在數(shù)字經(jīng)濟領域,還有很多新的技術也非常令人興奮。比如,就在最近,馬斯克宣布其旗下的腦機接口公司Neuralink已經(jīng)成功完成了首起將芯片植入大腦的試驗,并讓被試者實現(xiàn)了用意識控制電子設備;不久之后即將上市的AppleVisionPro則可能讓前幾年熱炒的元宇宙概念離現(xiàn)實更進一步……所有的這一切,都可能會給我們帶來無窮的驚喜。

      想到這些,我不禁回憶起2016年,著名經(jīng)濟學家泰勒·考恩(TaylorCowen)來中國為其著作《大停滯》(TheGreatStagnation)做宣發(fā),我曾主持過一次他與嘉賓的談話。在談話中,考恩不厭其煩地說,人類已經(jīng)摘取了所有低垂的技術果實,包括AI在內的數(shù)字技術從重要性上都不如洗衣機或抽水馬桶,在未來的幾十年中,社會將會陷入一段長時間的停滯。應該說,他的發(fā)言確實很有見地,但作為技術樂觀派的我卻很難贊同他的觀點。在談話的末尾,我曾經(jīng)和他說:“考恩先生,您或許應該給數(shù)字技術一些時間。再過幾年,您會看到它們真正的力量。”不知道在目睹了以AI為代表的數(shù)字技術的突飛猛進之后,考恩先生是否還堅持原有的想法。如果答案是否定的,那么我希望這一年的技術發(fā)展可以給我們提供更多說服他改變想法的理由。

       

      版權聲明:以上內容為《經(jīng)濟觀察報》社原創(chuàng)作品,版權歸《經(jīng)濟觀察報》社所有。未經(jīng)《經(jīng)濟觀察報》社授權,嚴禁轉載或鏡像,否則將依法追究相關行為主體的法律責任。版權合作請致電:【010-60910566-1260】。
      亚洲的天堂A∨无码视色
      <nav id="4uuuu"></nav>
    • <tr id="4uuuu"></tr>
    • <tr id="4uuuu"></tr>
    • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
      • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>