美東時間周二,微軟推出了一款輕量級AI模型Phi-3-mini。微軟聲稱,這款輕量級AI模型的性能與GPT-3.5等模型相當(dāng),同時適合在手機上本地使用。而更重要的是,該款模型的成本要低廉許多,這意味著它可以通過成本優(yōu)勢吸引更廣泛的客戶群。
微軟發(fā)布小語言模型
Phi-3-mini是微軟計劃發(fā)布的三款小型語言模型(SLM)中的第一款。
Phi-3 mini的可測量參數(shù)為38億個,其前一版本是微軟研究院于2023年底發(fā)布的Phi-2模型,該模型具備27億個可測量參數(shù)。微軟表示,Phi-3的性能比前一版本更好,其響應(yīng)速度接近比它大10倍的模型。
微軟表示,根據(jù)學(xué)術(shù)基準(zhǔn)和內(nèi)部測試對Phi-3 mini的性能進(jìn)行評估后發(fā)現(xiàn),該模型有能力與“Mixtral 8x7B和GPT-3.5”等模型競爭。
該公司表示,Phi-3 mini在大規(guī)模多任務(wù)語言理解(MMLU)測試中獲得了69%的評分,在Multi-turn(MT)基準(zhǔn)測試中獲得了8.38的評分。
不過微軟也承認(rèn),盡管具有與LLM相媲美的能力,但Phi-3 mini“在執(zhí)行某些任務(wù)時,從根本上受到容量的限制”。“該模型不具備存儲太多事實知識的能力”,不過微軟斷言“這種弱點可以通過搜索引擎的增強來解決”。
“不只是便宜一點”
微軟負(fù)責(zé)生成式AI研究的副總裁Sassabastien Bubeck強調(diào):“Phi-3不只是稍微便宜一點,而是便宜得多。與具有類似功能的其他模型相比,他們的成本相差10倍。”
小語言模型旨在執(zhí)行更簡單的任務(wù),這意味著它更適配于那些資源有限的公司。
該公司表示,Phi-3-mini將即刻在微軟云服務(wù)平臺Azure的人工智能模型目錄、機器學(xué)習(xí)模型平臺hugs Face和用于在本地機器上運行模型的框架Ollama上提供。
Phi-3-mini還將可以在英偉達(dá)的軟件工具Nvidia Inference Microservices (NIM)上使用,并且還針對其圖形處理單元(GPU)進(jìn)行了優(yōu)化。
來源:財聯(lián)社 作者:劉蕊