就在剛剛,量子位獲悉,大模型創(chuàng)業(yè)六小強之一的智譜,已最新完成一輪30億人民幣融資! 新資方包括多家戰(zhàn)投及國資,君聯(lián)資本等繼續(xù)跟投。 這是智譜近三個月來的第二輪融資。 就在9月,中關(guān)村科學城公司宣布以投前200億估值領(lǐng)投智譜,智譜也是國內(nèi)估值率先超過200億的大模型創(chuàng)業(yè)企業(yè)。 量子位不完全統(tǒng)計,智譜官方曾披露的融資情況如下: 2021年披露完成A輪過億元融資,達晨財智、華控基金、將門創(chuàng)投等聯(lián)合投資;2022年宣布獲得數(shù)億元人民幣的B輪融資,君聯(lián)資本和啟明創(chuàng)投聯(lián)合領(lǐng)投;2023年披露累計獲得超25億人民幣融資,資方包括君聯(lián)資本、美團、螞蟻、阿里、騰訊、小米、金山、順為、Boss直聘、好未來、紅杉、高瓴等。 與此同時,智譜這次還罕見對外披露了商業(yè)化戰(zhàn)績,這也是其首次公開。 具體數(shù)據(jù)如下: 截止目前,智譜今年商業(yè)化收入增長超過100%。 智譜開放平臺bigmodel.cn,API年收入同比增長超30倍。 平臺日均Tokens消耗量增長150倍,其中付費Tokens增長超過40倍。 MaaS平臺擁有70萬企業(yè)和開發(fā)者用戶,付費客戶數(shù)增長超20倍。 C端產(chǎn)品智譜清言擁有超過2500萬用戶,三季度清言開始上線付費功能,ARR(年度經(jīng)常性收入)收入超千萬。 那么,問題來了——吸了如此多金&商業(yè)化戰(zhàn)績頗豐的智譜,下一步要做什么? 進一步研發(fā)智譜基座大模型 智譜透露,本輪融資將用于智譜基座大模型的進一步研發(fā): 從回答問題升級到解決復雜推理、多模態(tài)任務,更好地支撐行業(yè)生態(tài)發(fā)展。 就在剛剛結(jié)束的由量子位主辦的行業(yè)峰會——MEET 2025智能未來大會上,智譜COO張帆剛好也透露了一些訊息。 他表示,OpenAI發(fā)布了對AGI目標能力的分級,智譜也有自己的理解。 智譜把AGI分為五個等級: 第一級是語言,智譜“已經(jīng)做得非常不錯了”。 第二級是對復雜問題的求解,可以看到o1這樣的能力出現(xiàn),對模型的應用類似從“大腦的系統(tǒng)1”轉(zhuǎn)化為“系統(tǒng)2”,從簡單直覺的回答,變成了深度性思考和拆解。 第三級開始使用工具,回答復雜問題時,不但能直接做深度思考,還能夠跟外界持續(xù)交互獲取信息。比如自主智能體不但能夠通過API,還可以像人一樣操作手機、PC甚至汽車的界面來獲取信息。 第四級是實現(xiàn)自我學習。 第五級還沒有非常明確的定義,但方向是超越人類,AI將具備探究科學規(guī)律、世界起源等終極問題的能力。 張帆表示,智譜在不斷地探索和豐富模型的能力,從最開始的語言能力,到L2的復雜問題的能力,到工具能力以及現(xiàn)在正在試圖解決的第四級別的GLM-zero和GLM-OS等能力。 這就來系統(tǒng)盤點一下智譜的探索路線。 端到端多模態(tài)和Agent布局初見規(guī)模 Sora爆火開年,之后多模態(tài)模型競相出現(xiàn),再到如今深度推理模型成頂流,端側(cè)大模型和Agent技術(shù)成新風向。 梳理來看,智譜每一步都沒有落下。 先有對標Sora的視頻生成模型CogVideoX、對標GPT-4o的端到端語音模型GLM-4-Voice和GLM-4-VideoCall。 后有近期逐漸清晰的Agent和端側(cè)領(lǐng)域布局—— 智能體產(chǎn)品AutoGLM/GLM-PC、適配高通驍龍旗艦芯片的端側(cè)大模型先后發(fā)布。 而在這其中,和OpenAI等不同,智譜一以貫之的準則之一是持續(xù)開源。 翻看智譜早期的GLM報告,就會發(fā)現(xiàn)里面有“我們邀請大家加入它的開放社區(qū),推動大規(guī)模預訓練模型的發(fā)展”的字樣,這家公司將“用開源的方式和開發(fā)者、行業(yè)用戶交個朋友”的習慣延續(xù)到現(xiàn)在。 根據(jù)目前數(shù)據(jù),ChatGLM等20余款模型已獲15萬GitHub星標,開源模型全球下載量3000萬。 以下是智譜今年的技術(shù)發(fā)布時間軸: 11月,發(fā)布AutoGLM升級版,可自主執(zhí)行超50步的長步驟操作,也可以跨app執(zhí)行任務,開啟“全自動”上網(wǎng)新體驗,支持基于瀏覽器的數(shù)十個網(wǎng)站的無人駕駛。 11月,發(fā)布GLM-PC內(nèi)測,基于智譜多模態(tài)模型CogAgent,探索“無人駕駛”PC?纱嬗脩魠⑴c視頻會議、處理文檔、搜索網(wǎng)頁并總結(jié)、遠程定時操作。 11月,視頻模型CogVideoX升級,支持10s時長、4k、60幀超高清畫質(zhì)、任意尺寸以及更好人體動作和物理世界模擬。CogVideoX v1.5-5B、CogVideoX v1.5-5B-I2V同期開源。 10月,GLM-4-Voice端到端情感語音模型發(fā)布,并上線清言app,能夠理解情感,有情緒表達、情感共鳴,可自助調(diào)節(jié)語速,支持多語言和方言,并且延時更低、可隨時打斷。 10月,AutoGLM內(nèi)測版發(fā)布,只需接收簡單的文字/語音指令,就可以模擬人類操作手機,不受限于API調(diào)用。 10月,和三星、高通宣布合作,分別共同打造AI產(chǎn)品和端側(cè)多模態(tài)交互大模型。 8月,發(fā)布跨文本音頻和視頻模態(tài)實時推理大模型GLM-4-Videocall,實現(xiàn)AI與人實時視頻通話。通過API接口可無縫部署在包括手機在內(nèi)各類帶攝像頭端側(cè)設備。 8月,新一代基座大模型GLM-4-Plus發(fā)布,語言理解、指令遵循、長文本處理等方面性能全面提升。 7月,視頻生成模型“清影”在清言PC端、移動應用端以及小程序端正式上線,提供文本生成視頻和圖像生成視頻的服務,30秒即可完成6秒視頻生成,真實還原物理世界中的運動過程。 6月,GLM-4-9B模型開源,支持100萬Tokens長文本和26種語言,并首次開源了基于GLM的視覺模型GLM-4V-9B,多模態(tài)能力比肩GPT-4V。 1月,新一代基座大模型GLM-4發(fā)布,整體性能相比上一代大幅提升,支持更長上下文,具備更強多模態(tài)能力,推理速度更快,支持更高并發(fā),大大降低推理成本。 隨著年末將至,大模型創(chuàng)業(yè)新一年的風暴也即將出現(xiàn)。 本文來源:量子位 |
原創(chuàng)欄目
IT百科
網(wǎng)友評論
聚超值•精選