訂閱
糾錯(cuò)
加入自媒體

從“天價(jià)”到“骨折價(jià)”,大模型要變天了

文|藝    思

編|王一粟

 

十年后,國(guó)內(nèi)云廠商又打起來(lái)了! 

近一個(gè)月,國(guó)內(nèi)云廠商掀起了新一輪的大模型降價(jià)潮。這意味著AI競(jìng)爭(zhēng)已經(jīng)不僅僅是一場(chǎng)軍備技術(shù)競(jìng)賽這么簡(jiǎn)單,各頭部廠商也在考慮如何賺錢了。 

在這場(chǎng)價(jià)格戰(zhàn)中,包括火山引擎、阿里,還有智譜AI、面壁智能這樣的明星創(chuàng)業(yè)團(tuán)隊(duì)都卷了進(jìn)來(lái)。各家看似是在降價(jià),其實(shí)是想通過(guò)比低價(jià),快速搶占市場(chǎng),從而實(shí)現(xiàn)商業(yè)化的快速落地。

從卷大模型技術(shù)到卷價(jià)格

在眾人看來(lái),可能頭部大廠最具降價(jià)的底氣和實(shí)力,因?yàn)榇髲S的業(yè)務(wù)比較多,就算AI業(yè)務(wù)虧錢,也可通過(guò)其他業(yè)務(wù)來(lái)彌齊,但有關(guān)大模型價(jià)格戰(zhàn)的發(fā)起人卻是明星創(chuàng)業(yè)團(tuán)隊(duì)——智譜AI。 

5月11日,智譜AI大模型開放平臺(tái)上線了新的價(jià)格體系,新注冊(cè)用戶獲得額度從500萬(wàn)tokens 提升至2500萬(wàn)tokens,并且個(gè)人版 GLM-3Turbo模型產(chǎn)品的調(diào)用價(jià)格從5元/百萬(wàn)tokens降低至1元 / 百萬(wàn)tokens,足足降了5倍。但這還不夠,GLM-3 Turbo Batch 批處理 API也便宜了50%,價(jià)格為1元 /200萬(wàn)tokens。

4天后,火山引擎放出一記重彈,宣布豆包Pro 32k模型定價(jià)是0.8厘/千tokens,這個(gè)價(jià)格比行業(yè)降低了99.3%,此外,豆包Pro 128k模型定價(jià)是5厘錢/千tokens。與行業(yè)模型比,價(jià)格足足降低了95.8%。 

這則消息一經(jīng)放出,整個(gè)AI圈都不淡定了。有人稱,火山引擎將大模型帶入到了“厘時(shí)代”。 

我們算一筆賬,以主力模型32k窗口為例,1塊錢可以從GPT買到2400個(gè)token,如果選擇國(guó)內(nèi)模型,大概能得到8000多個(gè)token。如果用開源Llama自己搭建,大概可以獲得3萬(wàn)個(gè)token。但通過(guò)豆包模型,1塊錢就能獲得125萬(wàn)個(gè)token。這是什么概念?相信《三國(guó)演義》很多人都讀過(guò),共計(jì)75萬(wàn)字,換算過(guò)來(lái),也就是1塊錢能處理3本《三國(guó)演義》的文字量。 

與其他大模型比起來(lái),火山引擎簡(jiǎn)直是白菜價(jià),幾乎等于不要錢?梢哉f(shuō),火山引擎此次降價(jià),將大模型價(jià)格戰(zhàn)推向了高潮。 

火山引擎發(fā)布會(huì)后的兩天,騰訊集團(tuán)高級(jí)執(zhí)行副總裁、云與智慧產(chǎn)業(yè)事業(yè)群CEO 湯道生在騰訊云生成式AI產(chǎn)業(yè)應(yīng)用峰會(huì)上介紹了混元大模型的技術(shù)、性能、安全、使用門檻低等特點(diǎn),雖然沒(méi)有公開介紹價(jià)格。但據(jù)騰訊云官網(wǎng)顯示,混元大模型可以為首次使用者提供10萬(wàn)tokens的文本生成模型免費(fèi)體驗(yàn)額度,有效期為1年。而在tokens資源包的價(jià)格方面,窗口尺寸為32K的hunyuan-standard模型和hunyuan-pro模型,它們的模型推理輸入價(jià)格分別為0.0069元/千tokens和0.069元/千tokens,兩者均為刊例價(jià)的6.9折。 

與此前比,價(jià)格明顯降低了。據(jù)騰訊云官網(wǎng)一份更新于5月14日的計(jì)費(fèi)信息顯示,混元大模型標(biāo)準(zhǔn)版(hunyuan-standard的前身)和高級(jí)版(hunyuan-pro的前身)此前的模型推理輸入價(jià)格分別為0.012元/千tokens和0.12元/千tokens。

雖然幾家大廠中,阿里云的降價(jià)策略還不明顯,但早在今年2月29日,其就釋放出一個(gè)降價(jià)的信號(hào),堪稱阿里云史上力度最大的降價(jià),本次降價(jià)涉及100多款產(chǎn)品、500多個(gè)產(chǎn)品規(guī)格。其中,云服務(wù)器ECS最高降36%、對(duì)象存儲(chǔ)OSS最高降55%、云數(shù)據(jù)庫(kù)RDS最高降40%,而這三項(xiàng)都是用戶使用頻率最高的產(chǎn)品。 

從阿里云的降價(jià)清單中不難看出,降價(jià)的主力是傳統(tǒng)云計(jì)算產(chǎn)品,雖然不涉及大模型,諸如GPU的AI訓(xùn)練和推理算力。但云和大模型的發(fā)展是相輔相成的,由此可以推斷,在大模型這波價(jià)格戰(zhàn)中,未來(lái)阿里云甚至更多大模型廠商很可能會(huì)加入進(jìn)來(lái),只不過(guò)各家的節(jié)奏不同。

反觀過(guò)去一年OpenAI的動(dòng)作,降價(jià)似乎一直是其主線任務(wù)。自去年以來(lái),OpenAI已經(jīng)進(jìn)行了4次降價(jià)。在剛剛結(jié)束的春季發(fā)布會(huì)上,OpenAI宣布了其最新模型GPT-4o,不僅性能有大幅提升,價(jià)格也下調(diào)了50%。

大模型價(jià)格戰(zhàn)的序幕已然揭開了。

價(jià)格戰(zhàn),意欲何為?

目前,國(guó)產(chǎn)大模型的價(jià)格戰(zhàn)正在如火如荼的進(jìn)行中。 

有人難免發(fā)問(wèn):大模型本就是一個(gè)高投入、低產(chǎn)出的行業(yè),為什么要打價(jià)格戰(zhàn)? 

結(jié)論非常簡(jiǎn)單:“加快商業(yè)化落地。” 

從去年下半年開始,大模型已經(jīng)開始從“卷大模型技術(shù)”向“卷大模型應(yīng)用”轉(zhuǎn)變。2024 年,商業(yè)化、落地應(yīng)用將成為大模型公司的主旋律。 

最新的《中國(guó)大模型中標(biāo)項(xiàng)目監(jiān)測(cè)報(bào)告》顯示,今年 1-4 月,可統(tǒng)計(jì)到的大模型相關(guān)中標(biāo)金額已達(dá)到 2023 年全年披露金額的 77% 左右,涉及政務(wù)、金融、運(yùn)營(yíng)商、能源、教科、交通等各行各業(yè),表明企業(yè)對(duì)大模型的應(yīng)用需求正快速增長(zhǎng)。

面對(duì)商業(yè)化,為何如此急切?

原因有二。一是,大模型研發(fā)成本越來(lái)越高。眾所周知,算力一直是國(guó)產(chǎn)大模型發(fā)展的掣肘。一方面,目前全球的算力技術(shù),美國(guó)占據(jù)了全球近9成的算力市場(chǎng)份額,幾乎被其壟斷。相比之下,中國(guó)算力荒的現(xiàn)象越來(lái)越嚴(yán)峻。 

據(jù)相關(guān)數(shù)據(jù),中國(guó)目前的算力需求量約為每年1.5億臺(tái)的服務(wù)器,而中國(guó)的算力供給量?jī)H為每年3000萬(wàn)臺(tái)的服務(wù)器,缺口達(dá)到了1.2億臺(tái),占到了全球算力缺口的80%。與之而來(lái)的是,算力租賃服務(wù)的水漲船高。其中,并濟(jì)科技、中貝通信、匯納科技等公司宣布算力服務(wù)收費(fèi)大幅上漲,導(dǎo)致大模型研發(fā)成本進(jìn)一步提升。

在巨大的成本壓力下,大模型廠商不得不加緊尋找一條商業(yè)化之路。

二是,大模型技術(shù)已經(jīng)卷的差不多了,通用模型具備的是通識(shí)能力,是不能解決特定行業(yè)特定場(chǎng)景的實(shí)際問(wèn)題的,只有一項(xiàng)技術(shù)被成功大規(guī)模商用才是真正的成功,顯然,經(jīng)過(guò)一年的技術(shù)比拼,已經(jīng)到了驗(yàn)證的階段。

為了加快大模型的商業(yè)化落地,國(guó)內(nèi)各企業(yè)紛紛行動(dòng)起來(lái)。目前大模型的商業(yè)化落地大致有兩種路徑:一是API調(diào)用,二是,私有化部署。

API調(diào)用是最常見的落地方式。智譜AI自研的第四代基座大模型 GLM-4的調(diào)用價(jià)格仍為0.1元/千 tokens,百萬(wàn)tokens的價(jià)格為100元,通義千問(wèn)相對(duì)低,但qwen-72b-chat的調(diào)用價(jià)格也在0.02元/千tokens,OpenAI的GPT-4 Turbo 每100萬(wàn)tokens輸入/輸出價(jià)格分別是10/30美元。

從短期來(lái)看,雖然成本不高,但對(duì)于需求量較大的用戶和行業(yè)來(lái)說(shuō),就顯得不是很友好了。 

而私有化部署就更貴了。截至目前,國(guó)內(nèi)沒(méi)有一家廠商披露具體的大模型訓(xùn)練成本,但從多位行業(yè)人士口中得出,大模型的研發(fā)成本遠(yuǎn)比想象中高的多,動(dòng)輒成千上百萬(wàn),甚至需要以“億”來(lái)計(jì)算。

華為大模型負(fù)責(zé)人田奇曾提到,大模型開發(fā)和訓(xùn)練一次需要約1200萬(wàn)美元,這表明即使技術(shù)再領(lǐng)先的公司,大模型的訓(xùn)練也是非常昂貴的。 

百川智能創(chuàng)始人CEO王小川也曾表示,每1億參數(shù)對(duì)應(yīng)訓(xùn)練成本在1.5到3萬(wàn)人民幣之間。因此,一個(gè)千億級(jí)參數(shù)的模型單次訓(xùn)練成本預(yù)估在三千萬(wàn)至五千萬(wàn)人民幣之間。Anthropic的首席執(zhí)行官Dario Amodei也預(yù)測(cè)過(guò),未來(lái)兩年內(nèi)模型成本將達(dá)到100億美元。 

顯然,API調(diào)用和研發(fā)的高昂價(jià)格,已經(jīng)成了AI商業(yè)化的枷鎖。久而久之,大模型就變成了有錢人的游戲,肯定不利于大規(guī)模商業(yè)化。 

而價(jià)格戰(zhàn)就成了最直接且最快速的落地方式。但并不是所有企業(yè)都能加入進(jìn)來(lái),因?yàn)橹挥邪汛竽P偷难邪l(fā)成本盡可能的降低到最小,才有降價(jià)的空間和資本。

如前文所述,大模型最大的研發(fā)成本是算力,所以很多廠商往往會(huì)通過(guò)提高大模型的訓(xùn)練效率、降低推理成本兩種手段來(lái)降本。 

中國(guó)工程院院士鄭緯民曾做過(guò)這樣的計(jì)算,在大模型訓(xùn)練的過(guò)程中,70%的開銷要花在算力上;推理過(guò)程中95%的花費(fèi)也是在算力上。為何在推理上做文章,也就不言而喻了。 

比如微軟在Microsoft Build 2020 上,公開了為GPT-3提供支持的AI supercomputing超級(jí)計(jì)算機(jī),其可以讓大模型的訓(xùn)練效率比其他平臺(tái)高16倍,從而降低時(shí)間成本與風(fēng)險(xiǎn)成本。

國(guó)產(chǎn)大模型也不例外。盤古大模型早在2.0版本中,就嘗試用稀疏+稠密架構(gòu),來(lái)降低訓(xùn)練成本。文心一言推出一個(gè)月后,也通過(guò)技術(shù)手段將大模型的推理性能提升近10倍,推理成本降到原來(lái)的十分之一。 

阿里云通義大模型則聚焦于規(guī)模定理,基于小模型數(shù)據(jù)分布、規(guī)則和配比,研究大規(guī)模參數(shù)規(guī)模下如何提升模型能力,并通過(guò)對(duì)底層靈駿集群的優(yōu)化,將模型訓(xùn)練效率提升了30%,訓(xùn)練穩(wěn)定性提升了15%。 

而騰訊選擇了一條不同于百度和阿里的路子,其將機(jī)器學(xué)習(xí)框架Angel、訓(xùn)練以及推理框架進(jìn)行迭代升級(jí),其中,Angel可以將大模型訓(xùn)練效率提升至主流開源框架的2.6倍,千億級(jí)大模型訓(xùn)練可節(jié)省50%算力成本。 

訓(xùn)練框架方面,騰訊自研機(jī)器學(xué)習(xí)訓(xùn)練框架AngelPTM,可針對(duì)預(yù)訓(xùn)練、模型精調(diào)和強(qiáng)化學(xué)習(xí)等全流程進(jìn)行加速和優(yōu)化,實(shí)現(xiàn)以更少的資源和更快的速度訓(xùn)練更大的模型;推理方面,騰訊推出大模型推理框架AngelHCF,通過(guò)擴(kuò)展并行能力,實(shí)現(xiàn)更快的推理性能和更低成本,相較于業(yè)界主流框架,其推理速度提高了1.3倍。

競(jìng)速大模型商業(yè)化

云廠商亮劍

觀察下來(lái),阿里、騰訊、字節(jié)的商業(yè)化路徑基本趨同,即“迭代通用模型的能力+構(gòu)建完整的生態(tài)+研發(fā)創(chuàng)新型AI產(chǎn)品”,但也有不同的側(cè)重點(diǎn)。 

持續(xù)迭代大模型能力,是大模型商業(yè)化的前提。 

去年至今,國(guó)內(nèi)幾家大廠都在持續(xù)迭代大模型的能力,百度先發(fā)制人于去年3月推出文心一言,目前文心大模型已經(jīng)迭代至4.0版本,同時(shí)還推出了多個(gè)輕量級(jí)大語(yǔ)言模型。其后是阿里,去年4月通義千問(wèn)大模型問(wèn)世,經(jīng)過(guò)2.0、2.1現(xiàn)已迭代至2.5版本。 

騰訊算是BAT中最晚的一家,去年9月混元問(wèn)世。隨后,騰訊并沒(méi)有像前兩者一樣,通過(guò)迭代新版本來(lái)擴(kuò)大聲量,而是通過(guò)技術(shù)能力彰顯其實(shí)用性。諸如升級(jí)機(jī)器學(xué)習(xí)框架Angel、機(jī)器學(xué)習(xí)訓(xùn)練框架AngelPTM以及大模型推理框架AngelHCF。另外,騰訊前段時(shí)間還開源了文生圖大模型,包括后續(xù)文生視頻能力的升級(jí),通過(guò)這一些列動(dòng)作讓大模型滲透到千行百業(yè)。

而字節(jié)算是最特殊的一家,其僅用一年的時(shí)間就將豆包模型從1.0進(jìn)化到了3.0,而從今年火山引擎發(fā)布的豆包模型家族中看,不僅包括兩款通用模型 pro、lite,還推出了7款功能性模型,涵蓋角色扮演、語(yǔ)音識(shí)別、語(yǔ)音合成、聲音復(fù)刻、文生圖等方面。說(shuō)明火山引擎未來(lái)將深入到不同行業(yè)不同場(chǎng)景。 

眾所周知,調(diào)用量的大小會(huì)直接影響模型的效果,在這方面,目前文心大模型日調(diào)用量達(dá)到2億,通義大模型也已過(guò)億,字節(jié)豆包大模型的日調(diào)用量達(dá)到1200億tokens(約1800億漢字)。 

強(qiáng)生態(tài),是大模型商業(yè)化的加速器。 

生態(tài)構(gòu)建方面,幾家大廠包括百度、阿里、字節(jié)火山引擎等都采取了一個(gè)相同的路徑——構(gòu)建大模型平臺(tái),不僅提供自家模型服務(wù)還接入了第三方開源大模型,方便客戶按需調(diào)用。諸如百度智能云千帆大模型平臺(tái),阿里的百煉平臺(tái)、騰訊元器以及火山引擎的方舟平臺(tái)。 

為了加速大模型滲透,拓展商業(yè)化市場(chǎng)的空間。阿里堅(jiān)定開源,去年8月通義開源,之后沿著“全模態(tài)、全尺寸”的開源路線,阿里云開源了 8 款參數(shù)規(guī)模從 5 億到 1100 億的大語(yǔ)言模型。其中,面向端側(cè)設(shè)備,開源了如0.5B、1.8B、4B、7B、14B小尺寸模型;面對(duì)企業(yè)級(jí)用戶,開源了如72B、110B的大尺寸模型。此外,通義還開源了視覺(jué)、音頻、代碼、混合專家模型。 

而阿里的開源要追溯到2022年,也就是在大模型爆火的前一年,阿里云就完成了魔搭(ModelScope)社區(qū)的搭建,該社區(qū)推出阿里就把其近五年研發(fā)的 300 多個(gè)優(yōu)質(zhì)模型全部開源出來(lái)。周靖人還介紹道,魔搭社區(qū)平臺(tái)仍在持續(xù)擴(kuò)大建設(shè),平臺(tái)上的高質(zhì)量開源模型總數(shù)已超過(guò) 4500 個(gè),開發(fā)者數(shù)量也已超過(guò)500 萬(wàn)。

與阿里一樣,騰訊在大模型商業(yè)化的競(jìng)逐賽中,同樣選擇了開源路線。不久前,騰訊云全面開源了混元文生圖模型。騰訊混元模型應(yīng)用負(fù)責(zé)人張鋒表示,“在過(guò)去非大模型時(shí)代,我們就開源了很多項(xiàng)目,在大模型時(shí)代做出開源的決定,是最近半年騰訊與客戶接觸過(guò)程中得出的結(jié)論。”

而最早入局的百度卻一直在堅(jiān)持閉源路線。百度認(rèn)為,閉源大模型能實(shí)現(xiàn)比開源大模型性能更好、成本更低的綜合效果,從而促進(jìn)AI應(yīng)用生態(tài)的繁榮。 

AI重構(gòu)內(nèi)部產(chǎn)品,是大廠進(jìn)行大模型商業(yè)化的第一站。 

目前,百度已經(jīng)完成了對(duì)百度文庫(kù)、百度搜索、百度地圖、如流等業(yè)務(wù)的AI重構(gòu)。阿里則對(duì)釘釘、高德地圖、閑魚、餓了么、優(yōu)酷、盒馬、淘票票,天貓、淘寶等阿里集團(tuán)最核心的產(chǎn)品進(jìn)行了全面升級(jí)。 

字節(jié)內(nèi)部也開啟了賽馬機(jī)制,抖音、剪映等50多個(gè)業(yè)務(wù)線各自為營(yíng)開始了AI探索,此外,字節(jié)也不改“App工廠”的本色。過(guò)去一年里,除了主打的豆包App外,基于豆包大模型,還推出了互動(dòng)娛樂(lè)應(yīng)用“貓箱”,以及星繪、即夢(mèng)等AI創(chuàng)作工具。 

而騰訊作為大模型中最低調(diào)的一家,卻在產(chǎn)品側(cè)表現(xiàn)的尤為不低調(diào)。秉持著產(chǎn)業(yè)實(shí)用的原則,自去年9月混元上線以來(lái),騰訊就將內(nèi)部產(chǎn)品的AI化改造作為重點(diǎn)工作推進(jìn),目前,混元大模型已經(jīng)在超600個(gè)騰訊內(nèi)部業(yè)務(wù)和場(chǎng)景中落地。包括企業(yè)微信、騰訊會(huì)議、騰訊文檔等“一門三杰”產(chǎn)品,也包括騰訊樂(lè)享、騰訊電子簽、騰訊問(wèn)卷、騰訊云AI代碼助手等協(xié)作SaaS產(chǎn)品。 

加速行業(yè)滲透,大模型商業(yè)化的最后一公里。

無(wú)論是通用模型還是行業(yè)模型,最終的落地其實(shí)就是要解決特定行業(yè)、特定場(chǎng)景下的實(shí)際難題。當(dāng)然在行業(yè)的選擇上,有交叉,也有不同的方向。

基于文心大模型,百度率先重構(gòu)了數(shù)字政府、金融、工業(yè)、交通四大行業(yè)解決方案;依托騰訊云TI平臺(tái),騰訊云打造了行業(yè)大模型精選商店,覆蓋金融、文旅、政務(wù)、傳媒、教育等十個(gè)行業(yè),可提供超50個(gè)解決方案。同時(shí),騰訊云還攜手17家來(lái)自不同行業(yè)的生態(tài)伙伴,發(fā)起了“騰訊云行業(yè)大模型生態(tài)計(jì)劃”,致力于共同推進(jìn)大模型在產(chǎn)業(yè)領(lǐng)域的創(chuàng)新和落地。

阿里也于去年發(fā)布了8個(gè)行業(yè)大模型,覆蓋金融、醫(yī)療、法律、編程、個(gè)性化創(chuàng)作等領(lǐng)域。 

而據(jù)信息顯示,目前火山引擎已經(jīng)與吉利汽車、長(zhǎng)城汽車、捷途汽車、賽力斯、智己汽車等20余家廠商成立了汽車大模型生態(tài)聯(lián)盟。同時(shí),還與OPPO、vivo、榮耀、小米及華碩等終端廠商共同成立了智能終端大模型聯(lián)盟。由此推斷,火山引擎很可能率先這兩個(gè)行業(yè)作為抓手,待成熟后再向其他行業(yè)滲透。

結(jié)語(yǔ)

經(jīng)過(guò)一年的時(shí)間,大模型的競(jìng)爭(zhēng)已經(jīng)從卷大模型技術(shù)本身,過(guò)渡到了卷大模型商業(yè)化的階段。

如大模型研發(fā)一樣,大模型的商業(yè)化落地同樣不是一件易事,前者考驗(yàn)的更多的是技術(shù)和資本,而后者在前者的基礎(chǔ)上,還需要根據(jù)不同行業(yè)、不同的業(yè)務(wù)場(chǎng)景,對(duì)大模型進(jìn)行微調(diào),從而提供一款真正能為企業(yè)所需的大模型服務(wù)。 

目前,各大模型廠商紛紛亮劍,但這只是開始,接下來(lái)很長(zhǎng)一段時(shí)間內(nèi),各頭部將持續(xù)圍繞如何加快大模型落地做文章,競(jìng)爭(zhēng)的同時(shí),也會(huì)把大模型推向一個(gè)新的發(fā)展階段。

       原文標(biāo)題 : 從“天價(jià)”到“骨折價(jià)”,大模型要變天了

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)