訂閱
糾錯
加入自媒體

大模型,站在“向下競底”和“向上定價”的分岔路口

2024-05-21 17:07
腦極體
關(guān)注

2024年以來,大模型的價格出現(xiàn)了顯著的下降趨勢,并且是全球性的。

海外AI巨頭,OpenAI和谷歌都在五月的新品發(fā)布會上,下調(diào)了模型調(diào)用價格。

OpenAI的GPT-4o支持免費(fèi)試用,調(diào)用API的價格也比GPT-4-turbo降低了一半,為5 美元/百萬tokens。谷歌的當(dāng)家王牌Gemini大模型系列,Gemini 1.5 Flash 的價格為0.35美元/百萬tokens,比GPT-4o 便宜得多。

圖片

同樣的“價格戰(zhàn)”,也在國內(nèi)開打。

5月13日智譜AI上線了新的價格體系,入門級產(chǎn)品GLM-3 Turbo模型,調(diào)用價格從5 元/百萬tokens,降至1元/百萬tokens。緊隨其后的字節(jié)跳動,正式發(fā)布豆包大模型家族,其中的豆包通用模型Pro 32k模型,定價為0.0008元/千tokens。

當(dāng)一串代表價格的數(shù)字,成為各家發(fā)布會上最顯眼的一頁、最廣為傳播的信息,其他廠商為了不失去曝光度,不流失現(xiàn)有用戶,當(dāng)然也要有所表示,被動跟進(jìn),加入“價格戰(zhàn)”。

就在今天,5月21日,阿里云也拋出重磅炸彈,宣布通義千問主力模型Qwen-Long,API輸入價格降至0.0005元/千tokens。

大模型價格正在競底,但究其本質(zhì),向下競底是不具備“向上定價”的條件。將“降價”而非“賣貴”作為核心競爭力的大模型,是走不長遠(yuǎn)的。

降價的本質(zhì),是無法“向上定價”

大模型百萬tokens價格一再跳水,OpenAI說是為了“造福世界”,谷歌說是為了擴(kuò)大AI用戶,國產(chǎn)大模型廠商也紛紛表示要讓利個人和企業(yè)開發(fā)者。

那為什么ChatGPT、Gemini剛問世的時候,就敢于強(qiáng)勢向開發(fā)者收錢呢?那時怎么不踐行“造福世界”的初心呢?

我們越過那些官方的宣傳辭藻,來看幾組行業(yè)數(shù)據(jù),就會發(fā)現(xiàn):降價是一種必然。

第一,模型能力正在趨同,OpenAI/谷歌也沒有護(hù)城河。

數(shù)據(jù)顯示,自GPT-4發(fā)布以來,多個模型在GPT-4水平性能上的巨大收斂,然而并沒有明顯領(lǐng)先的模型。

就是大家都在向GPT-4看齊,但誰都沒有突出優(yōu)勢。能力趨同的前提下,不得不放棄收費(fèi),靠降價/免費(fèi)來爭奪用戶,保住地盤。

圖片

第二,大模型的邊際收益正在持續(xù)走低。

Gary Marcus 博士在“Evidence that LLMs are reaching a point of diminishing returns — and what that might mean”《LLMs正達(dá)到收益遞減的證據(jù)——及其可能意味著什么》一文中提到,從GPT-2到GPT-4甚至GPT-4 Turbo的性能變化,已經(jīng)出現(xiàn)了性能遞減的跡象。

在收益遞減的背景下,意味著處理相同的任務(wù),開發(fā)者的實(shí)際成本是在上升的。在AI創(chuàng)新商業(yè)化前景還不明朗的市場環(huán)境下,為了保住現(xiàn)有用戶,大模型廠商必須給出有吸引力的對策。包括提供更小的模型,比如谷歌推出的Gemini 1.5 Flash,通過“蒸餾”實(shí)現(xiàn)了與Gemini 1.5 Pro性能接近、成本更低。另一個手段就是直接降價。

綜上,大模型降價的本質(zhì),是因同質(zhì)化競爭+投入產(chǎn)出比降低,而無法賣貴、不敢賣貴的必然選擇。

向下競底的前途,是沒有前途

論跡不論心,只要大模型廠商的降價行動,能夠切實(shí)惠及企業(yè)和開發(fā)者,當(dāng)然是受市場歡迎的。

問題就在這里,企業(yè)和開發(fā)者能從中獲得多大收益呢?

有人說,降低成本能推動大模型的“價值創(chuàng)造”,是錯誤的因果歸因。大模型的“價值創(chuàng)造”,是以大模型本身為錨點(diǎn),而非價格。

最直接的例子,ChatGPT問世即付費(fèi),當(dāng)時很多從業(yè)者都很開心,認(rèn)為市場終于重返工程師主導(dǎo)的文化,技術(shù)為王,代碼競爭,“沒有那些精心設(shè)計(jì)的流量游戲或者運(yùn)營技巧,沒人會動砍一刀送1000個token的心思”。說明明碼標(biāo)價、為好東西付費(fèi)的模式,才是開發(fā)者心中的良性商業(yè)模式。

圖片

差的商業(yè)模式是什么?是模型能力不行,企業(yè)和個人開發(fā)者投入了大量時間、精力,結(jié)果無法建立競爭力,無法從應(yīng)用創(chuàng)新中獲得商業(yè)回報。

有一個SaaS開發(fā)者直言:“我們折騰了一年(做基于LLM的產(chǎn)品),也有不少用戶提出了付費(fèi)需求,但我們感覺做不到SLA,全部婉拒了。”所謂SLA,是指一定開銷下,服務(wù)商與用戶之間的一種協(xié)定,來保障服務(wù)的性能和可靠性。

開發(fā)者和ISV服務(wù)商,如果被低價吸引,但底座模型的能力卻不行,不能解決用戶的問題,賺不到錢,還投入了大量研發(fā)資金和工程團(tuán)隊(duì),那最后實(shí)際的沉沒成本,可比調(diào)用省下的仨瓜倆棗大多了。

正如微軟所強(qiáng)調(diào)的那樣,大模型“仍將是解決眾多復(fù)雜任務(wù)的黃金標(biāo)準(zhǔn)”。所以,良性的商業(yè)模式,是大模型能力持續(xù)提升,商業(yè)化版本上同時兼顧普惠。

以下圖來說,逐步進(jìn)入到低價高質(zhì)的綠色區(qū)域,也是“最具吸引力象限”。

圖片

從圖中不難看到,GPT-4o是目前質(zhì)量最高、價格相對降低的位置。

而放眼國內(nèi)的廠商,模型能力如果達(dá)不到OpenAI的水平,一味拼價格并不是一個好策略。

可以推演一下,打價格戰(zhàn),會發(fā)生三種情況:

最樂觀、最好的結(jié)果,是大模型廠商靠低價吸引用戶,用戶數(shù)量和使用量的規(guī);黾,能夠低效甚至超過降價的虧損,實(shí)現(xiàn)盈利。而即使是最好的情況,大模型企業(yè)也會在短期內(nèi),利潤受到擠壓,財務(wù)表現(xiàn)可能會受到來自資本市場或投資人的壓力。

至少目前來看,可能性很小。降價或許能夠吸引不少用戶嘗鮮、試用,但最終模型能力才是沉淀下來的主因,留存率并不一定理想。

用戶增長不確定,大模型投資成本卻在節(jié)節(jié)攀升,意味著大模型廠商的風(fēng)險敞口不斷擴(kuò)大,由此帶來打價格戰(zhàn)的一種最壞情況:國內(nèi)大模型廠商被迫跟進(jìn)價格戰(zhàn),不斷壓縮本就不大的盈利空間。

Anthropic的CEO曾向媒體透露,目前正在訓(xùn)練的模型成本已接近10億美元,到2025年和2026年,將飆升至50億或100億美元。

圖片

這意味著,一旦大模型企業(yè)為了“價格戰(zhàn)”,現(xiàn)金流會持續(xù)承壓,缺乏充足的資金投入到招募AI人才、升級基礎(chǔ)設(shè)施、部署數(shù)據(jù)中心、升級網(wǎng)絡(luò)等投資中去,模型進(jìn)化與迭代也會受到影響,從而讓國產(chǎn)基座模型進(jìn)入發(fā)展瓶頸期,與世界一流水平的差距越拉越大。

需要注意的是,社會各界用戶早已在各個模型廠商的宣傳布道中,拔高了對大模型的期望值。一味推廣低質(zhì)低價的使用體驗(yàn),讓人們對AI失去信心,覺得大模型不夠萬能、啥都干不好,對這一輪大模型主導(dǎo)的AI熱潮,將是極大的負(fù)面影響。

當(dāng)然,也不必過于焦慮。最壞情況和最好情況一樣,發(fā)生的概率不大。現(xiàn)實(shí)中最有可能的,是大模型行業(yè)在最佳和最壞情況之間震蕩。

一部分模型性能領(lǐng)先、商業(yè)模式向好、客情關(guān)系良好、現(xiàn)金流相對充裕的廠商,能夠在跟進(jìn)降價的同時,保持對底層創(chuàng)新的持續(xù)投資,但長期可以攤薄研發(fā)成本,靠規(guī)模增長來實(shí)現(xiàn)收入上漲。而注定也有一部分企業(yè)會在價格戰(zhàn)與現(xiàn)金流壓力下,被震蕩出局。

一個AI公司創(chuàng)始人就表示:其實(shí)挺期待AGI到來的,雖然能秒滅我們這種小團(tuán)隊(duì),但至少大家都解脫了。

說到底,一味打價格戰(zhàn),AI巨頭有沒有前途,不一定,但創(chuàng)新型小公司,一定危險。

降價的前提,是有“向上定價”的實(shí)力

有必要疊個甲,我們不反對大模型降價,鼓勵大模型廠商為個人和企業(yè)開發(fā)者減輕負(fù)擔(dān)。

只不過,當(dāng)輿論各方都關(guān)注“低價”的時候,當(dāng)一場大模型發(fā)布會的亮點(diǎn)是百萬token價格小數(shù)點(diǎn)后有幾位,當(dāng)大模型的商業(yè)模式從技術(shù)為王,變成“羊毛出在豬身上”、把用戶當(dāng)成流量商品……有必要再重申一下:新技術(shù),是大模型產(chǎn)業(yè)的“震中”。

高科技領(lǐng)域,新技術(shù)層出不窮。企業(yè)要在一波又一波技術(shù)浪潮中,同時扮演“顛覆者”和“防御者”。拿大模型來說,廠商必須有至少兩個梯隊(duì)來參與競爭。

一個梯隊(duì)負(fù)責(zé)進(jìn)攻,孵化全新的模型和產(chǎn)品,追逐技術(shù)上的顛覆式創(chuàng)新;另一個梯隊(duì)負(fù)責(zé)防御,通過低價、生態(tài)等守住現(xiàn)有業(yè)務(wù)和用戶,抵御對手的襲擊。

而當(dāng)前,大模型廠商的更優(yōu)先事務(wù),不是“向下降價”,而是塑造“向上定價”的可能性。

將自家大模型矩陣中的某一些特定模型,做一個極致低價,是很容易操作和吸引眼球的。能把大模型賣出去,向上定價,向價格段的上游遷移,才是AI實(shí)力的體現(xiàn),才能讓企業(yè)保有更長的生命力。

舉個例子,GPT-4o雖然免費(fèi),但免費(fèi)版本只提供有限的次數(shù),而天花板級別的語音交互能力又帶來了極強(qiáng)的付費(fèi)潛力。此外,GPT-5也早就被曝已經(jīng)做出來了,只是OpenAI沒決定好何時推向市場。谷歌也采用類似的策略,更低價格、更低成本的模型,與高性能的付費(fèi)模型,以及龐大的軟硬件生態(tài)來讓AI落地,共同構(gòu)成商業(yè)版圖。

圖片

當(dāng)前國產(chǎn)大模型亟待完成的,是能力突破的技術(shù)進(jìn)擊。

從我們了解的大模型使用情況來看,企業(yè)和個人開發(fā)者最在意的商業(yè)化問題,仍然要靠模型本身的進(jìn)化來解決,比如說:

目前階段,很多任務(wù)場景,大模型連兜底的效果都還沒有搞定,距離SLA級別的收費(fèi)標(biāo)準(zhǔn)差距很大,無法達(dá)到商用;

精調(diào)雖然可以滿足一部分場景,但難以泛化。有些場景的大模型精調(diào)效果,還不如用傳統(tǒng)的小模型。這不是大模型“夠不夠便宜”的問題,是“為什么要用”的問題;

最終用戶愿意付費(fèi)的AI應(yīng)用,必須真正做到降本增效,學(xué)習(xí)成本高一點(diǎn)都不會用。這就需要服務(wù)商和開發(fā)者詳細(xì)地拆解任務(wù)流程,不忽視任何微小的業(yè)務(wù)細(xì)節(jié),量身定制,降低整個開發(fā)過程的周期和難度,或許比降價更有吸引力。

其實(shí),大模型質(zhì)價比的“最具吸引力象限”,已經(jīng)說明了,質(zhì)量做高的前提下,實(shí)現(xiàn)價格更優(yōu),才是大模型商業(yè)化的可持續(xù)之路。

向下競底只是權(quán)宜之計(jì),能夠“向上定價”的大模型才有未來。

       原文標(biāo)題 : 大模型,站在“向下競底”和“向上定價”的分岔路口

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號