訂閱
糾錯
加入自媒體

大模型的“掘金賣鏟”生意,AI Infra的最佳機會來了?

2024-08-19 14:01
科技云報道
關注

在19世紀的淘金熱中,最賺錢的并不是挖金礦的,反而是那些賣鏟子、賣牛仔褲的人。正如賣鏟人在淘金熱中成為最大贏家,在當今AIGC時代,AI Infra也扮演著類似的角色。

如果用云計算三層構架做類比,AI Infra與PaaS層級相似,是鏈接算力和應用的中間層基礎設施,包括硬件、軟件、工具鏈和優(yōu)化方法等,為大模型應用開發(fā)提供一站式模型算力部署和開發(fā)工具平臺。算力、算法、數(shù)據(jù)可以看作IaaS層,各種開源和閉源模型則是SaaS在大模型時代的新演變,即MaaS。隨著大模型應用落地的進程不斷加速,AI Infra的價值潛力被進一步釋放。中金數(shù)據(jù)預測,目前,AI Infra產(chǎn)業(yè)處于高速增長的發(fā)展早期,未來3-5年內各細分賽道空間或保持30%的高速增長。當大模型進入大規(guī)模應用落地時期,提供大模型訓練、部署和應用時所需的基礎設施成為關鍵一環(huán),AI Infra成為大模型應用爆發(fā)背后“掘金賣鏟”的最佳生意。

中臺模式解鎖AI生產(chǎn)力

從ICT產(chǎn)業(yè)的演進軌跡來看,三層架構似乎是宿命般的終極圖景。在傳統(tǒng)的本地部署階段,操作系統(tǒng)、數(shù)據(jù)庫、中間件等基礎軟件通過控制硬件交互、存儲管理數(shù)據(jù)、網(wǎng)絡通信調度等功能,解決底層硬件系統(tǒng)的復雜性難題,讓上層應用開發(fā)者能專注于業(yè)務邏輯進行創(chuàng)新。在云定義一切的時代,也形成了IaaS、PaaS、SaaS協(xié)同進化的經(jīng)典架構,其中PaaS層提供應用開發(fā)環(huán)境和數(shù)據(jù)分析管理等服務,為云計算加速滲透奠定了堅實基礎。經(jīng)歷了漫長的蟄伏期后,AIGC按下了人工智能通用化進程的快進鍵,整個產(chǎn)業(yè)在狂飆突進的氛圍中急速重構。算力與應用無疑是最耀眼的主角,但二者之間的鴻溝堪比天塹,大模型面臨“懸浮”或“踏空”的風險。

從這個意義上講,AI Infra猶如一座橋,可以承擔類似基礎軟件或PaaS曾經(jīng)扮演的角色——通過構建新型的軟件棧及綜合服務,賦能算力挖潛、模型優(yōu)化和應用開發(fā),成為連接算力與應用的中堅力量。AI Infra涵蓋一切跟開發(fā)部署相關的工具和流程。隨著云計算的不斷發(fā)展,又逐漸衍生出了DataOps、ModelOps、DevOps、MLOps、LLMOps等一些XOps的概念。從宏觀的角度來看,所有XOps本質上是為了開發(fā)部署生命周期的提效。比如DataOps是為IaaS層的存儲和PaaS層的數(shù)據(jù)處理提效的,DevOps、MLOps實際上是為PaaS層開發(fā)部署提效的,LLMOps是為MaaS層提效的。事實上,在AIGC風起云涌之前,關于AI中臺的理論與實踐就已如火如荼地展開。

但當時的AI中臺更像是“救火隊員”,功能比較龐雜,干了不少“臟活”、“累活”,卻難以獲得上下游的認可。大模型為AI平臺化搭建起更寬廣的舞臺,也讓AI Infra“掘金賣鏟”的邏輯更具確定性,進而贏得可觀的發(fā)展空間。相關機構預測顯示,未來3~5年AI Infra產(chǎn)業(yè)將保持30%+的高速增長。就像“三明治”的兩片面包間可以有無數(shù)種夾層選擇,身處算力與應用之間的AI Infra同樣不拘一格。從廣義上看,AI Infra涵蓋人工智能基礎框架技術,涉及大模型訓練、部署領域的各種底層設施;狹義而言,基礎軟件棧是AI Infra的核心組成部分,優(yōu)化算力算法、促進應用落地是其主要目標。AI Infra定義的相對開放為不同的路徑探索提供了更多可能;诟髯缘馁Y源稟賦與市場定位,業(yè)界的資深廠商與新興玩家正在積極拓展AI Infra的疆界,不少做法值得借鑒。

   AI Infra將是      下一個應用熱點?

相比模型價值,卷AI應用成為行業(yè)共識。李彥宏堅信,基礎模型之上將誕生數(shù)以百萬計的應用,它們對于現(xiàn)有業(yè)態(tài)的改造作用,比從0到1的顛覆作用更大。

如今AI應用的供給在不斷增加,IDC在年初時預測,2024年全球將涌現(xiàn)出超過5億個新應用,這相當于過去40年間出現(xiàn)的應用數(shù)總和。最近,視頻生成類模型產(chǎn)品扎堆出現(xiàn),快手的可靈、字節(jié)跳動的即夢、商湯的Vimi集體亮相,此外還有AI搜索產(chǎn)品、AI陪伴類產(chǎn)品等層出不窮。大模型應用爆發(fā)趨勢已然確定,根據(jù)InfoQ研究中心數(shù)據(jù),2030年AGI應用市場規(guī)模將達4543.6億元,模型應用層的巨大機會已經(jīng)吸引了幾乎各行各業(yè)的參與。而在大模型應用之下,AI Infra成為其爆發(fā)的隱藏推手。

目前,大模型產(chǎn)業(yè)鏈大致可以分為數(shù)據(jù)準備、模型構建、模型產(chǎn)品三個層次。在國外,AI大模型的產(chǎn)業(yè)鏈比較成熟,形成了數(shù)量眾多的AI Infra(架構)公司,但這一塊市場在國內還相對空白。在充滿不確定性的道路上,率先找到清晰的賽道,快速建立顯著的里程碑尤為重要。AI Infra市場尚處于混沌期,每個科技巨頭都希望在自己的生態(tài)中形成閉環(huán)。在國內,巨頭們都有一套自己的訓練架構。比如,華為的模型采用的是三層架構,其底層屬于通識性大模型,具備超強的魯棒性的泛化性,在這之上是行業(yè)大模型和針對具體場景和工作流程的部署模型。這種構架的好處是,當訓練好的大模型部署到垂類行業(yè)時,可以不必再重復訓練,成本僅是上一層的5%~7%。阿里則是為AI打造了一個統(tǒng)一底座,無論是CV、NLP、還是文生圖大模型都可以放進去這個統(tǒng)一底座中訓練,阿里訓練M6大模型需要的能耗僅是GPT-3的1%。

百度和騰訊也有相應的布局,百度擁有覆蓋超50億實體的中文知識圖譜,騰訊的熱啟動課程學習可以將萬億大模型的訓練成本降低到冷啟動的八分之一。整體來看,各個大廠之間的側重點雖然有所不同,但主要特點就是降本增效,而能夠實現(xiàn)這一點,很大程度上就是受益于“一手包辦”的閉環(huán)訓練體系。反觀國外,成熟的AI產(chǎn)業(yè)鏈形成了數(shù)量眾多的AI Infra公司。

如果把開發(fā)AI應用看成建房子,那么AI Infra就是提供水泥鋼筋的施工隊。AI Infra施工隊的價值點在于它是一個集成平臺,將下層的算力芯片層與上層的AI應用層打通,讓開發(fā)者實現(xiàn)一鍵調用,并且實現(xiàn)降低算力成本、提升開發(fā)效率并且保持模型優(yōu)秀性能的效果。讓應用更簡單,讓AI落地更便捷,是AI Infra的使命。可以說,AI應用的市場有多大,AI Infra的機會就有多大。AI Infra公司有的專門做數(shù)據(jù)標注、做數(shù)據(jù)質量、或者模型架構等。這些企業(yè)的專業(yè)性,能夠讓他們在某一個單一環(huán)節(jié)的效率、成本、質量上都要比大廠親自下場做得更好。

比如,數(shù)據(jù)質量公司Anomalo就是Google Cloud和Notion的供應商,它可以通過ML自動評估和通用化數(shù)據(jù)質量檢測能力,來實現(xiàn)數(shù)據(jù)深度觀察和數(shù)據(jù)質量檢測。這些公司就像汽車行業(yè)的Tier 1,通過專業(yè)的分工,能夠讓大模型企業(yè)不必重復造輪子,而只需要通過整合供應商資源,就能快速地搭建起自己模型構架,從而降低成本。但國內在這一方面并不成熟,原因在于:一方面國內大模型的主要玩家都是大廠,他們都有一套自己的訓練體系,外部供應商幾乎沒有機會進入;另一方面,國內也缺乏足夠龐大的創(chuàng)業(yè)生態(tài)和中小企業(yè),AI供應商也很難在大廠之外找到生存的空間。

以谷歌為例,谷歌愿意將自己訓練的數(shù)據(jù)結果分享給它的數(shù)據(jù)質量供應商,幫助供應商提高數(shù)據(jù)處理能力,供應商能力提升之后,又會反過來給谷歌提供更多高質量數(shù)據(jù),從而形成一種良性循環(huán)。國內AI Infra生態(tài)的不足,直接導致的就是大模型創(chuàng)業(yè)門檻的拔高。如果將在中國做大模型比喻成吃上一頓熱乎飯,那必須從挖地、種菜開始。目前,在AI 2.0的熱潮中,一個重要的特點就是“兩極化”:最熱門的要么是大模型層、要么就是應用層。而類似AI Infra的中間層,反而是很大的真空地帶,也可能是下一個機遇所在。

 鏟子難賣,金礦難挖

盡管在大模型應用爆發(fā)的當下,AI Infra層潛藏著巨大的生意。但是對于這些做AI Infra的公司來說,即使他們在自己的專業(yè)領域如此強大,在潮水的變化面前依然脆弱。英偉達CUDA生態(tài)已經(jīng)發(fā)展了20年,在AI領域,最先進的模型和應用都首先在CUDA上跑起來。每個硬件之間都有不同的接口,CUDA統(tǒng)一了不同接口之間的語言,讓使用者能夠用一套標準語言去使用不同硬件。在模型開發(fā)過程中,開發(fā)者勢必會趨同于在同一個語言體系中去完成自己的開發(fā)。

而這實際上就構成了英偉達CUDA生態(tài)厚度。目前,CUDA生態(tài)在AI算力市場占據(jù)了90%以上的份額。不過隨著AI模型的標準化,模型之間結構差異變小,不再需要調度多種大小模型,英偉達CUDA生態(tài)厚度在變薄。即使如此,英偉達在算力市場也是絕對王者。據(jù)業(yè)內人士預測,英偉達在接下來的3~5年當中,還會是整個AI硬件提供商中絕對的領頭羊,市場發(fā)展占有率不會低于80%。對AI Infra層的賣鏟廠商來說,外有英偉達守礦人,堵在門口賣門票與鏟子,好不容易找到一條進入金礦的小路,卻發(fā)現(xiàn),里面的挖礦人已經(jīng)習慣“徒手”挖礦,不再接受新鏟子。在國內,企業(yè)為軟件付費意愿低,且大多習慣集成式服務。國內SaaS投資已經(jīng)降到冰點,如果AI Infra層廠商單靠賣硬件或軟件難以實現(xiàn)商業(yè)化。

伴隨AI應用的快速發(fā)展,未來誰能夠為多樣化的應用場景提供高效便捷的大模型一站式部署方案,誰就有可能在這場競爭中勝出。而這其中,底層技術、中層平臺、上層應用缺一不可,只有讓各方面能力得到更全面、均衡地發(fā)展,才能在AI之路上走得更遠、更穩(wěn)健。放眼未來,人工智能重塑千行百業(yè)的進程剛拉開帷幕,Al Infra鋪就的厚雪長坡有助于這個超級賽道行穩(wěn)致遠。今年,數(shù)據(jù)基礎設施已在頂層設計中“獨立門戶”,人工智能基礎設施戰(zhàn)略地位的躍遷亦不遙遠。

“大模型+機器人”,具身智能將開啟“智械時代”

大模型引領技術浪潮,AI安全治理面臨“大考”

人工智能“頂流”齊聚WAIC 2024,他們都做了什么?

“元年”之后,生成式AI將走向何方?

何許人也?敢把大模型價格“打骨折”?

造完“大模型”,“具身智能”將引領AI下一個浪潮?

【科技云報道原創(chuàng)】

轉載請注明“科技云報道”并附本文鏈接

       原文標題 : 大模型的“掘金賣鏟”生意,AI Infra的最佳機會來了?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號