訂閱
糾錯
加入自媒體

AI大模型的轉(zhuǎn)折點,關(guān)注哪些機遇?

近期,人工智能領(lǐng)域取得又一突破性進展,OpenAI官方隆重推出了其最新力作——模型o1。這款模型的最大亮點在于,它融合了強化學(xué)習(RL)的訓(xùn)練方法,并在模型推理過程中采用了更為深入的內(nèi)部思維鏈(chain of thought,簡稱CoT)技術(shù)。這一創(chuàng)新性的結(jié)合,使得o1在物理、化學(xué)、數(shù)學(xué)等需要強大邏輯推理能力的學(xué)科領(lǐng)域內(nèi),實現(xiàn)了性能的顯著提升。

OpenAI的這一成果,無疑為人工智能領(lǐng)域樹立了新的標桿。RL+CoT的范式,不僅在效果上顯著增強了模型的強邏輯推理能力,更為后續(xù)國內(nèi)外大模型廠商的研發(fā)方向提供了新的思路?梢灶A(yù)見,在未來的日子里,沿著RL+CoT這一新路線,各大廠商將持續(xù)迭代模型,推動人工智能技術(shù)邁向新的高度。

01重心由預(yù)訓(xùn)練轉(zhuǎn)移到后訓(xùn)練和推理

2020年,OpenAI提出的Scaling Law為大模型的迭代奠定了重要的理論基礎(chǔ)。在o1模型發(fā)布之前,Scaling Law主要聚焦于預(yù)訓(xùn)練階段,通過增加模型的參數(shù)數(shù)量、擴大訓(xùn)練數(shù)據(jù)集以及提升算力,來增強模型的智能表現(xiàn)。然而,隨著o1模型的推出,OpenAI揭示了在預(yù)訓(xùn)練Scaling Law的基礎(chǔ)上,通過在后訓(xùn)練階段引入強化學(xué)習(RL)并在推理過程中增加長內(nèi)部思維鏈(CoT,意味著更多的計算步驟),同樣能夠顯著提升模型的性能。這表明,Scaling Law不僅適用于預(yù)訓(xùn)練階段,還能在大模型的后訓(xùn)練和推理階段持續(xù)發(fā)揮作用。

具體來說,o1模型在編程、數(shù)學(xué)和科學(xué)領(lǐng)域的能力都得到了大幅提升。在Codeforces編程競賽中,o1模型的表現(xiàn)超過了83%的專業(yè)人員;在數(shù)學(xué)競賽方面,以AIME 2024為例,GPT-4o平均只能解決12%的問題,而o1模型平均能解決74%的問題,若采用64個樣本的共識,解決率更是能達到83%;在科學(xué)能力方面,對于博士級的科學(xué)問題(GPQA Diamond),GPT-4o的精確度為56.1%,人類專家水平為69.7%,而o1模型則達到了78%,超越了人類專家的能力。

o1模型的問世,為下一步大模型的訓(xùn)練和迭代提供了新的參考范式——即RL+CoT。從定性角度看,RL+CoT需要更多的訓(xùn)練和推理算力。在o1模型之前,如GPT-4o等模型主要經(jīng)歷了預(yù)訓(xùn)練和后訓(xùn)練(基于人類反饋的強化學(xué)習RLHF)兩個階段,推理則采用單次推理或短CoT。然而,o1模型在預(yù)訓(xùn)練階段的算力變化可能并不大,主要目的是保證模型具有較好的通用能力。在后訓(xùn)練階段,由于采用了RL,模型需要通過不斷搜索的方式來迭代優(yōu)化輸出結(jié)果,因此算力消耗有望上升。在推理階段,o1模型在RL訓(xùn)練下學(xué)會了內(nèi)部長CoT,推理所需的token數(shù)量明顯增長,因此推理算力相比之前的單次推理或短CoT也顯著上升。

綜上所述,在新的大模型訓(xùn)練范式下,從定性角度看,模型需要更多的訓(xùn)練和推理算力來支持其性能的提升。

02算力和應(yīng)用端或值得關(guān)注

目前升級版的AI大模型主要聚焦于強化邏輯推理能力,通過實現(xiàn)完整的分步驟推理過程,可以顯著提升回復(fù)的邏輯性和條理性。這一升級預(yù)示著Agent Network的初步框架即將形成,對于那些需要更嚴密邏輯處理的B端用戶,有望率先從中受益。同時,隨著系統(tǒng)對復(fù)雜實際環(huán)境中邊緣場景的處理能力得到增強,其應(yīng)用范圍和效果也將得到進一步提升。

華泰證券分析指出,RL+CoT的訓(xùn)練范式不僅延續(xù)了預(yù)訓(xùn)練階段的Scaling Law,還進一步將其擴展到了后訓(xùn)練和推理階段。在預(yù)訓(xùn)練算力保持相對穩(wěn)定的情況下,RL后訓(xùn)練和CoT推理將催生新的算力需求。這些需求的具體規(guī)模將取決于RL搜索的深度、CoT的內(nèi)在長度以及推理效果之間的平衡。由于RL+CoT實際上為行業(yè)內(nèi)的其他模型開發(fā)商設(shè)定了下一代模型迭代的基本框架,預(yù)計這一范式將被廣泛采納,從而帶動訓(xùn)練算力需求的顯著提升。在此背景下,建議投資者關(guān)注與算力相關(guān)的企業(yè),如博通、滬電股份、工業(yè)富聯(lián)等。

此外,盡管o1模型目前主要解決的是數(shù)學(xué)、代碼和科學(xué)領(lǐng)域的推理問題,但其核心在于構(gòu)建模型的CoT能力。CoT作為推理的重要手段,有望在端側(cè)結(jié)合用戶的更多私有數(shù)據(jù)進行應(yīng)用。蘋果AI Agent被視為實現(xiàn)CoT能力的理想計算平臺。因此,建議投資者關(guān)注與蘋果產(chǎn)業(yè)鏈相關(guān)的企業(yè),包括立訊精密、鵬鼎控股、水晶光電、歌爾股份、藍思科技、東山精密、長電科技等。

最后,o1模型展現(xiàn)出的強邏輯推理能力有望擴展到更廣泛和通用的領(lǐng)域,并且在推理性能上相較于前代模型有顯著提升。這意味著基于o1及后續(xù)大模型的AI應(yīng)用和Agent有望在能力上實現(xiàn)本質(zhì)性的超越。因此,建議投資者關(guān)注核心的AI應(yīng)用企業(yè),如微軟、奧多比、金山辦公、泛微網(wǎng)絡(luò)、螢石網(wǎng)絡(luò)等。

       原文標題 : AI大模型的轉(zhuǎn)折點,關(guān)注哪些機遇?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號