訂閱
糾錯
加入自媒體

劍指英偉達,硅谷大廠發(fā)力自研AI芯片

2023-11-17 13:59
雷科技
關(guān)注

黃仁勛還坐得住嗎?

美國當?shù)貢r間11月15日,微軟Ignite技術(shù)大會在西雅圖揭幕。 

集團CEO納德拉帶來了長達一個小時的揭幕演講,介紹微軟在ESG、新一代空芯光纖、Azure Boost數(shù)據(jù)中心等項目的新動態(tài)。而整場演講的重頭戲,非AI莫屬——尤其是首款自研AI芯片Azure Maia 100的亮相,成為場內(nèi)場外無數(shù)聚光燈下的焦點。 

微軟重視AI人所共知,發(fā)力自研芯片也不是什么秘密。Maia 100的亮相,則是微軟的第一張階段性答卷,向外界表明自己的野心與實力。 

有趣的是,英偉達CEO黃仁勛也來到現(xiàn)場,為Azure和英偉達合作的AI foundry service站臺。納德拉當著黃仁勛的面發(fā)布自研AI芯片,難免讓人浮想聯(lián)翩。 

英偉達對高算力芯片的壟斷,早已成為硅谷眾大廠的心病。它們一方面離不開英偉達,另一方面又不想永遠被英偉達掣肘。當自研芯片成為潮流,微軟、Meta、谷歌、亞馬遜先后亮出壓箱底的寶貝,誰能真正掙脫枷鎖? 

微信截圖_20231116113726.png

(圖片來自Pixabay)

微軟首款A(yù)I芯片來襲,Maia 100成色幾何? 

首款芯片的命名從此前盛傳的Athena改成Maia,靈感大概是參考了NGC 2336星系。Maia可以譯為“明亮的藍色恒星”,根據(jù)NASA的觀測,NGC 2336星系近似螺旋形態(tài),直徑約20萬光年,也以旋臂中的藍色恒星聞名。以此命名自己的首顆AI芯片,微軟或許是想以深邃的太空借喻充滿想象力的AI世界,以及對算力的高追求。 

Maia 100的亮相也不算突然,早在10月初就有媒體劇透微軟將在開發(fā)者大會上發(fā)布首款自研AI芯片,并將向Azure云客戶供應(yīng)。不過微軟對自研芯片計劃的保密工作做得很好,直到正式發(fā)布后,外界才能真正了解其設(shè)計、算力和應(yīng)用場景等詳細情況。 

根據(jù)納德拉的介紹,Maia 100是一款A(yù)I加速芯片,基于Arm架構(gòu)設(shè)計,主要用于云端訓(xùn)練、推理以及Azure的高負載云端運算。不過納德拉否認了將向云計算客戶供貨的傳聞,這款自研芯片將優(yōu)先滿足微軟自身的需求,并在合適的時機向合作伙伴和客戶開放。 

Azure芯片部門負責(zé)人、微軟副總裁拉尼·博卡爾則補充道,Maia 100已經(jīng)在Bing和office的人工智能套件上測試。合作伙伴openAI也開始使用這款芯片進行測試部分產(chǎn)品和功能,比如GPT 3.5 Turbo。 

微信截圖_20231116162139.png

(圖片來自Azure官網(wǎng)) 

至于測試的效果如何,微軟暫時還沒有給出具體報告。但納德拉和博卡爾強調(diào)Maia 100可以加快數(shù)據(jù)處理速度,尤其是在語音和圖像識別方面。 

提速的關(guān)鍵,自然是算力。為了提升算力,微軟也是下了血本:采用臺積電的5nm制程工藝,晶體管數(shù)量達到1050億個。和今年4月被曝光的信息相比,Maia的制程工藝、設(shè)計架構(gòu)都沒有太多出入,性能表現(xiàn)或許還需在應(yīng)用數(shù)據(jù)來檢驗。 

不過橫向?qū)Ρ鹊脑,Maia 100和英偉達、AMD等大廠的產(chǎn)品在參數(shù)上還有很大差距。AMD在今年發(fā)布的專用于AI加速的MI 300X芯片晶體管數(shù)量達到1530億,更不用說算力超強的英偉達了。 

以最近發(fā)布的H200為例,GPU核心和H100相同,但CUDA核數(shù)達到16896個,加速頻率1.83GHz,顯存具備更大的容量和更高帶寬,可以支持超大參數(shù)的大模型訓(xùn)練與推理。官方給出的參數(shù)顯示,H200相較上一代產(chǎn)品在Llama2和ChatGPT的訓(xùn)練速度分別能提升40%和60%。 

可以看出,從MI 300X到H200,再到Maia 100,大廠對訓(xùn)練參數(shù)量、訓(xùn)練速度和芯片算力的追求是沒有上限的。大模型的迭代速度也在加快,只因各家大廠都想跑得比對手更快一步。 

芯片是這場算力競賽里最關(guān)鍵的一環(huán),沒有人想在這上面掉鏈子。而為了擺脫對英偉達的依賴,自研就是最好的出路。

 當自研AI芯片成為必選項 

英偉達的芯片不是不好,反倒是太好了,好到直接滋生了兩個難以解決的問題:一是供不應(yīng)求,二是價格高不可攀。 

英偉達沒有正面回應(yīng)H100和A100兩款最熱門產(chǎn)品的產(chǎn)能和需求,但據(jù)外媒報道,今年內(nèi)H100加速卡的產(chǎn)能至少同比增長了3倍,且仍有許多產(chǎn)能瓶頸無法解決。比如臺積電5nm生產(chǎn)線產(chǎn)能,英偉達的GPU必須使用臺積電的CoWoS封裝技術(shù),市面上完全找不到別的替代品。 

供不應(yīng)求,市場杠桿就會自動生效,調(diào)高價格、篩選客戶。從去年下半年開始,搶購GPU就成為硅谷大廠最重要的任務(wù)之一。大廠為了搶時間、保供應(yīng),囤的貨一個比一個多,階段產(chǎn)能愈發(fā)吃緊,繼而再次推高價格,形成一個死循環(huán)。 

微軟在2019年投資openAI后算過一筆賬,為了支撐歷代ChatGPT的訓(xùn)練,微軟每年光是采購A100的資金就在數(shù)億美元以上。而稍晚啟動的自研芯片計劃,每年開銷只需1億美元左右。白紙黑字擺在面前,大廠也不傻。本就有一定技術(shù),也有足夠流動資金的微軟、谷歌、亞馬遜、Meta們,紛紛加速擁抱自研芯片。 

這當中,谷歌和亞馬遜是起步最早、成績也最突出的。單論研發(fā)實力,微軟甚至夠不著硅谷的第一梯隊。 

得益于在手機領(lǐng)域的長期布局,谷歌積累了大量芯片技術(shù),除了美國本土之外,還在印度設(shè)置了大規(guī)模的芯片研發(fā)中心。2021年推出的自研芯片Tensor使用三星5nm先進制程,GPU性能較上一代產(chǎn)品大幅提升370%,狠狠秀了一把肌肉。 

這幾年,谷歌從高通、蘋果、英偉達、博通挖來大量人才。最新消息顯示,谷歌計劃在2027年將博通剔除出AI芯片供應(yīng)商的行列,每年將節(jié)省數(shù)十億美元的采購費用。而對標博通的TPU,就成為了谷歌AI芯片計劃的重點發(fā)力方向。 

事實上,谷歌的TPU自研計劃也是由來已久。2021年,時任谷歌研究部門主管Cliff Young就透露,谷歌有長期的計劃,會在數(shù)據(jù)中心部署大量自研TPU,以加強云端運算速度,未來不排除將對外出售。 

亞馬遜也是自研芯片的老玩家,其強大在于,建立了完整的自研芯片產(chǎn)業(yè)鏈,形成網(wǎng)絡(luò)芯片、服務(wù)器芯片、AI芯片三條產(chǎn)品線。在AI 芯片領(lǐng)域,亞馬遜的自研產(chǎn)品就通用計算芯片、機器學(xué)習(xí)訓(xùn)練芯片、學(xué)習(xí)推理芯片等。 

滿打滿算,從2013年推出首款自研芯片Nitro 1以來,亞馬遜已經(jīng)推出了超過10款自研芯片,無論數(shù)量還是覆蓋的領(lǐng)域,都遠超其他硅谷大廠。AWS在2020年便發(fā)布了用于訓(xùn)練大模型的自研芯片Trainium,也是最早發(fā)力AI專用芯片的大廠之一,為AWS征服全球立下汗馬功勞。 

就連落后一截的Meta,也在今年高調(diào)提出造芯計劃,推出定制芯片MTIA v1,并牽手高通、重組研發(fā)團隊。為了奪回主動權(quán)、節(jié)省開銷,大廠肯定會拼盡全力。接下來,不知道英偉達將如何接招?

取代英偉達談何容易,在博弈中合作將成為主題 

硅谷大廠的反抗之心,黃仁勛當然了然于胸。與其說英偉達對微軟、亞馬遜、谷歌們的進攻無動于衷,倒不如說是有恃無恐——硅谷大廠的自研芯片算力遠不比上英偉達,也缺乏配套的AI軟硬件。想自供自給乃至取英偉達而代之,在現(xiàn)階段并不現(xiàn)實。 

算力上的差距前文已有介紹,此處不再贅述。在芯片算力之外,英偉達還強在擁有Base Command(AI訓(xùn)練端到端軟件服務(wù))、AI Enterprise(提供平臺支持的企業(yè)級軟件)等大量配套設(shè)施。 

微信截圖_20231116161955.png

(圖片來自英偉達官網(wǎng)) 

微軟等大廠自研AI芯片,是為了降低采購成本。但大模型從訓(xùn)練到落地應(yīng)用,需要的絕不止一顆芯片。當參數(shù)級別變得原來越高,開源程度不斷提升,需要使用的配套軟硬件也會越來越多,這時候大廠們就不得不重新算一下自己的賬本了。 

高調(diào)發(fā)布自研芯片的微軟,就很清楚自己短時間內(nèi)離不開英偉達和AMD。納德拉之所以請黃仁勛到場助陣當然不是為了示威,而是示好。展望未來,大廠之間的暗中角力當然少不了,但合作還是主旋律。 

黃仁勛出席微軟Ignite全球技術(shù)大會,是為了宣傳針對英偉達H100設(shè)計的NC H100 v5虛擬機,這是一項類似于AI代工的服務(wù),可以幫助Azure的客戶和合作企業(yè)開發(fā)大語言模型。此外,微軟Azure仍在使用AMD的 MI300X加速虛擬機和最新的GPU提高AI模型訓(xùn)練和推理速度。 

值得一提的是,微軟在15日的技術(shù)大會上還宣布推出MaaS模型即服務(wù),向用戶開放API接口,以便在云端部署自己的開源大模型。Meta等大廠據(jù)悉也將加入開源行列,Llama 2等知名大模型都會在英偉達的算力支撐下,陸續(xù)向第三方開放調(diào)用。 

納德拉和黃仁勛心底盤算什么,外人看不見,也猜不透。但至少在明面上,兩人會繼續(xù)維持良好的合作關(guān)系,有錢一起賺。真正感到壓力山大的,其實是那些艱難求存的初創(chuàng)企業(yè)——畢竟大部分芯片企業(yè)都要依賴投資人和大廠的資金搞研發(fā),大廠發(fā)力自研后必然會削減外部投資,甚至還會擠壓前者的生存空間。 

從2020年的Wave Computing開始,這幾年時不時有AI芯片獨角獸裁員、賣身甚至直接倒閉。不久歐倩,英國GPU芯片公司Imagination也被爆將進行裁員,比例在20%左右。

Wave Computing也算得上紅極一時,當初曾聲稱要追趕英偉達,自家的DPU產(chǎn)品在加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度上要超過英偉達的GPU1000倍,基于DataFlow架構(gòu)設(shè)計的產(chǎn)品也算得上特立獨行。 

不過之后的故事大家都清楚了,Wave Computing的DPU在某些參數(shù)上確實超過了英偉達的GPU,但不具備推廣意義。因為前者缺乏通用計算架構(gòu),也無法針對不同應(yīng)用場景進行定制化改造,更沒有足夠數(shù)量的開發(fā)者。在燒光了投資人的資金后,最終只能走向破產(chǎn)清算的地步。 

無獨有偶,openAI在日前悄悄更新,也讓部分AI初創(chuàng)企業(yè)感到“末日將至”,更有外媒表示openAI“正在殺死生成式人工智能初創(chuàng)公司”。由此可以看出,做AI大模型和做AI芯片的公司生存壓力巨大,研發(fā)難度和高企的經(jīng)營成本隨時都可能將它們壓垮。 

大公司和初創(chuàng)企業(yè)之間的矛盾由來已久,大廠發(fā)力自研AI芯片只不過是一劑催化劑。想在巨頭的夾縫謀得一絲生存空間,初創(chuàng)企業(yè)要拿出更多真本事。

    來源:雷科技

           原文標題 : 劍指英偉達,硅谷大廠發(fā)力自研AI芯片

    聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

    發(fā)表評論

    0條評論,0人參與

    請輸入評論內(nèi)容...

    請輸入評論/評論長度6~500個字

    您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

    暫無評論

    暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號