訂閱
糾錯(cuò)
加入自媒體

OPEN AI投資Pika,文生視頻2024將會(huì)爆火?

前言:

隨著文生視頻軟件技術(shù)的不斷進(jìn)步,AIGC技術(shù)對(duì)多業(yè)態(tài)應(yīng)用的賦能將加速實(shí)現(xiàn)。

人工智能推出以來(lái),其已經(jīng)逐漸從理論框架走向?qū)嶋H應(yīng)用,其對(duì)人力和財(cái)力成本的節(jié)省效果也將在上市公司的業(yè)績(jī)中逐漸體現(xiàn)出來(lái)。

這種變化將對(duì)多個(gè)行業(yè)產(chǎn)生深遠(yuǎn)影響,并為投資者提供更多有價(jià)值的投資機(jī)會(huì)。

作者 | 方文三

圖片來(lái)源 |  網(wǎng) 絡(luò) 

Pika 1.0發(fā)布易用性被認(rèn)可

2023年11月29日,Pika labs正式發(fā)布了其全新的文生視頻產(chǎn)品Pika 1.0。

該產(chǎn)品的視頻生成效果和易用性均得到了廣泛認(rèn)可,并在市場(chǎng)上引起了熱烈的討論。

目前Pika社區(qū)已經(jīng)發(fā)展到50萬(wàn)名用戶(hù),每周生成數(shù)百萬(wàn)個(gè)視頻。

Pika的創(chuàng)始人是兩位斯坦福大學(xué)人工智能實(shí)驗(yàn)室的前博士生郭文景和ChenlinMeng,目前Pika已融資3輪,估值超過(guò)2億美元。

Pika1.0的功能主要包括五方面:文本生成視頻以及圖像生成視頻、視頻之間不同風(fēng)格轉(zhuǎn)換、擴(kuò)展格式、改變局部?jī)?nèi)容、擴(kuò)展視頻長(zhǎng)度。

這是一次重大的產(chǎn)品升級(jí),包括一個(gè)新的AI模型,能夠生成和編輯各種風(fēng)格的視頻,如3D動(dòng)畫(huà)、動(dòng)漫、卡通和電影。

Pika1.0附帶一個(gè)工具,可延長(zhǎng)現(xiàn)有視頻的長(zhǎng)度或?qū)⑵滢D(zhuǎn)換為不同的風(fēng)格,例如[真人]到[動(dòng)畫(huà)],或者擴(kuò)展視頻的畫(huà)布或?qū)捀弑取?o:p>

支持三種模態(tài)的提示輸入,讓Pika Labs 1.0直接[對(duì)齊]了runway家族的幾乎所有的功能。

圖片

一連串投資人名單非常豪華,幾乎所有AI領(lǐng)域的知名公司都參與了此輪融資:

LightspeedVenturePartners領(lǐng)投,Homebrew

ConvictionCapital、SV參與,Angel、Ben'sBites。

Quora創(chuàng)始人AdamD'Angelo、前GitHub首席執(zhí)行官NatFriedman和Giphy聯(lián)合創(chuàng)始人AlexChung也是投資人。

OpenAI的科學(xué)家Karpathy對(duì)圖像與視頻生成領(lǐng)域的最新發(fā)展保持高度關(guān)注。他還參與了Pika Labs最近一輪的投資。

在發(fā)布新產(chǎn)品的同時(shí),Pika Labs正式宣布已完成新一輪融資。

此次融資總額為5500萬(wàn)美元,其中包括種子前輪和種子輪投資,由Nat Friedman和Daniel Gross領(lǐng)投。

圖片

游戲傳媒業(yè)態(tài)或率先受益

目前,一些專(zhuān)注于短視頻內(nèi)容AI口型匹配和翻譯的應(yīng)用,如HeyGen,以及近期備受矚目的Pika所展現(xiàn)的可編輯性和電影級(jí)效果,都是迅速找到與自身產(chǎn)品相契合的市場(chǎng)。

隨著AIGC技術(shù)在影視劇集、宣傳視頻等領(lǐng)域逐步滲透,視頻創(chuàng)作效率有望迎來(lái)顯著提升。

隨著Pika在文生視頻領(lǐng)域的應(yīng)用驗(yàn)證,業(yè)內(nèi)普遍認(rèn)為游戲傳媒類(lèi)上市公司或?qū)⒙氏仁芤妗?o:p>

值得關(guān)注的是,目前多家游戲傳媒類(lèi)上市公司已成功將AIGC技術(shù)運(yùn)用到視頻或游戲素材的創(chuàng)作中。

賦能游戲傳媒類(lèi)上市公司只是應(yīng)用層落地的一個(gè)開(kāi)端,AIGC與多業(yè)態(tài)相結(jié)合將是未來(lái)的趨勢(shì)。

如果該產(chǎn)品能夠進(jìn)一步發(fā)展成為爆款應(yīng)用,將有望提振市場(chǎng)對(duì)AI應(yīng)用落地的信心。

參考文生圖在廣告領(lǐng)域的應(yīng)用,文生視頻同樣有望推動(dòng)生產(chǎn)力革命,降低生產(chǎn)成本和創(chuàng)作門(mén)檻,從而加速AIGC技術(shù)的產(chǎn)業(yè)化進(jìn)程。

從能力的角度來(lái)看,文生視頻有望率先在短視頻和動(dòng)漫兩個(gè)領(lǐng)域落地。這將為這兩個(gè)行業(yè)帶來(lái)更多的創(chuàng)新和可能性,進(jìn)一步推動(dòng)其發(fā)展。

圖片

AI視頻遠(yuǎn)沒(méi)到GPT時(shí)刻

從目前文生視頻模型的實(shí)際應(yīng)用效果來(lái)看,其生成效果在時(shí)長(zhǎng)、分辨率和內(nèi)容合理性方面仍存在一定的限制,這主要源于視頻場(chǎng)景的復(fù)雜性。

在數(shù)據(jù)收集方面,與文生圖模型相比,文生視頻模型需要處理的數(shù)據(jù)更為復(fù)雜。

為了學(xué)習(xí)字幕、幀照片寫(xiě)實(shí)感和時(shí)間動(dòng)態(tài),文生視頻模型需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練。

同時(shí),由于視頻長(zhǎng)度不一,將視頻切分成固定幀數(shù)的片段會(huì)破壞文本與時(shí)間之間的對(duì)應(yīng)關(guān)系,進(jìn)而影響模型的訓(xùn)練效果。

此外,從技術(shù)角度考慮,要想生成高質(zhì)量的視頻,需要具備強(qiáng)大的計(jì)算與推理能力。

當(dāng)前的文生視頻模型在理解視頻對(duì)象運(yùn)動(dòng)連貫性、日常與非日常場(chǎng)景變化等方面仍有待提升。

從商業(yè)模式來(lái)看,文生視頻應(yīng)用的商業(yè)化模式與圖片生成相似,主要是按照生成量來(lái)定價(jià)。

與文生圖應(yīng)用的早期商業(yè)化進(jìn)程相比,文生視頻應(yīng)用仍有很長(zhǎng)的路要走。

整體來(lái)講,AI文生視頻領(lǐng)域處于極早期的狀態(tài),很難實(shí)現(xiàn)精準(zhǔn)超長(zhǎng)時(shí)間和視頻質(zhì)量的滿(mǎn)足條件下完成對(duì)行業(yè)效率的提升。

各家的優(yōu)化和迭代速度都較慢

視頻是由多幀圖像組合而成,而文生視頻在文生圖的基礎(chǔ)上增加了時(shí)間維度,技術(shù)實(shí)現(xiàn)難度更大。

盡管像Meta和Google這樣的硅谷AI巨頭在文生視頻領(lǐng)域進(jìn)展緩慢,它們分別推出的Make-A-Video和Phenaki都尚未公測(cè)。

文生視頻的底層模型和技術(shù)仍在不斷優(yōu)化中,尚未篩選出最優(yōu)模型。

該技術(shù)主要經(jīng)歷了基于GAN和VAE、基于Transformer模型、基于擴(kuò)散模型三個(gè)階段。

目前主流的文生視頻模型主要依托Transformer模型和擴(kuò)散模型。

基于Transformer的代表Phenaki突破了視頻生成時(shí)長(zhǎng)限制,但效果相對(duì)粗糙缺少細(xì)節(jié);

而基于擴(kuò)散模型的代表Make-AVideo則更注重提升視頻質(zhì)量,但其視頻時(shí)長(zhǎng)均在4s以?xún)?nèi)。

目前可公測(cè)的文生視頻應(yīng)用較少,僅有RunwayGen-2、ZeroScope及Pika Labs等少數(shù)幾個(gè)。

這些應(yīng)用存在一些共同問(wèn)題,如復(fù)雜人物動(dòng)作生成幀連續(xù)效果較差、非日常場(chǎng)景的視頻架構(gòu)能力連續(xù)能力一般、多主體視頻生成缺乏邏輯連續(xù)性等。

目前,PiKa等AI文生視頻工具都處于1.0之下的版本。

相對(duì)于競(jìng)爭(zhēng)對(duì)手如runwayntwo等有更好的視頻分辨率和影視感,但對(duì)靜態(tài)圖片的處理能力相對(duì)較差。

但它在專(zhuān)業(yè)化的視頻內(nèi)容生產(chǎn)上還有很大的距離,需要大量的數(shù)據(jù)和模態(tài)以及專(zhuān)業(yè)能力的結(jié)構(gòu)來(lái)完成。

總體而言,文生視頻的商用化程度較低。但從圖片生成的應(yīng)用來(lái)看,其商業(yè)前景值得期待。

圖片生成類(lèi)應(yīng)用在多模態(tài)大模型中表現(xiàn)出較強(qiáng)的收費(fèi)能力,應(yīng)用數(shù)量上占比最高。

目前唯一收費(fèi)的文生視頻應(yīng)用(Runway Gen-2)的商業(yè)模式與圖片生成趨同,即主要按照生成量定價(jià)。

圖片

結(jié)尾:

當(dāng)前,市場(chǎng)普遍認(rèn)為AI應(yīng)用已經(jīng)逐步步入成熟期,但尚未出現(xiàn)具有顛覆性的殺手級(jí)應(yīng)用。

盡管如此,AI應(yīng)用的發(fā)展仍處于早期階段,對(duì)應(yīng)的算力需求遠(yuǎn)未達(dá)到頂峰。

部分資料參考:硅基研究室:《Pika爆火,但AI視頻還沒(méi)到「GPT時(shí)刻」》,半兩財(cái)經(jīng):《Pika爆火背后“女兒概念股”凸顯國(guó)產(chǎn)AI應(yīng)用焦慮》,電子發(fā)燒友網(wǎng):《文生視頻Pika 1.0爆火!一句話(huà)生成視頻,普通人也能當(dāng)“導(dǎo)演”》

       原文標(biāo)題 : AI芯天下丨分析丨OPEN AI投資Pika,文生視頻2024將會(huì)爆火?

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)