訂閱
糾錯
加入自媒體

OPEN AI投資Pika,文生視頻2024將會爆火?

2023-12-25 09:31
Ai芯天下
關注

前言:

隨著文生視頻軟件技術(shù)的不斷進步,AIGC技術(shù)對多業(yè)態(tài)應用的賦能將加速實現(xiàn)。

人工智能推出以來,其已經(jīng)逐漸從理論框架走向?qū)嶋H應用,其對人力和財力成本的節(jié)省效果也將在上市公司的業(yè)績中逐漸體現(xiàn)出來。

這種變化將對多個行業(yè)產(chǎn)生深遠影響,并為投資者提供更多有價值的投資機會。

作者 | 方文三

圖片來源 |  網(wǎng) 絡 

Pika 1.0發(fā)布易用性被認可

2023年11月29日,Pika labs正式發(fā)布了其全新的文生視頻產(chǎn)品Pika 1.0。

該產(chǎn)品的視頻生成效果和易用性均得到了廣泛認可,并在市場上引起了熱烈的討論。

目前Pika社區(qū)已經(jīng)發(fā)展到50萬名用戶,每周生成數(shù)百萬個視頻。

Pika的創(chuàng)始人是兩位斯坦福大學人工智能實驗室的前博士生郭文景和ChenlinMeng,目前Pika已融資3輪,估值超過2億美元。

Pika1.0的功能主要包括五方面:文本生成視頻以及圖像生成視頻、視頻之間不同風格轉(zhuǎn)換、擴展格式、改變局部內(nèi)容、擴展視頻長度。

這是一次重大的產(chǎn)品升級,包括一個新的AI模型,能夠生成和編輯各種風格的視頻,如3D動畫、動漫、卡通和電影。

Pika1.0附帶一個工具,可延長現(xiàn)有視頻的長度或?qū)⑵滢D(zhuǎn)換為不同的風格,例如[真人]到[動畫],或者擴展視頻的畫布或?qū)捀弑取?o:p>

支持三種模態(tài)的提示輸入,讓Pika Labs 1.0直接[對齊]了runway家族的幾乎所有的功能。

圖片

一連串投資人名單非常豪華,幾乎所有AI領域的知名公司都參與了此輪融資:

LightspeedVenturePartners領投,Homebrew

ConvictionCapital、SV參與,Angel、Ben'sBites。

Quora創(chuàng)始人AdamD'Angelo、前GitHub首席執(zhí)行官NatFriedman和Giphy聯(lián)合創(chuàng)始人AlexChung也是投資人。

OpenAI的科學家Karpathy對圖像與視頻生成領域的最新發(fā)展保持高度關注。他還參與了Pika Labs最近一輪的投資。

在發(fā)布新產(chǎn)品的同時,Pika Labs正式宣布已完成新一輪融資。

此次融資總額為5500萬美元,其中包括種子前輪和種子輪投資,由Nat Friedman和Daniel Gross領投。

圖片

游戲傳媒業(yè)態(tài)或率先受益

目前,一些專注于短視頻內(nèi)容AI口型匹配和翻譯的應用,如HeyGen,以及近期備受矚目的Pika所展現(xiàn)的可編輯性和電影級效果,都是迅速找到與自身產(chǎn)品相契合的市場。

隨著AIGC技術(shù)在影視劇集、宣傳視頻等領域逐步滲透,視頻創(chuàng)作效率有望迎來顯著提升。

隨著Pika在文生視頻領域的應用驗證,業(yè)內(nèi)普遍認為游戲傳媒類上市公司或?qū)⒙氏仁芤妗?o:p>

值得關注的是,目前多家游戲傳媒類上市公司已成功將AIGC技術(shù)運用到視頻或游戲素材的創(chuàng)作中。

賦能游戲傳媒類上市公司只是應用層落地的一個開端,AIGC與多業(yè)態(tài)相結(jié)合將是未來的趨勢。

如果該產(chǎn)品能夠進一步發(fā)展成為爆款應用,將有望提振市場對AI應用落地的信心。

參考文生圖在廣告領域的應用,文生視頻同樣有望推動生產(chǎn)力革命,降低生產(chǎn)成本和創(chuàng)作門檻,從而加速AIGC技術(shù)的產(chǎn)業(yè)化進程。

從能力的角度來看,文生視頻有望率先在短視頻和動漫兩個領域落地。這將為這兩個行業(yè)帶來更多的創(chuàng)新和可能性,進一步推動其發(fā)展。

圖片

AI視頻遠沒到GPT時刻

從目前文生視頻模型的實際應用效果來看,其生成效果在時長、分辨率和內(nèi)容合理性方面仍存在一定的限制,這主要源于視頻場景的復雜性。

在數(shù)據(jù)收集方面,與文生圖模型相比,文生視頻模型需要處理的數(shù)據(jù)更為復雜。

為了學習字幕、幀照片寫實感和時間動態(tài),文生視頻模型需要大量的數(shù)據(jù)進行訓練。

同時,由于視頻長度不一,將視頻切分成固定幀數(shù)的片段會破壞文本與時間之間的對應關系,進而影響模型的訓練效果。

此外,從技術(shù)角度考慮,要想生成高質(zhì)量的視頻,需要具備強大的計算與推理能力。

當前的文生視頻模型在理解視頻對象運動連貫性、日常與非日常場景變化等方面仍有待提升。

從商業(yè)模式來看,文生視頻應用的商業(yè)化模式與圖片生成相似,主要是按照生成量來定價。

與文生圖應用的早期商業(yè)化進程相比,文生視頻應用仍有很長的路要走。

整體來講,AI文生視頻領域處于極早期的狀態(tài),很難實現(xiàn)精準超長時間和視頻質(zhì)量的滿足條件下完成對行業(yè)效率的提升。

各家的優(yōu)化和迭代速度都較慢

視頻是由多幀圖像組合而成,而文生視頻在文生圖的基礎上增加了時間維度,技術(shù)實現(xiàn)難度更大。

盡管像Meta和Google這樣的硅谷AI巨頭在文生視頻領域進展緩慢,它們分別推出的Make-A-Video和Phenaki都尚未公測。

文生視頻的底層模型和技術(shù)仍在不斷優(yōu)化中,尚未篩選出最優(yōu)模型。

該技術(shù)主要經(jīng)歷了基于GAN和VAE、基于Transformer模型、基于擴散模型三個階段。

目前主流的文生視頻模型主要依托Transformer模型和擴散模型。

基于Transformer的代表Phenaki突破了視頻生成時長限制,但效果相對粗糙缺少細節(jié);

而基于擴散模型的代表Make-AVideo則更注重提升視頻質(zhì)量,但其視頻時長均在4s以內(nèi)。

目前可公測的文生視頻應用較少,僅有RunwayGen-2、ZeroScope及Pika Labs等少數(shù)幾個。

這些應用存在一些共同問題,如復雜人物動作生成幀連續(xù)效果較差、非日常場景的視頻架構(gòu)能力連續(xù)能力一般、多主體視頻生成缺乏邏輯連續(xù)性等。

目前,PiKa等AI文生視頻工具都處于1.0之下的版本。

相對于競爭對手如runwayntwo等有更好的視頻分辨率和影視感,但對靜態(tài)圖片的處理能力相對較差。

但它在專業(yè)化的視頻內(nèi)容生產(chǎn)上還有很大的距離,需要大量的數(shù)據(jù)和模態(tài)以及專業(yè)能力的結(jié)構(gòu)來完成。

總體而言,文生視頻的商用化程度較低。但從圖片生成的應用來看,其商業(yè)前景值得期待。

圖片生成類應用在多模態(tài)大模型中表現(xiàn)出較強的收費能力,應用數(shù)量上占比最高。

目前唯一收費的文生視頻應用(Runway Gen-2)的商業(yè)模式與圖片生成趨同,即主要按照生成量定價。

圖片

結(jié)尾:

當前,市場普遍認為AI應用已經(jīng)逐步步入成熟期,但尚未出現(xiàn)具有顛覆性的殺手級應用。

盡管如此,AI應用的發(fā)展仍處于早期階段,對應的算力需求遠未達到頂峰。

部分資料參考:硅基研究室:《Pika爆火,但AI視頻還沒到「GPT時刻」》,半兩財經(jīng):《Pika爆火背后“女兒概念股”凸顯國產(chǎn)AI應用焦慮》,電子發(fā)燒友網(wǎng):《文生視頻Pika 1.0爆火!一句話生成視頻,普通人也能當“導演”》

       原文標題 : AI芯天下丨分析丨OPEN AI投資Pika,文生視頻2024將會爆火?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號