OPEN AI投資Pika,文生視頻2024將會爆火?
前言:
隨著文生視頻軟件技術(shù)的不斷進步,AIGC技術(shù)對多業(yè)態(tài)應用的賦能將加速實現(xiàn)。
自人工智能推出以來,其已經(jīng)逐漸從理論框架走向?qū)嶋H應用,其對人力和財力成本的節(jié)省效果也將在上市公司的業(yè)績中逐漸體現(xiàn)出來。
這種變化將對多個行業(yè)產(chǎn)生深遠影響,并為投資者提供更多有價值的投資機會。
作者 | 方文三
圖片來源 | 網(wǎng) 絡
Pika 1.0發(fā)布易用性被認可
2023年11月29日,Pika labs正式發(fā)布了其全新的文生視頻產(chǎn)品Pika 1.0。
該產(chǎn)品的視頻生成效果和易用性均得到了廣泛認可,并在市場上引起了熱烈的討論。
目前Pika社區(qū)已經(jīng)發(fā)展到50萬名用戶,每周生成數(shù)百萬個視頻。
Pika的創(chuàng)始人是兩位斯坦福大學人工智能實驗室的前博士生郭文景和ChenlinMeng,目前Pika已融資3輪,估值超過2億美元。
Pika1.0的功能主要包括五方面:文本生成視頻以及圖像生成視頻、視頻之間不同風格轉(zhuǎn)換、擴展格式、改變局部內(nèi)容、擴展視頻長度。
這是一次重大的產(chǎn)品升級,包括一個新的AI模型,能夠生成和編輯各種風格的視頻,如3D動畫、動漫、卡通和電影。
Pika1.0附帶一個工具,可延長現(xiàn)有視頻的長度或?qū)⑵滢D(zhuǎn)換為不同的風格,例如[真人]到[動畫],或者擴展視頻的畫布或?qū)捀弑取?o:p>
支持三種模態(tài)的提示輸入,讓Pika Labs 1.0直接[對齊]了runway家族的幾乎所有的功能。
一連串投資人名單非常豪華,幾乎所有AI領域的知名公司都參與了此輪融資:
LightspeedVenturePartners領投,Homebrew
ConvictionCapital、SV參與,Angel、Ben'sBites。
Quora創(chuàng)始人AdamD'Angelo、前GitHub首席執(zhí)行官NatFriedman和Giphy聯(lián)合創(chuàng)始人AlexChung也是投資人。
OpenAI的科學家Karpathy對圖像與視頻生成領域的最新發(fā)展保持高度關注。他還參與了Pika Labs最近一輪的投資。
在發(fā)布新產(chǎn)品的同時,Pika Labs正式宣布已完成新一輪融資。
此次融資總額為5500萬美元,其中包括種子前輪和種子輪投資,由Nat Friedman和Daniel Gross領投。
游戲傳媒業(yè)態(tài)或率先受益
目前,一些專注于短視頻內(nèi)容AI口型匹配和翻譯的應用,如HeyGen,以及近期備受矚目的Pika所展現(xiàn)的可編輯性和電影級效果,都是迅速找到與自身產(chǎn)品相契合的市場。
隨著AIGC技術(shù)在影視劇集、宣傳視頻等領域逐步滲透,視頻創(chuàng)作效率有望迎來顯著提升。
隨著Pika在文生視頻領域的應用驗證,業(yè)內(nèi)普遍認為游戲傳媒類上市公司或?qū)⒙氏仁芤妗?o:p>
值得關注的是,目前多家游戲傳媒類上市公司已成功將AIGC技術(shù)運用到視頻或游戲素材的創(chuàng)作中。
賦能游戲傳媒類上市公司只是應用層落地的一個開端,AIGC與多業(yè)態(tài)相結(jié)合將是未來的趨勢。
如果該產(chǎn)品能夠進一步發(fā)展成為爆款應用,將有望提振市場對AI應用落地的信心。
參考文生圖在廣告領域的應用,文生視頻同樣有望推動生產(chǎn)力革命,降低生產(chǎn)成本和創(chuàng)作門檻,從而加速AIGC技術(shù)的產(chǎn)業(yè)化進程。
從能力的角度來看,文生視頻有望率先在短視頻和動漫兩個領域落地。這將為這兩個行業(yè)帶來更多的創(chuàng)新和可能性,進一步推動其發(fā)展。
AI視頻遠沒到GPT時刻
從目前文生視頻模型的實際應用效果來看,其生成效果在時長、分辨率和內(nèi)容合理性方面仍存在一定的限制,這主要源于視頻場景的復雜性。
在數(shù)據(jù)收集方面,與文生圖模型相比,文生視頻模型需要處理的數(shù)據(jù)更為復雜。
為了學習字幕、幀照片寫實感和時間動態(tài),文生視頻模型需要大量的數(shù)據(jù)進行訓練。
同時,由于視頻長度不一,將視頻切分成固定幀數(shù)的片段會破壞文本與時間之間的對應關系,進而影響模型的訓練效果。
此外,從技術(shù)角度考慮,要想生成高質(zhì)量的視頻,需要具備強大的計算與推理能力。
當前的文生視頻模型在理解視頻對象運動連貫性、日常與非日常場景變化等方面仍有待提升。
從商業(yè)模式來看,文生視頻應用的商業(yè)化模式與圖片生成相似,主要是按照生成量來定價。
與文生圖應用的早期商業(yè)化進程相比,文生視頻應用仍有很長的路要走。
整體來講,AI文生視頻領域處于極早期的狀態(tài),很難實現(xiàn)精準超長時間和視頻質(zhì)量的滿足條件下完成對行業(yè)效率的提升。
各家的優(yōu)化和迭代速度都較慢
視頻是由多幀圖像組合而成,而文生視頻在文生圖的基礎上增加了時間維度,技術(shù)實現(xiàn)難度更大。
盡管像Meta和Google這樣的硅谷AI巨頭在文生視頻領域進展緩慢,它們分別推出的Make-A-Video和Phenaki都尚未公測。
文生視頻的底層模型和技術(shù)仍在不斷優(yōu)化中,尚未篩選出最優(yōu)模型。
該技術(shù)主要經(jīng)歷了基于GAN和VAE、基于Transformer模型、基于擴散模型三個階段。
目前主流的文生視頻模型主要依托Transformer模型和擴散模型。
基于Transformer的代表Phenaki突破了視頻生成時長限制,但效果相對粗糙缺少細節(jié);
而基于擴散模型的代表Make-AVideo則更注重提升視頻質(zhì)量,但其視頻時長均在4s以內(nèi)。
目前可公測的文生視頻應用較少,僅有RunwayGen-2、ZeroScope及Pika Labs等少數(shù)幾個。
這些應用存在一些共同問題,如復雜人物動作生成幀連續(xù)效果較差、非日常場景的視頻架構(gòu)能力連續(xù)能力一般、多主體視頻生成缺乏邏輯連續(xù)性等。
目前,PiKa等AI文生視頻工具都處于1.0之下的版本。
相對于競爭對手如runwayntwo等有更好的視頻分辨率和影視感,但對靜態(tài)圖片的處理能力相對較差。
但它在專業(yè)化的視頻內(nèi)容生產(chǎn)上還有很大的距離,需要大量的數(shù)據(jù)和模態(tài)以及專業(yè)能力的結(jié)構(gòu)來完成。
總體而言,文生視頻的商用化程度較低。但從圖片生成的應用來看,其商業(yè)前景值得期待。
圖片生成類應用在多模態(tài)大模型中表現(xiàn)出較強的收費能力,應用數(shù)量上占比最高。
目前唯一收費的文生視頻應用(Runway Gen-2)的商業(yè)模式與圖片生成趨同,即主要按照生成量定價。
結(jié)尾:
當前,市場普遍認為AI應用已經(jīng)逐步步入成熟期,但尚未出現(xiàn)具有顛覆性的殺手級應用。
盡管如此,AI應用的發(fā)展仍處于早期階段,對應的算力需求遠未達到頂峰。
部分資料參考:硅基研究室:《Pika爆火,但AI視頻還沒到「GPT時刻」》,半兩財經(jīng):《Pika爆火背后“女兒概念股”凸顯國產(chǎn)AI應用焦慮》,電子發(fā)燒友網(wǎng):《文生視頻Pika 1.0爆火!一句話生成視頻,普通人也能當“導演”》
原文標題 : AI芯天下丨分析丨OPEN AI投資Pika,文生視頻2024將會爆火?

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?