訂閱
糾錯(cuò)
加入自媒體

視頻創(chuàng)作者飯碗不保!Meta和谷歌推出的AI黑科技來(lái)?yè)尰顑毫?/p>

9月末,Meta發(fā)布了新款A(yù)I系統(tǒng)Make-A-Video,開(kāi)啟了“用嘴做視頻”的時(shí)代。谷歌不甘落后,在Make-A-Video推出后一周帶著Imagen Video和Phenaki兩款類(lèi)似的人工智能產(chǎn)品登場(chǎng)。

這幾款產(chǎn)品吸引了技術(shù)圈、流媒體行業(yè)和吃瓜者的一波又一波的關(guān)注,不少大V紛紛感慨原來(lái)AI在不知不覺(jué)間已經(jīng)發(fā)展得如此智能,自己似乎有些適應(yīng)不了AI的進(jìn)化速度了......

那么,Meta和谷歌推出的這幾款A(yù)I產(chǎn)品究竟有哪些逆天功能?AI的發(fā)展又會(huì)給Web3時(shí)代的內(nèi)容創(chuàng)作帶來(lái)怎樣的改變?

“用嘴做視頻”的時(shí)代到來(lái)了嗎?

首先,Meta推出的Make-A-Video是一款可以直接基于文字生成短視頻的人工智能系統(tǒng)。

根據(jù)Meta AI官網(wǎng)生成的部分短視頻內(nèi)容顯示,Make-A-Video允許用戶輸入一些單詞或句子,比如“一只披著紅色斗篷、穿著超人服裝的狗在天空中飛翔”,然后系統(tǒng)會(huì)生成一個(gè)時(shí)長(zhǎng)5秒的視頻片段。

除此之外,官網(wǎng)示例還有UFO在火星著陸、畫(huà)家在畫(huà)布上畫(huà)畫(huà)、馬喝水等短視頻片段。

除了文本輸入外,Make-A-Video還可以根據(jù)其他視頻或圖片制作新視頻,或是生成連接圖像的關(guān)鍵幀,讓靜態(tài)圖片動(dòng)起來(lái)。

不過(guò),Make-A-Video目前只能生成5秒的16幀/秒無(wú)聲片段,畫(huà)面只能描述一個(gè)動(dòng)作或場(chǎng)景,像素也只有768×768。

并且從官網(wǎng)示例來(lái)看,雖然Make-A-Video生成視頻的畫(huà)面準(zhǔn)確率很高,但動(dòng)態(tài)效果生硬、部分畫(huà)面要素過(guò)于獵奇,甚至還有些不符合常理,總體上來(lái)說(shuō)視頻效果還是不盡如人意。

不過(guò),對(duì)于AI產(chǎn)品的視頻清晰度和畫(huà)面時(shí)長(zhǎng)問(wèn)題,谷歌AI又一次帶給大家驚喜。

此次谷歌推出的兩款產(chǎn)品中,其中一個(gè)叫Imagen Video。Imagen Video是一款和Make-A-Video類(lèi)似的產(chǎn)品,可以根據(jù)文本生成視頻。

與Meta的產(chǎn)品相比,Imagen Video可以生成1280×768的24幀/秒高清視頻片段,至少對(duì)于目前人工智能發(fā)展來(lái)看,技術(shù)已經(jīng)相當(dāng)可以了。不少網(wǎng)友看了產(chǎn)品網(wǎng)站之后紛紛感慨“誤以為進(jìn)了視頻素材網(wǎng)站”。

在官方發(fā)表的論文中寫(xiě)到,Imagen Video除了能夠生成高清視頻外,還會(huì)在公開(kāi)可用的LAION-400M圖像文本數(shù)據(jù)集、1400萬(wàn)個(gè)視頻文本對(duì)和6000萬(wàn)個(gè)圖像文本對(duì)上進(jìn)行訓(xùn)練,因此還具備一些純從數(shù)據(jù)中學(xué)習(xí)的非結(jié)構(gòu)化生成模型所沒(méi)有的獨(dú)特功能。

例如,它能理解并生成不同藝術(shù)風(fēng)格的作品,如“水彩”或者“像素畫(huà)”,或者直接“梵高風(fēng)格繪畫(huà)”等。

它還能理解物體的3D結(jié)構(gòu),并基于理解生成旋轉(zhuǎn)對(duì)象的視頻,同時(shí)物體的大致結(jié)構(gòu)也能保留,至少不會(huì)變形。

最后,它還繼承了此前Imagen文本生成圖像系統(tǒng)的準(zhǔn)確描繪文字的能力,在此基礎(chǔ)上僅靠簡(jiǎn)單描述產(chǎn)生各種創(chuàng)意動(dòng)畫(huà),為眾多自媒體行業(yè)的朋友們提供了一條素材選擇、制作的捷徑。

而谷歌此次推出的另一款產(chǎn)品Phenaki,則是能根據(jù)200個(gè)詞左右的提示語(yǔ)生成2分鐘以上的長(zhǎng)視頻,講述一個(gè)完整的故事。

雖然圖片畫(huà)質(zhì)不如Imagen Video,但Phenaki所呈現(xiàn)的視頻非常貼近文本描述,而且谷歌認(rèn)為它不僅可用來(lái)產(chǎn)生描述單個(gè)概念的視頻,還能可根據(jù)一系列的文本,產(chǎn)生有連貫性的多個(gè)視頻。

基于移動(dòng)互聯(lián)網(wǎng)的普及,產(chǎn)生的圖像資料集、視頻資料庫(kù)數(shù)據(jù)非常龐大。

不管是Meta的Make-A-Video還是谷歌的Imagen Video或Phenaki,都可以利用現(xiàn)有的視頻與圖像數(shù)據(jù)資源進(jìn)行AI訓(xùn)練,讓生成的AI作品更加真實(shí),也為之后的內(nèi)容生產(chǎn)提供了新的思路。

對(duì)AI還有哪些期待?

如今,互聯(lián)網(wǎng)內(nèi)容形態(tài)正在變得豐富多樣,從文字、圖片到音樂(lè)、視頻,再到直播、游戲,內(nèi)容需求無(wú)處不在,用戶每天消費(fèi)的內(nèi)容不斷增加,但是靠人力創(chuàng)作已經(jīng)很難滿足需求的增長(zhǎng)。

隨著科技技術(shù)的提升,AI讓內(nèi)容生產(chǎn)變得更容易、更個(gè)性。

盡管從畫(huà)面效果和情節(jié)串聯(lián)上,現(xiàn)有的AI產(chǎn)品還遠(yuǎn)遠(yuǎn)比不上人力創(chuàng)作,但Meta和谷歌此次的新產(chǎn)品著實(shí)讓人眼前一亮,并且讓人們開(kāi)始期待AI將會(huì)如何引領(lǐng)內(nèi)容生產(chǎn)的發(fā)展。

可以說(shuō),從UGC、PGC到如今的AIGC(人工智能生產(chǎn)內(nèi)容),內(nèi)容生產(chǎn)正在進(jìn)入一段新的革命,不僅會(huì)將內(nèi)容產(chǎn)業(yè)的繁榮推向新的高度,也將對(duì)社會(huì)的演進(jìn)產(chǎn)生更深遠(yuǎn)的影響。

最后,我們不妨看得更長(zhǎng)遠(yuǎn)些,無(wú)論是元宇宙還是Web3,下一代互聯(lián)網(wǎng)的繁榮需要海量的數(shù)字內(nèi)容,同時(shí)對(duì)內(nèi)容的數(shù)量、形式和交互性都提出了更高的要求。從這個(gè)角度來(lái)看,AIGC便顯得尤為必要。

在可預(yù)見(jiàn)的未來(lái)里,AIGC會(huì)改變很多行業(yè)。那我們不妨多些期待,去擁抱AIGC時(shí)代的到來(lái)。

【聲明】:本文為元宇宙之心運(yùn)營(yíng)團(tuán)隊(duì)原創(chuàng),未經(jīng)允許嚴(yán)禁轉(zhuǎn)載,如需轉(zhuǎn)載請(qǐng)聯(lián)系我們,文章版權(quán)和最終解釋權(quán)歸元宇宙之心所有。

       原文標(biāo)題 : 視頻創(chuàng)作者飯碗不保!Meta和谷歌推出的AI黑科技來(lái)?yè)尰顑毫?/span>

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)