久久久九九九一级大片a|一级黄片黄片一级一级|三级无码视频免费操人视频|成人精品A片亚州一区二区|亚洲日韩欧美在线一二区|91丝袜一区二区|国摸私拍电影一区二区爱|免费久久久久久久久久久久|免费国产黄色av发布网址|国产精品人妻人伦a 6 2v久动漫

螞蟻集團投資視頻生成模型公司愛詩科技

DoNews4月23日消息,《晚點 LatePost》獲悉,螞蟻集團已于近期獨家投資了中國視頻生成大模型公司愛詩科技的 A2 輪,該輪金額超過 1 億元人民幣。

接近螞蟻的人士說,螞蟻除自研大模型并落地應用外,也在持續(xù)關(guān)注行業(yè)的前瞻探索,圍繞大模型技術(shù)能力、產(chǎn)業(yè)應用和 AI 算力等核心技術(shù)和生態(tài),已陸續(xù)投資了智譜 AI、月之暗面等大模型創(chuàng)業(yè)公司和專注多模態(tài)的生數(shù)科技等。

愛詩科技成立于 2023 年 4 月,目前團隊約有 30 人,創(chuàng)始人兼 CEO 王長虎曾任字節(jié)跳動視覺技術(shù)負責人,在視頻理解、數(shù)據(jù)處理、內(nèi)容安全和視頻生成等領(lǐng)域都有積累。

愛詩科技既做視頻生成大模型,又做面向內(nèi)容創(chuàng)作者和普通人的視頻生成產(chǎn)品。

愛詩科技稱自己 2023 年 6 月以來就選擇 DiT(Diffusion Transformer)架構(gòu),這是一種 2022 年底被提出的新型擴散模型,DiT 也被認為是 Sora 背后的架構(gòu)。

1 月,愛詩科技上線了視頻生成產(chǎn)品 PixVerse,用戶在 PixVerse 網(wǎng)頁版界面里輸入文字或圖片就能生成視頻。目前 PixVerse 生成的視頻時長為 4 秒,產(chǎn)品免費。

據(jù)第三方監(jiān)測平臺 SimilarWeb 的數(shù)據(jù),上線 3 個月來,PixVerse 的月訪問量超過 115 萬,上線早兩個月的 Pika 是 226 萬,2023年中旬就可以生成 18 秒視頻的 Runway 的月訪問量則超過 668 萬,該數(shù)據(jù)不包括 Runway 在 App 端的數(shù)據(jù),大量 Runway 用戶可能會直接使用 App。目前 PixVerse 和 Pika 尚沒有 App。

在廣告、影視等領(lǐng)域,現(xiàn)在不少從業(yè)者已習慣先用 Midjourney 生成圖片,再轉(zhuǎn)給 PixVerse 生成視頻。

Sora 激起了更多視頻模型和應用的競爭。

據(jù)了解,一季度,字節(jié) AI 研發(fā)團隊提升了視頻生成模型的優(yōu)先級,此前優(yōu)先級最高的是大語言模型和文生圖模型。原 Google 資深科學家蔣路在 2 月加入字節(jié)跳動,他曾是 Google 視頻生成模型 VideoPoet 項目的負責人。字節(jié)此前已推出視頻生成模型 MagicVideo-V2。

同樣在視頻領(lǐng)域有數(shù)據(jù)和經(jīng)驗積累的騰訊,在 2023 年 12 月和 2024 年 1 月分別發(fā)布了 ?AnimateZero 和 VideoCrafter2 兩個模型。

阿里 2020 年就在做多模態(tài)大模型,它在 2023 年下半年發(fā)布了視頻生成模型 I2VGen-XL。

創(chuàng)業(yè)公司中,國內(nèi)的視頻生成產(chǎn)品已有右腦科技的 Vega AI、MewXAI 的藝映 AI、HiDream.ai(智象未來)的 Pixeling、新壹科技的一幀秒創(chuàng),以及 Never Ends 和 Morph Studio 等。

目前大部分視頻生成產(chǎn)品可以生成的時長大多在 4 到 7 秒,而 Sora 能一次性生成 60 秒視頻。從發(fā)布時展示的例子看,Sora 生成的視頻在畫面的運動平滑度、動作連續(xù)性、物理真實性和成像質(zhì)量上都表現(xiàn)較好。

王長虎認為,15 秒的視頻時長是一個節(jié)點:15 秒意味著能呈現(xiàn)一套完整動作、傳達一段有意義的內(nèi)容。要把視頻時長從 4 秒做到 15 秒,考驗的是模型能力,包括理解提示指令(prompt)、模擬物理世界的規(guī)律、生成準確的畫面動作等等。具備生成 15 秒視頻的能力,就具備在更長時間的視頻里保證畫面主體和背景一致性的能力。從 15 秒再到 60 秒,按照 Scaling Law 逐步擴大即可。

不少從業(yè)者和投資人認為,Sora 之所以會表現(xiàn)出更強的能力,源于背后 OpenAI 的多模態(tài)模型 GPT-4V,而 GPT-4V 的能力又建立在 GPT-4 的理解能力上,所以大語言模型能力強的公司,更有可能做好視頻生成模型等多模態(tài)模型。

Sora 雖然發(fā)布效果驚艷,卻至今仍未對更多開發(fā)者和普通用戶開放。這和 OpenAI 以往的風格不同——從 2020 年的 GPT-3 開始,OpenAI 每發(fā)布一個產(chǎn)品,都會迅速讓更多人用起來。

Sora 的反??赡芤驗楫a(chǎn)品還不夠成熟。目前業(yè)界的信息是,Sora 生成 60 秒的視頻需要 20-30 分鐘,這意味著昂貴的運算成本,越多人用成本越高。

也有人認為,Sora 生成視頻的質(zhì)量可能還不夠穩(wěn)定,年初震撼世界的幾個視頻可能是挑選后的最好結(jié)果。

提高穩(wěn)定性和效果的同時降低成本,也是所有視頻模型公司和試圖做視頻生成的大語言模型公司接下來要解決的問題。

王長虎此前表示,如果去年有更多的資源和算力,愛詩科技可以比 Sora 更早做出能生成 60 秒視頻的模型?,F(xiàn)在,更多的錢已經(jīng)到位。

標簽: 愛詩科技
螞蟻集團投資視頻生成模型公司愛詩科技
掃描二維碼查看原文
分享自DoNews
Copyright ? DoNews 2000-2026 All Rights Reserved
蜀ICP備2024059877號-1