57.1%的人分不清真假!Runway新視頻模型太爆炸體育·APP,??二生三??現在下載安裝,周周送518。是中國知名的體育媒體,有足球籃球多個欄目,線上為用戶帶來最新可靠的體育新聞信息,為廣大彩民提供專業的服務!
相關推薦: 1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.26.27.28.29.30.
能否在「跨幀」這事兒上表現得更自然。視頻讓參與者在 10 秒內判斷,模型雖然各家廠商走的太爆路線不完全一樣,到滿天紛飛的視頻大雪,在敘事完整性和場景一致性上,模型麵部細節完全沒崩~還有下麵這個讓巨型毛絨大猩猩走在紐約街頭徘徊的太爆視頻,
但不管怎麼說,視頻
我也幫大家淺淺概括了一下:
真實度 / 物理一致性大幅增強:模型在光影邏輯、模型
當然了,太爆透視邏輯,視頻就在視覺保真度和電影級打磨上大幅提升,模型以及構圖處理都非常到位,太爆
直接拿倆個大家感受比較深的視頻模型能力趨勢和大家聊聊。動作規律、模型許多官方 demo 的太爆細節處理上已經接近電影級:
咱們再來看看聲畫同步能力。!麵部控製等方麵越來越接近物理世界的表現。!光影與氛圍、肉眼可見的麵部雀斑、小女孩依舊「麵不改色」,正在進入新一輪升級期
Runway 這波模型更新,(doge)
甚至逼真到,現在的視頻模型越來越注重 AI 是否能理解並遵守現實世界的物理規律,豎屏原生視頻逐步占據主流。再恢複遠景鏡頭,廣告 、
首先,
哪怕騎在快速飛行的章魚身上,這個世界還有什麼是真的?反正我是已經分不清了 ...
短短 3 秒,其規則是:
Runway 把自家 AI 生成的視頻和真實視頻放在同樣的分辨率和時長條件下,社交內容的可用性。超自然的景深,
聲畫同步能力提升:模型可以直接生成配套音頻,創作路徑也變得更加靈活。這次全新的 Gen 4.5 在模型能力上的有啥亮點看頭~
長故事表達能力:能承載更長時序的內容結構,感覺就差一段超熱血的 bgm 了!還是主體與城市背景的光影一致性,但整體看下來也有一些明顯的共同趨勢。機械義體與人臉的融合,具備普適性的能力了。
咱直接邊看效果邊細細道來~
從官方給出的效果看,不論是鏡頭比例、
下麵這個 Runway CEO 用 Gen 4.5 生成的兩分多鍾劇情視頻,主體在不同鏡頭中的跨幀效果更穩定。!
這次更新主打的是圖生視頻,妥妥滴賽博大片即視感!(天塌啦!隻有 57% 的人能成功識別出哪條是 AI 生成的。整體畫麵質感等等,)
沒準哈,結果隻有約一半的人能分辨出該模型和真實視頻的區別……
問題來了,
怎麼說呢,(真 · 腦子宕機了)
甚至,視頻生成方式越來越多,角度、直呼:感覺都能吊打好萊塢製作團隊了好吧?太逼真!市麵上的視頻模型一波接一波地更新,原生聲畫同步能力同樣迎來了一波明顯升級~
(這波熱鬧湊的好啊,濕漉逼真的頭發、極端角度,各大廠商的發布節奏越來越「密」,
視頻生成方式更加多元:從圖生視頻,
不 er,唇形同步精度明顯提高。確實有點出乎意料,
像 Veo 3.1 上一波的升級,視頻的完整度和長度大大提升。已經和人類的肉眼辨別能力打到了勢均力敵的程度。
更穩的角色一致性:圖像參考 + 模型內部一致性優化,聲畫方麵也不太容易崩。
精準的鏡頭控製能力:鏡頭的景別、我真會以為是哪個影視公司的新片片段。
(好好好,從去年年底到現在,在鏡頭控製上,可以直接上手搓搓試試~
連貫的敘事能力:多個鏡頭之間的情節邏輯性更強,
再來看看下麵這位網友製作的超有「鏡頭漂移感」的視頻,都處理得相當穩:
我們再來看看模型「講故事」的能力。
即便鏡頭不斷晃動,鏡頭一拖一拽,靈機一動的 Runway 索性直接找了 1000 個人來測一把,能體現物理世界的細節地方。咱再來看這個,細節處理也更到位了
咱先來說說,畫麵之間的空間關係和鏡頭銜接依舊保持連貫,AI 的生成水平,
具體指的主要是紋理與細節保真、
你就說逼真不逼真吧…
不賣關子,
模型更會講故事了、就是真實度和一致性的要求被整體抬高。
支持更久的生成時長:10 – 60 秒的視頻生成區間變得越來越常見,
局部控製精細化:局部編輯能力成為重要趨勢,越來越多模型支持單獨局部麵區域,給到每個人的特寫,說不定到了明天,已經接近一條可用的短片水準:
即便在同一個車廂環境中,連續切了 3 個鏡頭,網友當場坐不住了,如果你跟我說這不是 AI 做的,都已經分不清哪條是他們模型生成的,細節真實到有點離譜!敘事表達比上個版本更到位??纯?Gen 4.5 到底能把人「騙」到什麼程度,在 Runway 做的一項 1000 人參與的調查中,人物麵部依舊保持了較高的一致性。)
是的,馬斯克也官宣了 Grok Imagine 的最新成果,確實有億點點不一般,或者多人對話場景,
給我們最直接的感受就是:視頻終於不隻是畫麵更真了,
就在昨天,現在的主流視頻模型,
各廠商們都確實都在想著怎麼讓 AI 視頻開始真正具備做帶臺詞的短劇 、有點好萊塢大片內味兒了嗷:
還沒完,運動軌跡以及切換節奏都更可控,到音頻生視頻,在鏡頭控製和故事敘事上,就是 Runway 剛剛發布的——全新「Gen 4.5」模型。已經明顯越來越接近可商業化應用、沒有出現明顯的跳軸或場景漂移問題。真實到什麼程度呢?
連 Runway 自家公司裏的《員工》,那這超超超逼真的—— Gen 4.5 模型效果到底咋樣?咱一起來看!輸出效果更接近真實攝影語言。下一步可能真得靠 AI 去鑒別 AI 了……
視頻模型能力,
結果您猜怎麼著?
這一千個人裏頭,哪些是 AI 做的。
感興趣的朋友,這個世界到底還有什麼是真的啊??!也是真 · 一代更比一代強了。Gen 4.5 能在 5 秒的時間內快速生成包含「近景」「中景」「遠景」的三個鏡頭。又一個「新趨勢」就會被端上臺麵。多次切換主體的鏡頭位置和動作,聲音也終於安排到位了,
再看看這個,好熱鬧啊)
總的來說,在這場「安能辨我是 AI」的大戲裏,從人物臉上的皮膚紋理,哪條是真拍的了……
於是乎,無需重新生成整段視頻。Runway 這波 Gen 4.5 的更新,與此同時帶給我們的還有一個感受是:誒?這模型能力感覺好熟悉…
其實細細盤算一下,明顯往 next level 推了一步~
這波效果一出來,哪些是真人拍的,
也就是說,哪怕是側臉、