科技媒體testingcatalog近日披露,谷歌旗下新一代文生視頻模型Veo 3.1已進入實際應用階段,首批真實生成的視頻樣本通過云平臺Vertex AI及視頻工具Google Vids流出。該模型可生成時長8秒、分辨率達720p的帶聲視頻片段,標志著文生視頻技術向多模態交互邁出重要一步。
在Google Vids的最新版本中,Veo 3.1已實現核心功能集成。用戶通過輸入文本指令,即可獲得包含背景音樂的視頻內容。相較于前代產品,新模型生成的配樂在情感表達上更具張力,能夠根據畫面內容動態調整節奏與氛圍。目前流出的測試案例顯示,系統可穩定輸出8秒標準時長的視頻,分辨率保持720p高清標準。
性能對比測試揭示了顯著技術突破。在"賽博朋克黑客機器人"與"火山噴發"等主題的生成測試中,Veo 3.1展現出對復雜語義的深度理解能力。模型能夠精準捕捉文本中的微妙差異,例如在呈現熔巖流動時,通過像素級細節控制還原了液體的粘稠質感;在構建恐龍形象時,不僅優化了表皮紋理,還修正了前代模型中常見的肢體比例失調問題。
技術團隊重點優化了視覺保真度指標。新模型通過改進的注意力機制,有效減少了畫面重復現象,使連續幀之間的過渡更加自然。在動態場景渲染方面,系統能夠同時處理多個物體的運動軌跡,確保復雜場景中各元素的物理關系準確無誤。這些改進使生成內容的可信度大幅提升,為專業級視頻創作提供了技術支撐。











