影片生成進入「自回歸架構競賽」!VideoAR模型提升效率,影音AI開始擺脫高算力依賴

影片生成進入「自回歸架構競賽」!VideoAR模型提升效率,影音AI開始擺脫高算力依賴

【記者蔡富丞/柯妮妮 綜合報導】在影音AI技術持續進化之際,另一個關鍵突破來自於模型架構本身。最新提出的VideoAR框架,採用自回歸(autoregressive)方式生成影片,成功降低計算成本,同時維持畫面品質與時間一致性。

影片生成進入「自回歸架構競賽」!VideoAR模型提升效率,影音AI開始擺脫高算力依賴

傳統影音生成多依賴擴散模型,雖然畫質優秀,但運算成本高且速度較慢,限制了實際應用。VideoAR則透過逐幀預測的方式生成影片,並結合多尺度設計,讓模型能同時處理畫面細節與時間變化,大幅提升效率。 

此外,該框架也導入跨幀誤差修正與時間編碼技術,解決長影片生成時容易出現的畫面漂移問題,使內容在長時間序列中仍能維持穩定一致。 

這項技術的出現,顯示影音AI正在重新思考「生成方式」。當效率與成本成為關鍵因素,自回歸架構有望成為下一代主流,特別是在即時應用與大規模部署場景中更具優勢。

可以觀察到,影音AI競爭正逐漸從模型效果,轉向「架構效率與可擴展性」。未來能在效能、品質與資源消耗之間取得平衡的技術,將更有機會被平台採用並落地於實際應用場景。

分享文章 :

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *