

Actanywhere
簡介 :
ActAnywhere是一個用於自動生成與前景主體運動和外觀相符的視頻背景的生成模型。該任務涉及合成與前景主體運動和外觀相一致的背景,同時也符合藝術家的創作意圖。ActAnywhere利用大規模視頻擴散模型的力量,並專門定製用於此任務。ActAnywhere以一系列前景主體分割作為輸入,以描述所需場景的圖像作為條件,生成與條件幀相一致的連貫視頻,同時實現現實的前景和背景交互。該模型在大規模人機交互視頻數據集上進行訓練。大量評估表明該模型的性能明顯優於基準,可以泛化到各種分佈樣本,包括非人類主體。
需求人群 :
ActAnywhere可用於自動為包含人類或其他主體的視頻生成相應的背景,從而減少手工調整的工作量,提高視頻製作效率。
使用場景
- 使用包含人物運動的視頻分割序列及海邊圖片,生成人物在海邊奔跑的合成視頻
- 使用包含舞蹈動作的視頻分割和古代宮殿的圖片,生成舞蹈在宮殿裡進行的效果
- 使用汽車行駛的視頻分割和高樓大廈的圖片,生成汽車在城市街景行駛的效果
產品特色
- 根據輸入的前景主體分割序列,可以生成符合條件圖像的視頻背景
- 生成的背景會與前景主體運動和外觀相協調
- 支持以合成的包含主體的幀或者僅包含背景的幀作為條件圖像
- 可以生成具有不同攝像機運動的視頻背景
精選AI產品推薦

Sora
Sora是一個基於大規模訓練的文本控制視頻生成擴散模型。它能夠生成長達1分鐘的高清視頻,涵蓋廣泛的視覺數據類型和分辨率。Sora通過在視頻和圖像的壓縮潛在空間中訓練,將其分解為時空位置補丁,實現了可擴展的視頻生成。Sora還展現出一些模擬物理世界和數字世界的能力,如三維一致性和交互,揭示了繼續擴大視頻生成模型規模來發展高能力模擬器的前景。
AI視頻生成
17.2M

Animate Anyone
Animate Anyone旨在通過驅動信號從靜態圖像生成角色視頻。我們利用擴散模型的力量,提出了一個專為角色動畫量身定製的新框架。為了保持參考圖像中複雜外觀特徵的一致性,我們設計了ReferenceNet來通過空間注意力合併詳細特徵。為了確保可控性和連續性,我們引入了一個高效的姿勢指導器來指導角色的動作,並採用了一種有效的時間建模方法,以確保視頻幀之間的平滑跨幀過渡。通過擴展訓練數據,我們的方法可以為任意角色製作動畫,與其他圖像到視頻方法相比,在角色動畫方面取得了出色的結果。此外,我們在時尚視頻和人類舞蹈合成的基準上評估了我們的方法,取得了最先進的結果。
AI視頻生成
11.8M