

Motionclone
簡介 :
MotionClone是一個訓練無關的框架,允許從參考視頻進行運動克隆,以控制文本到視頻的生成。它利用時間注意力機制在視頻反轉中表示參考視頻中的運動,並引入了主時間注意力引導來減輕注意力權重中噪聲或非常微妙運動的影響。此外,為了協助生成模型合成合理的空間關係並增強其提示跟隨能力,提出了一種利用參考視頻中的前景粗略位置和原始分類器自由引導特徵的位置感知語義引導機制。
需求人群 :
MotionClone適合視頻製作者、動畫師和研究人員,因為它提供了一種無需訓練即可快速生成視頻內容的方法。特別是對於那些需要根據特定文本提示生成視頻的專業人士,MotionClone提供了一個高效且靈活的工具。
使用場景
動畫師使用MotionClone根據劇本快速生成動畫視頻草圖
視頻製作者利用MotionClone根據腳本生成視頻內容的初步版本
研究人員使用MotionClone進行視頻生成技術的研究和開發
產品特色
無需訓練即可從參考視頻克隆運動
使用時間注意力機制表示視頻中的運動
主時間注意力引導減輕噪聲或微妙運動的影響
位置感知語義引導機制輔助生成合理的空間關係
增強視頻生成模型的提示跟隨能力
適用於文本到視頻的可控生成
使用教程
1. 設置代碼庫和conda環境
2. 下載Stable Diffusion V1.5
3. 準備社區模型,包括從RealisticVision V5.1下載的社區.safetensors模型
4. 準備AnimateDiff運動模塊,推薦下載v3_adapter_sd_v15.ckpt和v3_sd15_mm.ckpt.ckpt
5. 執行DDIM反轉
6. 執行運動克隆
7. 如果需要,引用MotionClone相關的論文
精選AI產品推薦

Sora
Sora是一個基於大規模訓練的文本控制視頻生成擴散模型。它能夠生成長達1分鐘的高清視頻,涵蓋廣泛的視覺數據類型和分辨率。Sora通過在視頻和圖像的壓縮潛在空間中訓練,將其分解為時空位置補丁,實現了可擴展的視頻生成。Sora還展現出一些模擬物理世界和數字世界的能力,如三維一致性和交互,揭示了繼續擴大視頻生成模型規模來發展高能力模擬器的前景。
AI視頻生成
17.2M

Animate Anyone
Animate Anyone旨在通過驅動信號從靜態圖像生成角色視頻。我們利用擴散模型的力量,提出了一個專為角色動畫量身定製的新框架。為了保持參考圖像中複雜外觀特徵的一致性,我們設計了ReferenceNet來通過空間注意力合併詳細特徵。為了確保可控性和連續性,我們引入了一個高效的姿勢指導器來指導角色的動作,並採用了一種有效的時間建模方法,以確保視頻幀之間的平滑跨幀過渡。通過擴展訓練數據,我們的方法可以為任意角色製作動畫,與其他圖像到視頻方法相比,在角色動畫方面取得了出色的結果。此外,我們在時尚視頻和人類舞蹈合成的基準上評估了我們的方法,取得了最先進的結果。
AI視頻生成
11.8M