

Mimicmotion
簡介 :
MimicMotion是由騰訊公司和上海交通大學聯合研發的高質量人體動作視頻生成模型。該模型通過信心感知的姿態引導,實現了對視頻生成過程的可控性,提高了視頻的時序平滑性,並減少了圖像失真。它採用了先進的圖像到視頻的擴散模型,結合了時空U-Net和PoseNet,能夠根據姿勢序列條件生成任意長度的高質量視頻。MimicMotion在多個方面顯著優於先前的方法,包括手部生成質量、對參考姿勢的準確遵循等。
需求人群 :
MimicMotion的目標受眾是視頻製作者、動畫師和AI研究人員。該技術能夠幫助他們生成高質量的視頻內容,特別是在需要複雜人體動作和時序連貫性的場景中。例如,它可用於電影后期製作、虛擬現實體驗、遊戲動畫和AI研究等領域。
使用場景
生成舞蹈視頻,展示流暢的人體動作和表情。
創建虛擬現實中的交互式角色,具有逼真的動作和反應。
在遊戲開發中,為角色設計動態和響應性動作。
產品特色
信心感知姿態引導,根據姿勢估計的置信度調整影響。
基於姿勢置信度的區域損失放大,顯著減少圖像失真。
漸進式潛在融合策略,生成具有時序平滑性的長視頻。
重疊擴散技術,用於生成任意長度的視頻。
用戶研究顯示,MimicMotion在TikTok數據集測試集上優於基線方法。
消融研究證明了信心感知姿態引導和手部區域增強的有效性。
使用教程
1. 準備輸入參考圖像和姿勢序列。
2. 使用MimicMotion模型進行視頻生成。
3. 根據需要調整信心感知姿態引導的參數。
4. 應用區域損失放大策略,優化特定區域的圖像質量。
5. 利用漸進式潛在融合策略生成長視頻。
6. 通過重疊擴散技術生成任意長度的視頻。
7. 進行用戶研究和消融研究,評估和改進視頻生成效果。
精選AI產品推薦

Sora
Sora是一個基於大規模訓練的文本控制視頻生成擴散模型。它能夠生成長達1分鐘的高清視頻,涵蓋廣泛的視覺數據類型和分辨率。Sora通過在視頻和圖像的壓縮潛在空間中訓練,將其分解為時空位置補丁,實現了可擴展的視頻生成。Sora還展現出一些模擬物理世界和數字世界的能力,如三維一致性和交互,揭示了繼續擴大視頻生成模型規模來發展高能力模擬器的前景。
AI視頻生成
17.2M

Animate Anyone
Animate Anyone旨在通過驅動信號從靜態圖像生成角色視頻。我們利用擴散模型的力量,提出了一個專為角色動畫量身定製的新框架。為了保持參考圖像中複雜外觀特徵的一致性,我們設計了ReferenceNet來通過空間注意力合併詳細特徵。為了確保可控性和連續性,我們引入了一個高效的姿勢指導器來指導角色的動作,並採用了一種有效的時間建模方法,以確保視頻幀之間的平滑跨幀過渡。通過擴展訓練數據,我們的方法可以為任意角色製作動畫,與其他圖像到視頻方法相比,在角色動畫方面取得了出色的結果。此外,我們在時尚視頻和人類舞蹈合成的基準上評估了我們的方法,取得了最先進的結果。
AI視頻生成
11.8M