
Joygen
JoyGen 是一種創新的音頻驅動 3D 深度感知說話人臉視頻生成技術。它通過音頻驅動唇部動作生成和視覺外觀合成,解決了傳統技術中唇部與音頻不同步和視覺質量差的問題。該技術在多語言環境下表現出色,尤其針對中文語境進行了優化。其主要優點包括高精度的唇音同步、高質量的視覺效果以及對多語言的支持。該技術適用於視頻編輯、虛擬主播、動畫製作等領域,具有廣泛的應用前景。
視頻生成
71.2K

Liteavatar
LiteAvatar是一個音頻驅動的即時2D頭像生成模型,主要用於即時聊天場景。該模型通過高效的語音識別和嘴型參數預測技術,結合輕量級的2D人臉生成模型,能夠在僅使用CPU的設備上實現30fps的即時推理。其主要優點包括高效的音頻特徵提取、輕量級的模型設計以及對移動設備的友好支持。該技術適用於需要即時交互的虛擬頭像生成場景,如在線會議、虛擬直播等,背景基於對即時交互和低硬件要求的需求而開發,目前開源免費,定位為高效、低資源消耗的即時頭像生成解決方案。
聊天機器人
91.1K

Syncanimation
SyncAnimation 是一種創新的音頻驅動技術,能夠即時生成高度逼真的說話頭像和上半身動作。它通過結合音頻與姿態、表情的同步技術,解決了傳統方法在即時性和細節表現上的不足。該技術主要面向需要高質量即時動畫生成的應用場景,如虛擬主播、在線教育、遠程會議等,具有重要的應用價值。目前尚未明確其價格和具體市場定位。
數字人
52.4K

INFP
INFP是一個音頻驅動的交互式頭部生成框架,專為雙人對話設計。它可以根據雙人對話中的雙軌音頻和一個任意代理的單人肖像圖像動態合成具有逼真面部表情和節奏性頭部姿態動作的言語、非言語和交互式代理視頻。該框架輕量而強大,適用於視頻會議等即時通訊場景。INFP代表交互式(Interactive)、自然(Natural)、快速(Flash)和通用(Person-generic)。
視頻生成
57.7K

MEMO
MEMO是一個先進的開放權重模型,用於音頻驅動的說話視頻生成。該模型通過記憶引導的時間模塊和情感感知的音頻模塊,增強了長期身份一致性和運動平滑性,同時通過檢測音頻中的情感來細化面部表情,生成身份一致且富有表情的說話視頻。MEMO的主要優點包括更真實的視頻生成、更好的音頻-唇形同步、身份一致性和表情情感對齊。該技術背景信息顯示,MEMO在多種圖像和音頻類型中生成更真實的說話視頻,超越了現有的最先進方法。
視頻生成
76.5K

FLOAT
FLOAT是一種音頻驅動的人像視頻生成方法,它基於流匹配生成模型,將生成建模從基於像素的潛在空間轉移到學習到的運動潛在空間,實現了時間上一致的運動設計。該技術引入了基於變換器的向量場預測器,並具有簡單而有效的逐幀條件機制。此外,FLOAT支持語音驅動的情感增強,能夠自然地融入富有表現力的運動。廣泛的實驗表明,FLOAT在視覺質量、運動保真度和效率方面均優於現有的音頻驅動說話人像方法。
視頻生成
58.0K

Echomimicv2
EchoMimicV2是由支付寶螞蟻集團終端技術部研發的半身人體動畫技術,它通過參考圖像、音頻剪輯和一系列手勢來生成高質量的動畫視頻,確保音頻內容與半身動作的連貫性。這項技術簡化了以往復雜的動畫製作流程,通過Audio-Pose動態協調策略,包括姿態採樣和音頻擴散,增強了半身細節、面部和手勢的表現力,同時減少了條件冗餘。此外,它還利用頭部部分注意力機制將頭像數據無縫整合到訓練框架中,這一機制在推理過程中可以省略,為動畫製作提供了便利。EchoMimicV2還設計了特定階段的去噪損失,以指導動畫在特定階段的運動、細節和低級質量。該技術在定量和定性評估中均超越了現有方法,展現了其在半身人體動畫領域的領先地位。
人體動作
70.4K

Joyvasa
JoyVASA是一種基於擴散模型的音頻驅動人像動畫技術,它通過分離動態面部表情和靜態3D面部表示來生成面部動態和頭部運動。這項技術不僅能夠提高視頻質量和唇形同步的準確性,還能擴展到動物面部動畫,支持多語言,並在訓練和推理效率上有所提升。JoyVASA的主要優點包括更長視頻生成能力、獨立於角色身份的運動序列生成以及高質量的動畫渲染。
音頻驅動
59.1K

Hallo2
Hallo2是一種基於潛在擴散生成模型的人像圖像動畫技術,通過音頻驅動生成高分辨率、長時的視頻。它通過引入多項設計改進,擴展了Hallo的功能,包括生成長時視頻、4K分辨率視頻,並增加了通過文本提示增強表情控制的能力。Hallo2的主要優點包括高分辨率輸出、長時間的穩定性以及通過文本提示增強的控制性,這使得它在生成豐富多樣的肖像動畫內容方面具有顯著優勢。
AI圖像生成
72.3K

Loopy Model
Loopy是一個端到端的音頻驅動視頻擴散模型,專門設計了跨剪輯和內部剪輯的時間模塊以及音頻到潛在表示模塊,使模型能夠利用數據中的長期運動信息來學習自然運動模式,並提高音頻與肖像運動的相關性。這種方法消除了現有方法中手動指定的空間運動模板的需求,實現了在各種場景下更逼真、高質量的結果。
AI視頻生成
108.5K

Cyberhost
CyberHost是一個端到端音頻驅動的人體動畫框架,通過區域碼本注意力機制,實現了手部完整性、身份一致性和自然運動的生成。該模型利用雙U-Net架構作為基礎結構,並通過運動幀策略進行時間延續,為音頻驅動的人體動畫建立了基線。CyberHost通過一系列以人為先導的訓練策略,包括身體運動圖、手部清晰度評分、姿勢對齊的參考特徵和局部增強監督,提高了合成結果的質量。CyberHost是首個能夠在人體範圍內實現零樣本視頻生成的音頻驅動人體擴散模型。
AI視頻生成
59.3K

Echomimic
EchoMimic是一個先進的人像圖像動畫模型,能夠通過音頻和選定的面部特徵點單獨或組合驅動生成逼真的肖像視頻。它通過新穎的訓練策略,解決了傳統方法在音頻驅動時可能的不穩定性以及面部關鍵點驅動可能導致的不自然結果。EchoMimic在多個公共數據集和自收集數據集上進行了全面比較,並在定量和定性評估中展現出了卓越的性能。
AI圖像生成
402.4K

Aniportrait
AniPortrait是一個根據音頻和圖像輸入生成會說話、唱歌的動態視頻的項目。它能夠根據音頻和靜態人臉圖片生成逼真的人臉動畫,口型保持一致。支持多種語言和麵部重繪、頭部姿勢控制。功能包括音頻驅動的動畫合成、面部再現、頭部姿勢控制、支持自驅動和音頻驅動的視頻生成、高質量動畫生成以及靈活的模型和權重配置。
AI視頻生成
745.8K

Vividtalk
VividTalk是一種一次性音頻驅動的頭像生成技術,基於3D混合先驗。它能夠生成具有表情豐富、自然頭部姿態和唇同步的逼真說唱視頻。該技術採用了兩階段通用框架,支持生成具有上述所有特性的高視覺質量的說唱視頻。具體來說,在第一階段,通過學習兩種運動(非剛性表情運動和剛性頭部運動),將音頻映射到網格。對於表情運動,採用混合形狀和頂點作為中間表示,以最大化模型的表徵能力。對於自然頭部運動,提出了一種新穎的可學習頭部姿勢碼本,並採用兩階段訓練機制。在第二階段,提出了一個雙分支運動VAE和一個生成器,將網格轉換為密集運動,並逐幀合成高質量視頻。大量實驗證明,VividTalk能夠生成具有唇同步和逼真增強的高視覺質量說唱視頻,且在客觀和主觀比較中優於以往的最先進作品。該技術的代碼將在發表後公開發布。
AI頭像生成
149.3K

Videoretalking
VideoReTalking是一個新的系統,可以根據輸入的音頻編輯真實世界的說話頭部視頻的面部,產生高質量的唇形同步輸出視頻,即使情感不同。該系統將此目標分解為三個連續的任務:(1)使用表情編輯網絡生成帶有規範表情的面部視頻;(2)音頻驅動的唇形同步;(3)用於提高照片逼真度的面部增強。給定一個說話頭部視頻,我們首先使用表情編輯網絡根據相同的表情模板修改每個幀的表情,從而得到具有規範表情的視頻。然後將該視頻與給定的音頻一起輸入到唇形同步網絡中,生成唇形同步視頻。最後,我們通過一個身份感知的面部增強網絡和後處理來提高合成面部的照片逼真度。我們對所有三個步驟使用基於學習的方法,所有模塊都可以在順序管道中處理,無需任何用戶干預。
AI視頻編輯
333.1K
精選AI產品推薦
中文精選

騰訊混元圖像 2.0
騰訊混元圖像 2.0 是騰訊最新發布的 AI 圖像生成模型,顯著提升了生成速度和畫質。通過超高壓縮倍率的編解碼器和全新擴散架構,使得圖像生成速度可達到毫秒級,避免了傳統生成的等待時間。同時,模型通過強化學習算法與人類美學知識的結合,提升了圖像的真實感和細節表現,適合設計師、創作者等專業用戶使用。
圖片生成
80.6K
國外精選

Lovart
Lovart 是一款革命性的 AI 設計代理,能夠將創意提示轉化為藝術作品,支持從故事板到品牌視覺的多種設計需求。其重要性在於打破傳統設計流程,節省時間並提升創意靈感。Lovart 當前處於測試階段,用戶可加入等候名單,隨時體驗設計的樂趣。
AI設計工具
63.8K

Fastvlm
FastVLM 是一種高效的視覺編碼模型,專為視覺語言模型設計。它通過創新的 FastViTHD 混合視覺編碼器,減少了高分辨率圖像的編碼時間和輸出的 token 數量,使得模型在速度和精度上表現出色。FastVLM 的主要定位是為開發者提供強大的視覺語言處理能力,適用於各種應用場景,尤其在需要快速響應的移動設備上表現優異。
AI模型
51.1K

Keysync
KeySync 是一個針對高分辨率視頻的無洩漏唇同步框架。它解決了傳統唇同步技術中的時間一致性問題,同時通過巧妙的遮罩策略處理表情洩漏和麵部遮擋。KeySync 的優越性體現在其在唇重建和跨同步方面的先進成果,適用於自動配音等實際應用場景。
視頻編輯
48.3K

Manus
Manus 是由 Monica.im 研發的全球首款真正自主的 AI 代理產品,能夠直接交付完整的任務成果,而不僅僅是提供建議或答案。它採用 Multiple Agent 架構,運行在獨立虛擬機中,能夠通過編寫和執行代碼、瀏覽網頁、操作應用等方式直接完成任務。Manus 在 GAIA 基準測試中取得了 SOTA 表現,展現了強大的任務執行能力。其目標是成為用戶在數字世界的‘代理人’,幫助用戶高效完成各種複雜任務。
個人助理
1.5M

Trae國內版
Trae是一款專為中文開發場景設計的AI原生IDE,將AI技術深度集成於開發環境中。它通過智能代碼補全、上下文理解等功能,顯著提升開發效率和代碼質量。Trae的出現填補了國內AI集成開發工具的空白,滿足了中文開發者對高效開發工具的需求。其定位為高端開發工具,旨在為專業開發者提供強大的技術支持,目前尚未明確公開價格,但預計會採用付費模式以匹配其高端定位。
開發與工具
137.7K
國外精選

Pika
Pika是一個視頻製作平臺,用戶可以上傳自己的創意想法,Pika會自動生成相關的視頻。主要功能有:支持多種創意想法轉視頻,視頻效果專業,操作簡單易用。平臺採用免費試用模式,定位面向創意者和視頻愛好者。
視頻生成
18.7M
中文精選

Liblibai
LiblibAI是一箇中國領先的AI創作平臺,提供強大的AI創作能力,幫助創作者實現創意。平臺提供海量免費AI創作模型,用戶可以搜索使用模型進行圖像、文字、音頻等創作。平臺還支持用戶訓練自己的AI模型。平臺定位於廣大創作者用戶,致力於創造條件普惠,服務創意產業,讓每個人都享有創作的樂趣。
AI模型
8.0M