Ai圖生視頻第三章之MOFA-Video讓靜態(tài)圖片“活”起來: MOFA-Video 是一項基于生成運動場適應(yīng)技術(shù)的圖像動畫工具,能夠讓靜態(tài)圖片“活”起來。通過軌跡、關(guān)鍵點或音頻驅(qū)動,M……
哈嘍!伙伴們,我是小智,你們的AI向?qū)?。歡迎來到每日的AI學(xué)習(xí)時間。今天,我們將一起深入AI的奇妙世界,探索“Ai圖生視頻第三章之MOFA-Video讓靜態(tài)圖片“活”起來”,并學(xué)會本篇文章中所講的全部知識點。還是那句話“不必遠征未知,只需喚醒你的潛能!”跟著小智的步伐,我們終將學(xué)有所成,學(xué)以致用,并發(fā)現(xiàn)自身的更多可能性。話不多說,現(xiàn)在就讓我們開始這場激發(fā)潛能的AI學(xué)習(xí)之旅吧。
Ai圖生視頻第三章之MOFA-Video讓靜態(tài)圖片“活”起來:
MOFA-Video 是一項基于生成運動場適應(yīng)技術(shù)的圖像動畫工具,能夠讓靜態(tài)圖片“活”起來。通過軌跡、關(guān)鍵點或音頻驅(qū)動,MOFA-Video 能夠?qū)崿F(xiàn)對靜態(tài)圖像的精準控制和動態(tài)化處理。本文將為您詳細介紹 MOFA-Video 的功能特點、安裝步驟以及如何快速上手使用。
一、前言介紹
1.1 MOFA-Video 是什么?
MOFA-Video 是一種可控的圖像動畫解決方案,基于凍結(jié)圖像到視頻擴散模型(Frozen Image-to-Video Diffusion Model)。它通過生成運動場適應(yīng)技術(shù)(Generative Motion Field Adaptions),實現(xiàn)了對靜態(tài)圖像的動態(tài)化處理。無論是基于軌跡、關(guān)鍵點還是音頻驅(qū)動,MOFA-Video 都能為用戶提供靈活的控制選項。

1.2 運行環(huán)境介紹
– Python 3.10 及以上版本。
– PyTorch 2.0 及以上版本。
– 建議使用 CUDA 12.1 及以上版本(適用于 GPU 用戶)。
1.3 MOFA-Video 技術(shù)亮點
1.生成運動場適應(yīng):通過生成運動場適應(yīng)技術(shù),實現(xiàn)對靜態(tài)圖像的精準控制。
2.多種驅(qū)動方式:支持軌跡、關(guān)鍵點、音頻和參考視頻等多種驅(qū)動方式。
3.零樣本功能:無需額外訓(xùn)練即可實現(xiàn)混合控制、運動畫筆等功能。
4.廣泛適用性:適用于人臉動畫、物體運動模擬等場景。
1.4 MOFA-Video 技術(shù)講解
MOFA-Video 的核心在于其凍結(jié)圖像到視頻擴散模型。通過對輸入圖像進行運動場適應(yīng),結(jié)合用戶指定的控制參數(shù)(如軌跡、關(guān)鍵點或音頻),生成高質(zhì)量的動態(tài)視頻。

二、環(huán)境搭建
2.1 下載代碼
首先,克隆 MOFA-Video 的代碼倉庫:
bash:
$ git clone https://github.com/MyNiuuu/MOFA-Video
$ cd MOFA-Video
2.2 構(gòu)建環(huán)境
創(chuàng)建并激活一個新的 Python 環(huán)境:
bash:
$ conda create -n py310 python=3.10 #創(chuàng)建新環(huán)境
$ source activate py310 #激活環(huán)境
2.3 安裝依賴
安裝必要的依賴包:
bash:
$ pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple –ignore-installed
$ pip install opencv-python-headless
$ pip install “git+https://github.com/facebookresearch/pytorch3d.git”
2.4 下載模型
1. 下載 SVD_xt 的預(yù)訓(xùn)練模型,并存放到 ./ckpts 目錄中:
bash:
下載地址:https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt-1-1
2. 下載 MOFA-Adapter 的模型,并存放到 ./ckpts 目錄中:
bash:
下載地址:https://huggingface.co/MyNiuuu/MOFA-Video-Traj
3. 下載 CMP 的模型,并存放到 ./models/cmp/experiments/semiauto_annot/resnet50_vip+mpii_liteflow/checkpoints 目錄中:
bash:
下載地址:https://huggingface.co/MyNiuuu/MOFA-Video-Traj/blob/main/models/cmp/experiments/semiauto_annot/resnet50_vip%2Bmpii_liteflow/checkpoints/ckpt_iter_42000.pth.tar
三、Run Gradio Demo
3.1 Run Gradio Demo
運行以下命令啟動 Gradio 演示界面:
bash:
$ python run_gradio.py
操作步驟:
1. 使用“Upload Image”按鈕上傳圖片。
2. 單擊“Add Trajectory”,在圖像上選擇點以繪制軌跡。
3. 調(diào)整控制比例(建議值為 0.6)。
4. 使用“Motion Brush Radius”調(diào)整運動畫筆半徑。
5. 單擊“Run”按鈕生成動畫。
3.2 使用音頻驅(qū)動
切換到 MOFA-Video-Hybrid 目錄,運行以下命令:
bash:
$ cd ./MOFA-Video-Hybrid
$ python run_gradio_audio_driven.py
3.3 使用參考視頻驅(qū)動
同樣在 MOFA-Video-Hybrid 目錄下,運行以下命令:
bash:
$ python run_gradio_video_driven.py
四、具體效果演示
4.1 基于軌跡的圖像動畫
通過繪制軌跡控制圖像的動態(tài)效果,例如物體的移動路徑或旋轉(zhuǎn)方向。

4.2 基于關(guān)鍵點的人臉圖像動畫
支持通過驅(qū)動視頻或音頻的關(guān)鍵點,生成逼真的人臉動畫。

4.3 零樣本功能
-混合控制:結(jié)合多種控制方式生成復(fù)雜動畫。

希望這篇教程能幫助您快速上手 MOFA-Video!如果您有任何疑問或需要進一步的幫助。
嘿,伙伴們,今天我們的AI探索之旅已經(jīng)圓滿結(jié)束。關(guān)于“Ai圖生視頻第三章之MOFA-Video讓靜態(tài)圖片“活”起來”的內(nèi)容已經(jīng)分享給大家了。感謝你們的陪伴,希望這次旅程讓你對AI能夠更了解、更喜歡。謹記,精準提問是解鎖AI潛能的鑰匙哦!如果有小伙伴想要了解學(xué)習(xí)更多的AI知識,請關(guān)注我們的官網(wǎng)“AI智研社”,保證讓你收獲滿滿呦!





微信掃一掃
支付寶掃一掃