Runway 不斷持續進化的影片大師
Camera Control 2024最新功能-相機視角控制
Runway 又推出了新功能了,這次的 Gen-3 可以讓你上傳一張圖片後就可以控制相機的視角,前後左右平移,旋轉跳躍,都可以正確地幫你補圖,一定要試試
Runway 又推出了新功能了,這次的 Gen-3 可以讓你上傳一張圖片後就可以控制相機的視角,前後左右平移,旋轉跳躍,都可以正確地幫你補圖,一定要試試
用有多張臉,即時更換人臉的開源軟體,而且有綠色直接使用版本,已經幫忙把環境都打包好了,給懶人使用,支援windows、MAC、GPU
https://github.com/hacksider/Deep-Live-Cam.git
並且將這兩個檔案放在 models 的目錄下
pip install -r requirements.txt
行銷人真的有越來越酷的各種AI工具,尤其在影片製作的方面,是百花齊放,各式各樣的應用一直冒出來,這個 VOZO AI 工具很適合做一些社交膜體上詪片
只要選定影片,就可以重新改變該影片的對白
可以快速叫出影片中的字幕,更改成自己的劇本,讓選定的影片按照你的劇本再上一次字幕,並且有翻譯功能
可以快速幫你把自己的影片或是youtube中的影片,快速剪輯一個短影音版本,可惜現在還是要以英文為主
影片中有多人的話,可以支援多人的口型同步,這功能很新也很實用
內建翻譯多國語言功能
隨著AI技術的進步,影片製作變得前所未有的簡單,工具也是超級的多,讓人無從選擇,但大多數是西方的畫風,少有東方的模型,而Vidu AI 是一款大陸清華大學設計的 AIGV 工具,讓使用者能夠免費生成 4 秒鐘(免費)或是 8 秒鐘的高品質影片,且不需要任何專業知識即可完成,以下是它的幾個主要特色:
Plotagon Studio 是一個讓你能夠輕鬆地使用劇本來創作動畫短片的強大工具。無論你是專業的創作者,還是對動畫有興趣的初學者,這款軟體都能滿足你的需求。
Plotagon Studio與傳統的動畫軟體相比,它不需要複雜的繪圖或動畫技巧。你只需要編寫劇本、設置場景、選擇角色,剩下的工作都交給 Plotagon Studio 來完成。這使得它成為了教育、行銷、娛樂等多種領域的理想工具。
LivePortrait 是一個先進且有趣的影像生成技術,它不僅讓靜態肖像圖片動起來,變得栩栩如生,還能讓用戶在不同的角色之間進行變換,甚至能做到將一位大叔轉變成美女,美女變會跳舞的效果。這項技術目前在GitHub上獲得了10K顆星的高度關注,顯示了它在開源社群中的受歡迎程度。
LivePortrait 是一個能夠讓靜態人像圖片進行動畫化的技術。該技術的核心是將人臉動作從一個人像轉移到另一個人像上,從而實現讓靜態圖片「動起來」的效果。與傳統的動畫技術相比,LivePortrait 的計算效率更高,並且生成的影像更加自然、流暢。
LivePortrait 的應用場景非常廣泛,從娛樂到專業用途都有所涉及。舉例來說,它可以用於製作逼真的動畫表情,為虛擬角色賦予生命,或者在影像特效中實現面部交換等功能。其高度的可定製性也讓它成為許多創意工作者的工具首選。
原始項目網址 https://github.com/KwaiVGI/LivePortrait
git clone https://github.com/KwaiVGI/LivePortrait cd LivePortrait # create env using conda conda create -n LivePortrait python=3.9 conda activate LivePortrait # 安裝相關依賴 pip install -r requirements.txt
# !pip install -U "huggingface_hub[cli]" huggingface-cli download KwaiVGI/LivePortrait --local-dir pretrained_weights --exclude "*.git*" "README.md" "docs"
如果不能存取 Huggingface
# !pip install -U "huggingface_hub[cli]" export HF_ENDPOINT=https://hf-mirror.com huggingface-cli download KwaiVGI/LivePortrait --local-dir pretrained_weights --exclude "*.git*" "README.md" "docs"
# For Linux and Windows users python inference.py # For macOS users with Apple Silicon (Intel is not tested). NOTE: this maybe 20x slower than RTX 4090 PYTORCH_ENABLE_MPS_FALLBACK=1 python inference.py
# source input is an image python inference.py -s assets/examples/source/s9.jpg -d assets/examples/driving/d0.mp4 # source input is a video ✨ python inference.py -s assets/examples/source/s13.mp4 -d assets/examples/driving/d0.mp4 # more options to see python inference.py -h
先安裝寵物模式
cd src/utils/dependencies/XPose/models/UniPose/ops python setup.py build install cd - # equal to cd ../../../../../../../
要使用的時候只需要下
python inference_animals.py -s assets/examples/source/s39.jpg -d assets/examples/driving/wink.pkl --driving_multiplier 1.75 --no_flag_stitching
https://huggingface.co/spaces/KwaiVGI/LivePortrait
近期留言