Select Page
Deep Live Cam-簡單易用,被遮擋也沒關係的即時換臉

Deep Live Cam-簡單易用,被遮擋也沒關係的即時換臉

用有多張臉,即時更換人臉的開源軟體,而且有綠色直接使用版本,已經幫忙把環境都打包好了,給懶人使用,支援windows、MAC、GPU

必要條件

Git 原始碼

https://github.com/hacksider/Deep-Live-Cam.git

下載模型

  1. GFPGANv1.4
  2. inswapper_128.onnx (Note: Use this replacement version if an issue occurs on your computer)

並且將這兩個檔案放在 models 的目錄下

安裝相關依賴

pip install -r requirements.txt

參考資料

https://github.com/hacksider/Deep-Live-Cam

VOZO AI 快速製作電影等級的生日祝福

VOZO AI 快速製作電影等級的生日祝福

行銷人真的有越來越酷的各種AI工具,尤其在影片製作的方面,是百花齊放,各式各樣的應用一直冒出來,這個 VOZO AI 工具很適合做一些社交膜體上詪片

Rewrite 重寫功能

只要選定影片,就可以重新改變該影片的對白

Redub 重上字幕

可以快速叫出影片中的字幕,更改成自己的劇本,讓選定的影片按照你的劇本再上一次字幕,並且有翻譯功能

Repurpose 影片作成短影音

可以快速幫你把自己的影片或是youtube中的影片,快速剪輯一個短影音版本,可惜現在還是要以英文為主

支援多人口型同步

影片中有多人的話,可以支援多人的口型同步,這功能很新也很實用

自動多國語言翻譯

內建翻譯多國語言功能

價格參考

https://www.vozo.ai/pricing

參考資料

VOZO AI

Vidu AI-打造電影級東方風格影片的全新工具

Vidu AI-打造電影級東方風格影片的全新工具

隨著AI技術的進步,影片製作變得前所未有的簡單,工具也是超級的多,讓人無從選擇,但大多數是西方的畫風,少有東方的模型,而Vidu AI 是一款大陸清華大學設計的 AIGV 工具,讓使用者能夠免費生成 4 秒鐘(免費)或是 8 秒鐘的高品質影片,且不需要任何專業知識即可完成,以下是它的幾個主要特色:

Vidu AI 特色

  1. 免費提供高品質影片
    Vidu AI 允許使用者免費生成 4 秒鐘的影片,生成4秒影片通常只用30秒,無需任何費用即可擁有電影級別的視覺效果,這對於想要非專業的使用者者或是學生來說,絕對是一大福音。
  2. 東方風格的畫風
    Vidu AI 的一大亮點是其影片生成的風格深受東方團隊用中國風的圖片訓練。不論是畫面構圖還是色彩選擇,皆展現出濃厚的東方美學,這使得影片不僅具備高品質,還充滿了獨特的文化氛圍。
  3. 電影級的影片製作
    使用 Vidu AI 產生的影片無論是畫質還是視覺效果都達到了電影級別,讓影片內容充滿張力與故事感。
  4. 多樣化的動畫選項
    有寫實電影和動畫電影兩種選擇,兩個選項都可以有電影等級的實力。
  5. 動態延續的創作流程
    Vidu AI 提供了創意延續的功能,允許使用者將第四秒所生成的圖片作為下一段影片的起點,從而產生連續性的視覺效果。

參考資料:

Vidu AI 官網

申請 Vidu AI API

使用 Plotagon Studio 創作動畫短片的入門指南

使用 Plotagon Studio 創作動畫短片的入門指南

Plotagon Studio 是一個讓你能夠輕鬆地使用劇本來創作動畫短片的強大工具。無論你是專業的創作者,還是對動畫有興趣的初學者,這款軟體都能滿足你的需求。

什麼是 Plotagon Studio?

Plotagon Studio與傳統的動畫軟體相比,它不需要複雜的繪圖或動畫技巧。你只需要編寫劇本、設置場景、選擇角色,剩下的工作都交給 Plotagon Studio 來完成。這使得它成為了教育、行銷、娛樂等多種領域的理想工具。

如何開始使用 Plotagon Studio

  1. 下載並安裝軟體
    首先,你需要到 Google Play 或是 Apple Store 下載並安裝 Plotagon Studio。
  2. 創建你的第一個項目
    打開軟體後,點擊「新建項目」來創建一個新項目。你可以為項目命名,並選擇你想要的動畫風格。
  3. 編寫劇本
    在 Plotagon Studio 中,劇本是動畫的核心。你可以直接在軟體中撰寫對話,並為每個角色分配台詞,Plotagon 會根據你的劇本自動生成動畫對話場景。
  4. 選擇場景與角色
    Plotagon Studio 提供了多種場景和角色選項,你可以根據劇本需求選擇合適的場景和角色,並對角色的外觀、服裝和配件進行自定義。
  5. 加入音效與背景音樂
    為了讓動畫更具吸引力,你還可以添加音效和背景音樂,Plotagon Studio 提供了豐富的音效庫,當然你也可以上傳自定義音樂和聲音。
  6. 預覽與導出
    完成所有設置後,你可以預覽你的動畫並進行最後的調整,確定無誤後,將動畫導出為視頻格式,以便於分享或發布。

提示與技巧

  • 利用角色表情與動作
    在劇本中插入角色的表情和動作指令,讓角色更加生動。例如,在台詞旁邊添加「微笑」或「點頭」等動作指令。
  • 合理運用場景轉換
    為了讓故事更加連貫,可以使用場景轉換來表達時間或地點的變化。這樣可以增加動畫的節奏感。
  • 保持對話簡潔
    動畫短片的長度有限,因此對話應該簡潔明了,避免過於冗長的對白,影響觀眾的觀看體驗。

LivePortrait:蒙娜麗莎笑起來

LivePortrait:蒙娜麗莎笑起來

LivePortrait 是一個先進且有趣的影像生成技術,它不僅讓靜態肖像圖片動起來,變得栩栩如生,還能讓用戶在不同的角色之間進行變換,甚至能做到將一位大叔轉變成美女,美女變會跳舞的效果。這項技術目前在GitHub上獲得了10K顆星的高度關注,顯示了它在開源社群中的受歡迎程度。

什麼是 LivePortrait?

LivePortrait 是一個能夠讓靜態人像圖片進行動畫化的技術。該技術的核心是將人臉動作從一個人像轉移到另一個人像上,從而實現讓靜態圖片「動起來」的效果。與傳統的動畫技術相比,LivePortrait 的計算效率更高,並且生成的影像更加自然、流暢。

主要特點

  1. 縫合與重定位控制:LivePortrait 的關鍵特點之一是它的縫合與重定位控制技術。這讓用戶可以將不同的面部特徵縫合到一個目標人像上,並進行動畫化。例如,將一位大叔的臉與美女的臉部特徵進行結合,然後動畫化,達到讓大叔秒變美女的有趣效果。
  2. 高效的處理能力:這個技術使用了一種高效的算法,能夠在較短的時間內生成高質量的動畫效果,適合用於即時應用或者在線處理需求。
  3. 開源社群的熱烈反響:LivePortrait 的 GitHub 項目自發布以來,已經累積了7.9K顆星,成為了開源社群中的一個熱門項目。這顯示了技術人員與開發者對這項技術的認可與支持。

應用場景

LivePortrait 的應用場景非常廣泛,從娛樂到專業用途都有所涉及。舉例來說,它可以用於製作逼真的動畫表情,為虛擬角色賦予生命,或者在影像特效中實現面部交換等功能。其高度的可定製性也讓它成為許多創意工作者的工具首選。

安裝方法

原始項目網址 https://github.com/KwaiVGI/LivePortrait

安裝程式

git clone https://github.com/KwaiVGI/LivePortrait
cd LivePortrait

# create env using conda
conda create -n LivePortrait python=3.9
conda activate LivePortrait

# 安裝相關依賴
pip install -r requirements.txt

下載預訓練資料

# !pip install -U "huggingface_hub[cli]"
huggingface-cli download KwaiVGI/LivePortrait --local-dir pretrained_weights --exclude "*.git*" "README.md" "docs"

如果不能存取 Huggingface

# !pip install -U "huggingface_hub[cli]"
export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download KwaiVGI/LivePortrait --local-dir pretrained_weights --exclude "*.git*" "README.md" "docs"

執行視窗

# For Linux and Windows users
python inference.py

# For macOS users with Apple Silicon (Intel is not tested). NOTE: this maybe 20x slower than RTX 4090
PYTORCH_ENABLE_MPS_FALLBACK=1 python inference.py

指令碼

# source input is an image
python inference.py -s assets/examples/source/s9.jpg -d assets/examples/driving/d0.mp4

# source input is a video ✨
python inference.py -s assets/examples/source/s13.mp4 -d assets/examples/driving/d0.mp4

# more options to see
python inference.py -h

超酷的寵物模式

image

先安裝寵物模式

cd src/utils/dependencies/XPose/models/UniPose/ops
python setup.py build install
cd - # equal to cd ../../../../../../../

要使用的時候只需要下

python inference_animals.py -s assets/examples/source/s39.jpg -d assets/examples/driving/wink.pkl --driving_multiplier 1.75 --no_flag_stitching

Huggingface 上使用

https://huggingface.co/spaces/KwaiVGI/LivePortrait

參考資料