Select Page
使用 Plotagon Studio 創作動畫短片的入門指南

使用 Plotagon Studio 創作動畫短片的入門指南

Views: 20

Plotagon Studio 是一個讓你能夠輕鬆地使用劇本來創作動畫短片的強大工具。無論你是專業的創作者,還是對動畫有興趣的初學者,這款軟體都能滿足你的需求。

什麼是 Plotagon Studio?

Plotagon Studio與傳統的動畫軟體相比,它不需要複雜的繪圖或動畫技巧。你只需要編寫劇本、設置場景、選擇角色,剩下的工作都交給 Plotagon Studio 來完成。這使得它成為了教育、行銷、娛樂等多種領域的理想工具。

如何開始使用 Plotagon Studio

  1. 下載並安裝軟體
    首先,你需要到 Google Play 或是 Apple Store 下載並安裝 Plotagon Studio。
  2. 創建你的第一個項目
    打開軟體後,點擊「新建項目」來創建一個新項目。你可以為項目命名,並選擇你想要的動畫風格。
  3. 編寫劇本
    在 Plotagon Studio 中,劇本是動畫的核心。你可以直接在軟體中撰寫對話,並為每個角色分配台詞,Plotagon 會根據你的劇本自動生成動畫對話場景。
  4. 選擇場景與角色
    Plotagon Studio 提供了多種場景和角色選項,你可以根據劇本需求選擇合適的場景和角色,並對角色的外觀、服裝和配件進行自定義。
  5. 加入音效與背景音樂
    為了讓動畫更具吸引力,你還可以添加音效和背景音樂,Plotagon Studio 提供了豐富的音效庫,當然你也可以上傳自定義音樂和聲音。
  6. 預覽與導出
    完成所有設置後,你可以預覽你的動畫並進行最後的調整,確定無誤後,將動畫導出為視頻格式,以便於分享或發布。

提示與技巧

  • 利用角色表情與動作
    在劇本中插入角色的表情和動作指令,讓角色更加生動。例如,在台詞旁邊添加「微笑」或「點頭」等動作指令。
  • 合理運用場景轉換
    為了讓故事更加連貫,可以使用場景轉換來表達時間或地點的變化。這樣可以增加動畫的節奏感。
  • 保持對話簡潔
    動畫短片的長度有限,因此對話應該簡潔明了,避免過於冗長的對白,影響觀眾的觀看體驗。

ChatTTS-完整使用指南

ChatTTS-完整使用指南

Views: 430

免費且超強大的 AI TTS,文字轉語音模型+工具,有許多語氣的控制,也可以很精準的寫程式控制效果,是RD眼中好用的Local端開源的TTS

特色說明

1.大規模的數據:10萬小時的訓練資料,現在開源的是4小時的版本

2.專用設計:專門對於對話情境、視頻介紹的情境所設計的模型

3.開源特性:可以很簡單的整合到你的WEB中

4.支持語氣:oral, laugh, break

安裝前準備

python 3.10

CUDA

GIT

gradio

安裝說明

github 複製

git clone https://github.com/2noise/ChatTTS
cd ChatTTS

安裝依賴

pip install --upgrade -r requirements.txt

執行 webui

python examples/web/webui.py

利用 CLI

python examples/cmd/run.py "Your text 1." "Your text 2."

要整合在 python 程式碼中,可以安裝 PyPI

pip install ChatTTS
pip install git+https://github.com/2noise/ChatTTS
pip install -e .

整合程式碼

###################################
# Sample a speaker from Gaussian.

rand_spk = chat.sample_random_speaker()
print(rand_spk) # save it for later timbre recovery

params_infer_code = ChatTTS.Chat.InferCodeParams(
    spk_emb = rand_spk, # add sampled speaker 
    temperature = .3,   # using custom temperature
    top_P = 0.7,        # top P decode
    top_K = 20,         # top K decode
)

###################################
# For sentence level manual control.

# use oral_(0-9), laugh_(0-2), break_(0-7) 
# to generate special token in text to synthesize.
params_refine_text = ChatTTS.Chat.RefineTextParams(
    prompt='[oral_2][laugh_0][break_6]',
)

wavs = chat.infer(
    texts,
    params_refine_text=params_refine_text,
    params_infer_code=params_infer_code,
)

###################################
# For word level manual control.

text = 'What is [uv_break]your favorite english food?[laugh][lbreak]'
wavs = chat.infer(text, skip_refine_text=True, params_refine_text=params_refine_text,  params_infer_code=params_infer_code)
"""
In some versions of torchaudio, the first line works but in other versions, so does the second line.
"""
try:
    torchaudio.save("word_level_output.wav", torch.from_numpy(wavs[0]).unsqueeze(0), 24000)
except:
    torchaudio.save("word_level_output.wav", torch.from_numpy(wavs[0]), 24000)

V3版本

音色庫

https://www.modelscope.cn/studios/ttwwwaa/chattts_speaker

注意事項

1.是否要使用CUDA,需要的話,記得安裝依賴

2.要用CUDA,怎選擇 Linux 平台,相容性比較好

3.Python最好用3.10版本,並且用conda

直接使用

https://chattts.com

colab

modalScope

參考資源

ChatTTS Github

ChatTTS官網

Chat TTS UI

Chat TTS 翻譯

MediaFire一件安裝包

Lobe Chat UI-有plugin,多模態的AI CHAT UI – 雨 (rain.tips)

AI Tools – AI工具大全(總整理) – 雨 (rain.tips)

搭配 Free AI 產圖Flux

利用 Unique 3D 製作人物的 3D 模型

利用 Unique 3D 製作人物的 3D 模型

Views: 33

想要一鍵生成自己人頭的3D模型,已經有很多好用的工具,但這次所提供的 Unique3D 還是讓人驚艷,能夠從單一視角圖像高效地生成高品質的 3D 網格。這個框架使用了最新的生成保真度技術和強大的泛化能力。傳統的基於 Score Distillation Sampling(SDS)的方法能夠從大型 2D 擴散模型中提取 3D 知識來生成多樣化的 3D 結果,但這些方法通常需要長時間的個案優化,且結果常有不一致的問題。

最近的研究通過微調多視角擴散模型或訓練快速的前向模型來解決這一問題,生成了更好的 3D 結果。然而,這些方法在紋理和複雜幾何形狀的生成上仍存在不一致性和解析度限制。為了同時實現高保真度、一致性和效率,Unique3D 提出了一個包括多視角擴散模型和對應的標準擴散模型的框架,用於生成多視角圖像及其法線圖,並通過多級放大過程逐步提高生成的正交多視角圖像的解析度。

此外,Unique3D 還引入了一個稱為 ISOMER 的即時且一致的網格重建算法,該算法充分整合了顏色和幾何先驗知識到網格結果中,讓Unique3D 在幾何和紋理細節方面顯著優於其他圖像到 3D 的基線方法。

參考資料

利用 Blender 合成3D模型 – 雨 (rain.tips)

教學影片:AI能在2分钟就建成人像浮雕3D模型,简直太快了!赶快学起来 (youtube.com)

AiuniAI/Unique3D: Official implementation of Unique3D: High-Quality and Efficient 3D Mesh Generation from a Single Image (github.com)

直接上傳圖片到 Unique3D – a Hugging Face Space by Wuvin 取得對應的3D模型

可以上傳網址的官網Aiuni

論文[2405.20343] Unique3D: High-Quality and Efficient 3D Mesh Generation from a Single Image (arxiv.org)

加入Aiuni的 Discord 取的認證碼

Flux AI – 終於可以在圖片上產出文字了

Views: 26

免費使用 Flux AI 的方法

  1. Huggingface
  2. Seaart
  3. Glif
  4. FluxPro

在自己的電腦中使用 Flux AI

採用 flux pro api

API 文件

在自己的電腦安裝

Flux 建議用 Pyhton 3.10 ,可以去 GitHub 下載並且安裝,但只能使用 dev (開發版) 和 Schnell (速度版)

cd $HOME && git clone https://github.com/black-forest-labs/flux
cd $HOME/flux
python3.10 -m venv .venv
source .venv/bin/activate
pip install -e ".[all]"

模型連結如下

FLUX 1 schnell

FLUX 1 Dev

安裝好模型和程式後,設定如下

export FLUX_SCHNELL=<path_to_flux_schnell_sft_file>
export FLUX_DEV=<path_to_flux_dev_sft_file>
export AE=<path_to_ae_sft_file>

使用的方法有兩種,一個是開啟交互介面

python -m flux --name <name> --loop

另一個是直接在 CLI 介面上產圖

python -m flux --name <name> \
  --height <height> --width <width> \
  --prompt "<prompt>"

參數說明

  • --name: 模型名稱 “flux-schnell”, “flux-dev”)
  • --device: 用CPU還是GPU運算 (default: “cuda” if available, otherwise “cpu”)
  • --offload: 模型未被使用時,將其從 GPU 卸載到 CPU。這樣做的目的是節省 GPU 的記憶體資源,特別是在模型不需要時,減少對 GPU 記憶體的佔用。同時,當模型需要再次使用時,它會從 CPU 重新加載到 GPU 上。
  • --share: 對外開放你的連結

其中 <name> 要代入模型的名稱,範例如下,

python demo_gr.py --name flux-schnell --device cuda --prompt "a girl"

Target正式使用在全通路上使用AI店員助手

Target正式使用在全通路上使用AI店員助手

Views: 7

AI 即將進入所有人所有公司的生活中了,連老牌大型通路商都必須要採用AI店員助手,相信已經進入到了大家的日常生活中了

特色介紹

1.每個店員的手持裝置上都有AI助手,回應門市的營運問題,有關於使用者的會員卡申辦,也有關於店員的內部操作問題,例如說如何重啟POS機器

2.Target網店,除了基礎應用,採你喜歡、推薦商品以外,還可以用自然語言來找到自己想要買的商品

News:

https://www.cbsnews.com/video/target-introduces-new-ai-tool-for-employees

參考資料

https://rain.tips/category/%e5%89%b5%e6%96%b0%e5%89%b5%e6%a5%ad/%e6%96%b0%e5%89%b5
Dify Agent

Dify Agent

Views: 42

Dify AI 是一個開放靈活的生成式 AI 應用開發框架,提供了一個全方面的解決方案,讓開發者能夠輕鬆構建和運營生成式 AI的 原生應用。平台的核心技術包括 AI 工作流程編排、RAG 檢索、模型管理等功能。Dify AI 支持從 Agent 建立到工作流程編排的完整開發過程,讓使用者可以專注於創造應用的核心價值,此外,它提供的工具包括 Prompt IDE、Enterprise LLMOps 和 BaaS 等解決方案,可以大幅度的提升開發效率並優化應用性能,可以先去Dify的GitHUB看看。

特色介紹

公司內部私有化的知識庫和AI助理

Dify AI 允許企業將內部知識庫整合到平台中,並創建專屬的AI助理,來高效地管理和利用企業知識。

公司內部可以控管的紀錄

企業可以通過Dify AI平台對所有操作和數據進行詳細記錄和管控,確保數據安全和合規性。

AI工作流自動化

Dify AI 提供連結公司內部資訊系統的能力,幫助企業自動化處理各種業務流程,提升運營效率。

零代碼創建 AI Agent

平台支持用戶在無需編寫代碼的情況下,創建和部署個性化的 AI Agent,滿足各類業務需求。

支持多種大語言模型

Dify AI 支持全球各種主流的大語言模型(LLM),為企業提供靈活的選擇,以滿足不同場景的應用需求。

開發以及運營的支持

利用 Docker 安裝

先把專案抓下來

git clone https://github.com/langgenius/dify.git

然後可以用下面的指令安裝

cd docker
cp .env.example .env
docker compose up -d

安裝完成後,利用瀏覽器看 http://localhost/install ,按照步驟設定即可

使用線上服務

https://cloud.dify.ai/apps

價格表

您可以在 Dify AI 官網 上了解更多詳情。

參考資料: