Select Page
Meshy AI:適合遊戲開發的3D建模流程的新工具

Meshy AI:適合遊戲開發的3D建模流程的新工具

Meshy AI 是一個 AI 3D 建模的工具平台,利用人工智能技術來簡化3D內容的創建,這個工具的設計宗旨是將文字或圖像轉換成詳細的3D模型和紋理,大大加快了傳統的3D建模過程。

Meshy AI的主要特點包括:

  1. 文字到3D:使用者可以通過輸入文字說明(Prompt)來生成3D模型。這個功能對於快速創建環境道具和其他非詳細模型特別有用。
  2. 圖像到3D:此功能允許用戶將圖像轉換成3D模型,從圖片推斷出物體的結構,生成一個有紋理的3D表現。
  3. 文字到紋理:Meshy AI還可以根據文字描述對3D模型應用紋理,消除了復雜的UV映射和手動紋理處理過程的需要。
  4. 易用性:Meshy 設計了一個用戶友好的界面,簡化了創建過程,使得無需廣泛的3D建模經驗的用戶也能使用。

Meshy的功能還擴展到與 Unity Blender 等流行軟件的整合,通過允許在這些平台內直接應用紋理和生成模型來增強工作流程。此外,Meshy還為開發者提供了API,使他們能夠在更大項目中自定義和自動化3D資產的創建​,另外Meshy的紋理生成僅需約三分鐘,完整的3D模型從文字或圖像生成在15分鐘以內完成。這種快速的生產能力可以顯著縮短遊戲開發、數位藝術和虛擬實境等領域的項目時間​。

參考資料

UiPath 簡介:改變工作方式的機器人流程自動化

這次介紹超強大的 RPA,他複雜到需要很多的時間學習才能上手, UiPath 提供一系列機器人自動化工具,幫助個人或企業自動化重複性的辦公室任務,從而提高效率並減少人為錯誤,這次將簡單探討 UiPath 的核心功能、應用案例以及它如何改變企業運作模式。

UiPath 平台概覽

UiPath 提供一個完整的自動化平台,該平台使企業能夠部署虛擬助手(稱為機器人)來自動完成各種工作流程。其核心產品包括 UiPath Studio、UiPath Robots 和 UiPath Orchestrator:

  1. UiPath Studio: 一個直觀的可視化設計工具,允許開發者通過拖放界面來設計自動化流程。
  2. UiPath Robots: 這些是可以執行流程的自動化代理,可以根據指定的規則在背景中或與人類互動中執行任務。
  3. UiPath Orchestrator: 一個中央管理工具,用於部署、監控和管理大規模的機器人部署和工作流程。

應用案例

UiPath 被廣泛應用於多個行業,如金融服務、製造業、健康護理和零售等,解決各種業務問題:

  • 財務與會計:自動化賬目管理、請款處理和財務報表生成。
  • 人力資源:簡化招聘流程、員工入職和薪資管理。
  • 客戶服務:自動回應客戶查詢,改善服務效率和質量。

官網

https://www.uipath.com

中文官網

教學文件

https://www.perform-global.com/blog/uipath-course-note-part1

https://vocus.cc/article/641306c5fd89780001b5c981

使用 Plotagon Studio 創作動畫短片的入門指南

使用 Plotagon Studio 創作動畫短片的入門指南

Plotagon Studio 是一個讓你能夠輕鬆地使用劇本來創作動畫短片的強大工具。無論你是專業的創作者,還是對動畫有興趣的初學者,這款軟體都能滿足你的需求。

什麼是 Plotagon Studio?

Plotagon Studio與傳統的動畫軟體相比,它不需要複雜的繪圖或動畫技巧。你只需要編寫劇本、設置場景、選擇角色,剩下的工作都交給 Plotagon Studio 來完成。這使得它成為了教育、行銷、娛樂等多種領域的理想工具。

如何開始使用 Plotagon Studio

  1. 下載並安裝軟體
    首先,你需要到 Google Play 或是 Apple Store 下載並安裝 Plotagon Studio。
  2. 創建你的第一個項目
    打開軟體後,點擊「新建項目」來創建一個新項目。你可以為項目命名,並選擇你想要的動畫風格。
  3. 編寫劇本
    在 Plotagon Studio 中,劇本是動畫的核心。你可以直接在軟體中撰寫對話,並為每個角色分配台詞,Plotagon 會根據你的劇本自動生成動畫對話場景。
  4. 選擇場景與角色
    Plotagon Studio 提供了多種場景和角色選項,你可以根據劇本需求選擇合適的場景和角色,並對角色的外觀、服裝和配件進行自定義。
  5. 加入音效與背景音樂
    為了讓動畫更具吸引力,你還可以添加音效和背景音樂,Plotagon Studio 提供了豐富的音效庫,當然你也可以上傳自定義音樂和聲音。
  6. 預覽與導出
    完成所有設置後,你可以預覽你的動畫並進行最後的調整,確定無誤後,將動畫導出為視頻格式,以便於分享或發布。

提示與技巧

  • 利用角色表情與動作
    在劇本中插入角色的表情和動作指令,讓角色更加生動。例如,在台詞旁邊添加「微笑」或「點頭」等動作指令。
  • 合理運用場景轉換
    為了讓故事更加連貫,可以使用場景轉換來表達時間或地點的變化。這樣可以增加動畫的節奏感。
  • 保持對話簡潔
    動畫短片的長度有限,因此對話應該簡潔明了,避免過於冗長的對白,影響觀眾的觀看體驗。

ChatTTS-完整使用指南

ChatTTS-完整使用指南

免費且超強大的 AI TTS,文字轉語音模型+工具,有許多語氣的控制,也可以很精準的寫程式控制效果,是RD眼中好用的Local端開源的TTS

特色說明

1.大規模的數據:10萬小時的訓練資料,現在開源的是4小時的版本

2.專用設計:專門對於對話情境、視頻介紹的情境所設計的模型

3.開源特性:可以很簡單的整合到你的WEB中

4.支持語氣:oral, laugh, break

安裝前準備

python 3.10

CUDA

GIT

gradio

安裝說明

github 複製

git clone https://github.com/2noise/ChatTTS
cd ChatTTS

安裝依賴

pip install --upgrade -r requirements.txt

執行 webui

python examples/web/webui.py

利用 CLI

python examples/cmd/run.py "Your text 1." "Your text 2."

要整合在 python 程式碼中,可以安裝 PyPI

pip install ChatTTS
pip install git+https://github.com/2noise/ChatTTS
pip install -e .

整合程式碼

###################################
# Sample a speaker from Gaussian.

rand_spk = chat.sample_random_speaker()
print(rand_spk) # save it for later timbre recovery

params_infer_code = ChatTTS.Chat.InferCodeParams(
    spk_emb = rand_spk, # add sampled speaker 
    temperature = .3,   # using custom temperature
    top_P = 0.7,        # top P decode
    top_K = 20,         # top K decode
)

###################################
# For sentence level manual control.

# use oral_(0-9), laugh_(0-2), break_(0-7) 
# to generate special token in text to synthesize.
params_refine_text = ChatTTS.Chat.RefineTextParams(
    prompt='[oral_2][laugh_0][break_6]',
)

wavs = chat.infer(
    texts,
    params_refine_text=params_refine_text,
    params_infer_code=params_infer_code,
)

###################################
# For word level manual control.

text = 'What is [uv_break]your favorite english food?[laugh][lbreak]'
wavs = chat.infer(text, skip_refine_text=True, params_refine_text=params_refine_text,  params_infer_code=params_infer_code)
"""
In some versions of torchaudio, the first line works but in other versions, so does the second line.
"""
try:
    torchaudio.save("word_level_output.wav", torch.from_numpy(wavs[0]).unsqueeze(0), 24000)
except:
    torchaudio.save("word_level_output.wav", torch.from_numpy(wavs[0]), 24000)

V3版本

音色庫

https://www.modelscope.cn/studios/ttwwwaa/chattts_speaker

注意事項

1.是否要使用CUDA,需要的話,記得安裝依賴

2.要用CUDA,怎選擇 Linux 平台,相容性比較好

3.Python最好用3.10版本,並且用conda

直接使用

https://chattts.com

colab

modalScope

參考資源

ChatTTS Github

ChatTTS官網

Chat TTS UI

Chat TTS 翻譯

MediaFire一件安裝包

Lobe Chat UI-有plugin,多模態的AI CHAT UI – 雨 (rain.tips)

AI Tools – AI工具大全(總整理) – 雨 (rain.tips)

搭配 Free AI 產圖Flux

利用 Unique 3D 製作人物的 3D 模型

利用 Unique 3D 製作人物的 3D 模型

想要一鍵生成自己人頭的3D模型,已經有很多好用的工具,但這次所提供的 Unique3D 還是讓人驚艷,能夠從單一視角圖像高效地生成高品質的 3D 網格。這個框架使用了最新的生成保真度技術和強大的泛化能力。傳統的基於 Score Distillation Sampling(SDS)的方法能夠從大型 2D 擴散模型中提取 3D 知識來生成多樣化的 3D 結果,但這些方法通常需要長時間的個案優化,且結果常有不一致的問題。

最近的研究通過微調多視角擴散模型或訓練快速的前向模型來解決這一問題,生成了更好的 3D 結果。然而,這些方法在紋理和複雜幾何形狀的生成上仍存在不一致性和解析度限制。為了同時實現高保真度、一致性和效率,Unique3D 提出了一個包括多視角擴散模型和對應的標準擴散模型的框架,用於生成多視角圖像及其法線圖,並通過多級放大過程逐步提高生成的正交多視角圖像的解析度。

此外,Unique3D 還引入了一個稱為 ISOMER 的即時且一致的網格重建算法,該算法充分整合了顏色和幾何先驗知識到網格結果中,讓Unique3D 在幾何和紋理細節方面顯著優於其他圖像到 3D 的基線方法。

參考資料

利用 Blender 合成3D模型 – 雨 (rain.tips)

教學影片:AI能在2分钟就建成人像浮雕3D模型,简直太快了!赶快学起来 (youtube.com)

AiuniAI/Unique3D: Official implementation of Unique3D: High-Quality and Efficient 3D Mesh Generation from a Single Image (github.com)

直接上傳圖片到 Unique3D – a Hugging Face Space by Wuvin 取得對應的3D模型

可以上傳網址的官網Aiuni

論文[2405.20343] Unique3D: High-Quality and Efficient 3D Mesh Generation from a Single Image (arxiv.org)

加入Aiuni的 Discord 取的認證碼

Flux AI – 終於可以在圖片上產出文字了

免費使用 Flux AI 的方法

  1. Huggingface
  2. Seaart
  3. Glif
  4. FluxPro

在自己的電腦中使用 Flux AI

採用 flux pro api

API 文件

在自己的電腦安裝

Flux 建議用 Pyhton 3.10 ,可以去 GitHub 下載並且安裝,但只能使用 dev (開發版) 和 Schnell (速度版)

cd $HOME && git clone https://github.com/black-forest-labs/flux
cd $HOME/flux
python3.10 -m venv .venv
source .venv/bin/activate
pip install -e ".[all]"

模型連結如下

FLUX 1 schnell

FLUX 1 Dev

安裝好模型和程式後,設定如下

export FLUX_SCHNELL=<path_to_flux_schnell_sft_file>
export FLUX_DEV=<path_to_flux_dev_sft_file>
export AE=<path_to_ae_sft_file>

使用的方法有兩種,一個是開啟交互介面

python -m flux --name <name> --loop

另一個是直接在 CLI 介面上產圖

python -m flux --name <name> \
  --height <height> --width <width> \
  --prompt "<prompt>"

參數說明

  • --name: 模型名稱 “flux-schnell”, “flux-dev”)
  • --device: 用CPU還是GPU運算 (default: “cuda” if available, otherwise “cpu”)
  • --offload: 模型未被使用時,將其從 GPU 卸載到 CPU。這樣做的目的是節省 GPU 的記憶體資源,特別是在模型不需要時,減少對 GPU 記憶體的佔用。同時,當模型需要再次使用時,它會從 CPU 重新加載到 GPU 上。
  • --share: 對外開放你的連結

其中 <name> 要代入模型的名稱,範例如下,

python demo_gr.py --name flux-schnell --device cuda --prompt "a girl"