Select Page

Nvidia Spark Ollama 的滿血設定

🧱 直接給「滿血設定」

你現在 service 改成這個👇(最重要)

[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3# ===== 核心 =====
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_KEEP_ALIVE=-1"# ===== GPU 強制 =====
Environment="OLLAMA_GPU_LAYERS=999"# ===== 記憶體優化 =====
Environment="OLLAMA_KV_CACHE_TYPE=q8_0"
Environment="OLLAMA_FLASH_ATTENTION=1"# ===== Spark專用 tuning =====
Environment="OLLAMA_NUM_PARALLEL=2"
Environment="OLLAMA_MAX_LOADED_MODELS=2"
Environment="OLLAMA_MAX_QUEUE=512"# ===== CPU 控制 =====
Environment="OMP_NUM_THREADS=20"# ===== PATH =====
Environment="PATH=/usr/local/cuda/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"[Install]
WantedBy=multi-user.target

🔁 套用

sudo systemctl daemon-reexec
sudo systemctl daemon-reload
sudo systemctl restart ollama

🔍 一定要做驗證

systemctl show ollama | grep OLLAMA

👉 要看到全部變數


🧠 模型才是性能關鍵

🔥 Spark 正確用法

用途模型
最快llama3:8b
平衡llama3:13b
大模型30B(單一)

✅ 先做這個測試(非常重要)

ollama run llama3

👉 再看:

nvidia-smi

🔥 讓 GPU 真的滿血(關鍵3件事)

① 模型「完全進 GPU」

👉 關鍵判斷:

ollama ps

看到:

100% GPU

👉 才算成功


② context 不要亂開

👉 Ollama 預設 4096

👉 你如果開到:

  • 32K / 128K

👉 = 直接 CPU fallback


👉 建議:

ollama run llama3 --num_ctx 4096

③ 不要多模型併發

Spark 特性:

👉 記憶體大,但 bandwidth 普通

👉 所以:

OLLAMA_NUM_PARALLEL=2

是最佳解


🧠 Spark 的本質

👉 DGX Spark

  • 128GB memory ✔
  • 超大模型可跑 ✔
  • ❌ 不是高吞吐 GPU

👉 正確定位:

🔥 大模型單機推理機


🧪 接下就會看到的改善

調完後:

指標改善
GPU Util0% → 80%+
token/sec↑ 3~10倍
latency↓ 50%以上
CPU

🎯 注意事項

👉 ❗不要讓使用者直接打 Ollama

MarkItDown 教學:微軟開源神器,一鍵把 PDF、Word、PPT 轉成 AI 可讀 Markdown

MarkItDown 教學:微軟開源神器,一鍵把 PDF、Word、PPT 轉成 AI 可讀 Markdown

在 AI 時代,「讓 AI 看懂文件」變成一個非常關鍵的能力,但現實世界的資料格式五花八門,從 PDF、Word 到 PPT、甚至影片與音訊,這些內容對 AI 來說其實並不好直接處理。

這時候,MarkItDown 就成為一把真正的「文件瑞士刀」。

由 Microsoft 開源推出,MarkItDown 能將各種格式的檔案,一鍵轉換成乾淨、結構化、AI 友善的 Markdown,讓 ChatGPT、Claude 或各種 AI Agent 能輕鬆理解與分析。

你只要把 https://github.com/microsoft/markitdown 網址貼給 agent ,請他安裝就可以了


🚀 為什麼 MarkItDown 這麼強?

MarkItDown 最大的優勢只有一句話:

👉 幾乎什麼格式都能轉,而且還轉得漂亮

📂 支援格式(強到誇張)

🧾 辦公文件

  • PDF
  • Word(DOCX)
  • PowerPoint(PPTX)
  • Excel(XLSX / XLS)

🌐 網頁內容

  • HTML
  • 直接輸入 URL 解析整個頁面

🖼️ 影像檔

  • JPG / PNG
  • 支援 OCR 文字辨識
  • 可搭配 AI 產生圖片描述

🎧 音訊檔

  • WAV / MP3
  • 自動語音轉文字(Speech-to-Text)

📊 資料格式

  • CSV / JSON / XML

📦 其他進階格式

  • ZIP(自動解壓並轉換)
  • Outlook 郵件
  • YouTube(自動擷取字幕)
  • EPub 電子書

✨ 不只是轉檔,而是「結構理解」

很多轉檔工具的問題是:

👉 轉出來變成一坨純文字(完全不能用)

但 MarkItDown 不一樣,它會:

  • 保留標題層級(# ## ###)
  • 還原表格結構
  • 保留清單與段落
  • 維持超連結

👉 轉出來就是 AI 可以直接理解的 Markdown 結構

這對以下應用非常關鍵:

  • RAG(檢索增強生成)
  • AI 文件摘要
  • Agent 自動閱讀文件

⚡ 安裝與使用(超簡單)

安裝

pip install "markitdown[all]"

👉 如果只需要特定格式:

pip install "markitdown[pdf,docx,pptx]"

CLI 使用

markitdown 報告.pdf -o 報告.md

Python 使用

from markitdown import MarkItDownmd = MarkItDown()
result = md.convert("文件.docx")print(result.markdown)

👉 幾行程式碼就搞定


🤖 搭配 AI:威力直接翻倍

MarkItDown 真正強的地方,是它「原生為 AI 設計」。

🧠 AI 圖片理解

  • 可串接 OpenAI 視覺模型
  • 自動產生圖片描述
  • 讓 AI 看懂圖片內容

🔍 OCR 文字辨識

  • 整合 Azure Document Intelligence
  • 可讀取掃描 PDF / 圖片文字

🔌 MCP(Model Context Protocol)整合

  • 可直接接入 Claude Desktop
  • 或各種 AI Agent 系統

👉 這點對在做 AI Agent / LangChain / 自動化流程 特別重要


🧩 外掛系統

  • 可自訂格式解析
  • 支援企業客製流程

📌 實際應用場景

1️⃣ 餵 AI 吃文件(超省 Token)

👉 先轉 Markdown,再丟 AI

效果:

  • Token 減少最多可達 80%
  • AI 理解更準確

2️⃣ 建構企業知識庫(RAG)

流程:

文件 → MarkItDown → Markdown → Embedding → Vector DB

👉 完整 AI 知識庫 pipeline


3️⃣ AI Agent 文件閱讀能力

在你的 Agent 流程中加入:

文件 → MarkItDown → LLM 分析

👉 Agent 直接具備「讀文件能力」


4️⃣ 會議紀錄自動化

錄音 → 轉文字 → Markdown → AI整理

👉 自動產出結構化會議紀錄


⚠️ 不是萬能

MarkItDown 雖然強,但有幾個限制:

  • 複雜圖表(Chart / Graph)解析較弱
  • 高度排版文件可能失真
  • 不適合做「高保真排版還原」

👉 如果你要的是「完美排版還原」

建議用:
👉 Pandoc

👉 如果你要的是「讓 AI 看懂」
👉 MarkItDown 完勝


🧠 結論:AI 時代的文件標準工具

MarkItDown 解決了一個非常關鍵但常被忽略的問題:

👉 AI 看不懂文件格式

它的價值在於:

  • ✅ 超廣格式支援
  • ✅ 保留結構(不是純文字)
  • ✅ 原生為 AI 設計
  • ✅ 可整合 Agent / RAG / 自動化流程
  • ✅ 免費開源

👉 如果你正在做:

  • AI Agent
  • 文件分析
  • 自動化流程
  • 知識庫建構

MarkItDown 是 AI Agent 必裝工具。

阿里開源 Happy Horse 1.0:顛覆影音生成的下一個里程碑

阿里開源 Happy Horse 1.0:顛覆影音生成的下一個里程碑

🎬 前言:影音生成進入新紀元

在 AI 生成技術快速進化的浪潮中,影音生成(Video Generation)一直是最具挑戰的領域之一,近期阿里巴巴推出全新開源模型 Happy Horse 1.0,不僅一舉登上視訊生成排行榜首,更以「原生音視訊同步」技術引發業界關注。

這不只是一次模型更新,而是一場技術架構的全面升級。


🧠 技術突破:原生音視訊同步與統一架構

過去的影音生成模型,多數採用「先產畫面、再加聲音」的分離式流程,導致以下問題:

  • 聲音與畫面不同步
  • 情緒與語境不一致
  • 動作與語音對不上(例如嘴型錯誤)

Happy Horse 1.0 的最大突破在於:

✅ 原生音視訊同步(Native Audio-Visual Generation)

模型在同一個架構中,同步生成:

  • 視訊畫面
  • 聲音(語音、環境音)

👉 這代表:

  • 嘴型、語氣、動作可以完全對齊
  • 情境更自然、沉浸感更強

✅ 統一生成架構(Unified Architecture)

傳統模型:

Text → Image → Video → Audio

Happy Horse:

Text → Audio + Video(同步生成)

👉 好處:

  • 延遲更低
  • 表現更一致
  • 訓練與推理效率提升

🌍 開源策略:直接撼動產業格局

這次阿里的另一個關鍵策略是——全面開源

在目前市場上,多數高品質影音模型(如某些閉源模型)仍然:

  • 無法本地部署
  • API 成本高昂
  • 無法自訂訓練

而 Happy Horse 1.0:

🔓 開源帶來的優勢

  • 可自行部署(企業私有化)
  • 可進行 fine-tune
  • 可整合到自家 SaaS / Agent 系統
  • 大幅降低成本

👉 對你這種正在做:

  • AI Agent
  • SaaS 平台(像 OpenClaw / Hermes)
  • 影音生成服務

這其實是「直接可商用的關鍵拼圖」。


🧪 實測對比:各有所長,但方向已定

從目前社群與測試結果來看,Happy Horse 1.0 與其他主流模型相比:

🎥 優勢

  • 音畫同步表現極佳(領先)
  • 人物口型與語音一致性高
  • 長影片穩定性提升

⚖️ 相對限制

  • 某些細節畫質仍有進步空間
  • 複雜場景(多人物)仍需優化
  • 訓練與硬體需求較高

👉 結論不是「全面碾壓」,而是:

在「影音同步」這個核心維度上,已經領先一個世代。


🧩 對開發者的實際影響(重點)

如果你是開發者或創業者,這代表什麼?

💡 你現在可以做:

  • AI 影片生成 SaaS(類似 Runway / Pika)
  • AI 虛擬人(帶語音與表情同步)
  • 自動短影音生成(TikTok / 房仲 / 行銷)
  • AI 教學影片生成

👉 Happy Horse 可以直接變成:

Agent → 呼叫影音生成 API → 自動產影片

甚至可以做到:

  • 「用一句話生成完整短影音廣告」
  • 「AI 自動生成房仲介紹影片」

🏗️ 未來趨勢:影音生成將取代文字生成?

目前 AI 發展路線:

  1. 文字生成(GPT)
  2. 圖像生成(Stable Diffusion)
  3. 影音生成(下一戰場)

而 Happy Horse 代表:

🔥「影音生成正式進入可商用時代」

未來很可能出現:

  • AI 直接生成 YouTube 影片
  • 無人製作的短影音工廠
  • AI 自動做內容變現

📦 官方資源

從助手到同事:Multica 如何讓 AI 成為真正的團隊成員

從助手到同事:Multica 如何讓 AI 成為真正的團隊成員

在過去,AI 只是工具
現在,AI 正在變成你的「員工」

而未來,你的團隊中——
真正工作的,可能不再是人類

🧠 什麼是 Multica?

從助手到同事:Multica 如何讓 AI 成為真正的團隊成員

Multica 是一個開源的 Managed Agents(智能體管理)平台,核心概念非常直接:

把 AI 編碼 Agent,變成真正的「隊友」

不像傳統 AI 工具需要你手動下 prompt、盯著結果,
Multica 讓 AI:

  • 自己接任務
  • 自己執行工作
  • 自己回報進度
  • 自己累積能力

👉 就像你真的聘請了一個工程師。

根據官方說明,它的目標是打造「人類 + AI 的混合團隊」基礎設施。


💥 核心理念:AI 不再是工具,而是「員工」

傳統 AI:

  • 你操作它
  • 你監督它
  • 它只是工具

Multica 的 AI:

  • 你分配任務給它
  • 它自己完成工作
  • 它是團隊成員

👉 這是從「工具」到「組織角色」的巨大轉變。


⚙️ Multica 的核心功能

1️⃣ Agent 即隊友

你可以像在 Jira 或 Linear 一樣:

  • 指派任務給 AI
  • AI 會自動認領
  • 在看板上更新進度
  • 主動回報問題

👉 AI 成為專案管理的一等公民


2️⃣ 全自動任務執行

AI 會:

  • 排隊 → 接任務 → 執行 → 完成 / 失敗
  • 全程自動運作
  • 即時回報進度(WebSocket)

👉 不需要再「盯著 AI 跑」


3️⃣ 技能累積(最關鍵)

每一次任務:

➡️ 都會變成「可重用技能」

例如:

  • 部署流程
  • DB migration
  • Code review

👉 團隊能力會「越用越強」


4️⃣ 多 Agent 協作

你可以同時:

  • 跑 10 個 AI 任務
  • 多個 Agent 協同工作
  • 平行處理專案

👉 等於一個 AI 工程團隊


5️⃣ 統一運行與算力管理

  • 本地 + 雲端 runtime
  • 自動偵測 CLI 工具
  • 統一控制台管理

👉 不用自己拼基礎設施


🧩 為什麼這件事重要?

現在 AI 最大的問題是:

  • 每個人用自己的 Agent
  • 知識無法共享
  • 工作流程碎片化

Multica 解決的是:

👉 AI 協作的「組織問題」

它讓:

  • AI 有記憶
  • AI 有角色
  • AI 有協作能力

👉 這就是「AI 組織化」的開始


🏢 這其實是「AI HR 系統」

如果用一句話形容:

Multica = AI 員工管理系統

它提供:

  • 任務分配(像 HR)
  • 進度追蹤(像 PM)
  • 能力累積(像培訓系統)

👉 AI 不只是會做事,還會「成長」


🔮 未來趨勢:公司將變成「人類 + AI 混合組織」

你可以想像未來公司長這樣:

類型角色
人類決策 / 創意 / 策略
AI Agent開發 / 測試 / 自動化 / 文書

甚至:

  • 一個人帶 10 個 AI 工程師
  • 一個團隊管理 100 個 Agent

👉 生產力直接提升 10 倍(甚至更多)


⚔️ Multica vs 傳統 AI 工具

比較傳統 AIMultica
使用方式Prompt任務分配
工作模式單次互動長時間運行
協作多 Agent
記憶技能累積
管理人盯自動化

👉 本質差異:
工具 → 組織系統


🧠 結論:你該開始思考的事

這不是未來,而是現在正在發生的事。

不用雲端!免費語音克隆神器 VoxCPM|30種語言+方言,離線生成專業播音聲音

不用雲端!免費語音克隆神器 VoxCPM|30種語言+方言,離線生成專業播音聲音

🧠 什麼是 VoxCPM?

VoxCPM 是由 OpenBMB 推出的新一代語音生成模型,主打:

👉 超低樣本聲音克隆(只需5秒)
👉 完全本地運行(無需雲端)
👉 多語言+多方言支持(30+)

簡單講一句話:

👉 它就是「語音界的 Stable Diffusion」


🚀 核心特色

🎙️ 1️⃣ 極致聲音複製(5秒搞定)

只需要一段短短語音(約5秒):

  • 可複製音色
  • 模擬說話風格
  • 保留情緒與語氣

👉 幾乎達到「真人等級」


🎚️ 2️⃣ 專業播音員等級輸出

生成語音具備:

  • 清晰度高(接近錄音室品質)
  • 節奏自然
  • 可長文本生成(Podcast / 有聲書)

👉 可直接商用(需注意授權)


🌏 3️⃣ 多語言+方言(重點)

支援:

  • 中文(普通話)
  • 台語(閩南語)
  • 廣東話
  • 四川話
  • 英文 / 日文 / 韓文 等

👉 這點直接屌打很多 TTS 工具


🔒 4️⃣ 完全本地運行

不像:

  • ElevenLabs(雲端)
  • PlayHT(雲端)

VoxCPM:

✅ 無需上傳聲音
✅ 不怕資料外洩
✅ 無 API 費用

⚙️ 安裝教學(本地部署)

📦 硬體需求(建議)

  • GPU:RTX 3060 以上(最佳)
  • RAM:16GB+
  • OS:Ubuntu / Windows(WSL)

🧩 Step 1:下載專案

官方 Repo👇
👉 VoxCPM GitHub repository


🧩 Step 2:安裝環境


🧩 Step 3:下載模型

依照 repo 指示下載:

  • 主模型(Urv5)
  • 聲音模型

🧩 Step 4:執行推理


🧩 Step 5:使用WEBUI

# WebUI 
python lora_ft_webui.py   # http://localhost:7860

🧠 進階玩法(你可以做什麼)

💰 商業應用

  • AI 配音 SaaS
  • 有聲書生成平台
  • YouTube 自動旁白

🧪 高階玩法

  • 聲音角色庫(多人 voice profile)
  • Telegram 語音 Bot
  • 客製客服語音

⚠️ 注意事項(很重要)

⚙️ 技術限制

  • 中文效果最佳
  • 部分方言仍在優化
  • GPU 需求較高

🆚 VoxCPM vs 其他 TTS

工具本地聲音克隆方言成本
VoxCPM免費
ElevenLabs普通$$$
PlayHT普通$$$

👉 結論:
本地部署 = VoxCPM 完勝

參考資料

官方網站

移除背景聲音工具(UVR5)

【Hermes Agent WebUI 正式登場】比 OpenClaw 更強?AI Agent 進入「可視化時代」!

【Hermes Agent WebUI 正式登場】比 OpenClaw 更強?AI Agent 進入「可視化時代」!

🧠 Hermes Agent 是什麼?

Hermes Agent 是由 Nous Research 推出的開源 AI Agent 框架,具備:

  • 🔁 跨對話記憶(Memory)
  • 🧠 技能(Skill)可持續累積
  • 🌐 內建網頁瀏覽與工具調用
  • ⏱️ 任務排程(Cron-like)
  • 🔌 OpenAI 相容 API(可接各種 LLM)

👉 本質上,它不是單純聊天機器人,而是「可執行任務的 AI 系統」


🖥️ Hermes WebUI(Dashboard)帶來什麼改變?

1️⃣ 從 CLI → GUI 的巨大轉變

過去:

  • OpenClaw / Agent 系統 → CLI + config + prompt

現在:

  • Hermes WebUI → 點擊操作 + 視覺化管理

👉 這是 AI Agent 商業化的關鍵一步


2️⃣ 多 Agent 管理(未來 SaaS 核心)

透過 WebUI,可以:

  • 管理多個 Agent
  • 設定不同任務流程
  • 控制記憶與技能

👉 這意味著:
👉 你可以做「多人 AI 平台」


3️⃣ 技能(Skill)可視化

Hermes 最大亮點:

任務會被記錄成「技能」,並可重複使用

例如:

  • 自動寫報告
  • 自動抓資料
  • 自動操作瀏覽器

👉 這其實就是:
👉 AI workflow engine(未來企業標準)


Hermes 實作

先更新到最新版本

hermes update

然後就可以直接啟用 hermes webui

hermes dashboard

之後就可以用瀏覽器使用,預設是 http://localhost:9119/

🔍 Hermes WebUI 深度觀察(關鍵洞察)

💡 與 Open WebUI 深度整合

在社群中有人指出:

Hermes 可以當成「有狀態的 LLM endpoint」

意思是:

  • WebUI(前端)
  • Hermes(Agent)
  • LLM(模型)

👉 三層架構:

User → WebUI → Hermes Agent → LL

「Hermes 開箱就像調教一週的 OpenClaw」

官方資訊

https://docs.openwebui.com/getting-started/quick-start/connect-an-agent/hermes-agent

第三方套件

https://github.com/nesquena/hermes-webui