Select Page

Nvidia Spark Ollama 的滿血設定

🧱 直接給「滿血設定」

你現在 service 改成這個👇(最重要)

[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3# ===== 核心 =====
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_KEEP_ALIVE=-1"# ===== GPU 強制 =====
Environment="OLLAMA_GPU_LAYERS=999"# ===== 記憶體優化 =====
Environment="OLLAMA_KV_CACHE_TYPE=q8_0"
Environment="OLLAMA_FLASH_ATTENTION=1"# ===== Spark專用 tuning =====
Environment="OLLAMA_NUM_PARALLEL=2"
Environment="OLLAMA_MAX_LOADED_MODELS=2"
Environment="OLLAMA_MAX_QUEUE=512"# ===== CPU 控制 =====
Environment="OMP_NUM_THREADS=20"# ===== PATH =====
Environment="PATH=/usr/local/cuda/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"[Install]
WantedBy=multi-user.target

🔁 套用

sudo systemctl daemon-reexec
sudo systemctl daemon-reload
sudo systemctl restart ollama

🔍 一定要做驗證

systemctl show ollama | grep OLLAMA

👉 要看到全部變數


🧠 模型才是性能關鍵

🔥 Spark 正確用法

用途模型
最快llama3:8b
平衡llama3:13b
大模型30B(單一)

✅ 先做這個測試(非常重要)

ollama run llama3

👉 再看:

nvidia-smi

🔥 讓 GPU 真的滿血(關鍵3件事)

① 模型「完全進 GPU」

👉 關鍵判斷:

ollama ps

看到:

100% GPU

👉 才算成功


② context 不要亂開

👉 Ollama 預設 4096

👉 你如果開到:

  • 32K / 128K

👉 = 直接 CPU fallback


👉 建議:

ollama run llama3 --num_ctx 4096

③ 不要多模型併發

Spark 特性:

👉 記憶體大,但 bandwidth 普通

👉 所以:

OLLAMA_NUM_PARALLEL=2

是最佳解


🧠 Spark 的本質

👉 DGX Spark

  • 128GB memory ✔
  • 超大模型可跑 ✔
  • ❌ 不是高吞吐 GPU

👉 正確定位:

🔥 大模型單機推理機


🧪 接下就會看到的改善

調完後:

指標改善
GPU Util0% → 80%+
token/sec↑ 3~10倍
latency↓ 50%以上
CPU

🎯 注意事項

👉 ❗不要讓使用者直接打 Ollama

Ubuntu Linux zip 排除檔案指令

最近有需要作下指令壓縮,並且把 wordpress 容器化的需求,所以要排除原有舊網站上的 wordpress 的主要程式,以及 wordpress 的使用者上傳的檔案,可以用下面的指令來作排除, 只要在後面加入 +x ,以及要排除的目錄名稱,記得最後面要加入 * 即可

zip -r wordpress.zip /var/www/wordpress/wp-content -x "/var/www/wordpress/wp-content/uploads/*"
MarkItDown 教學:微軟開源神器,一鍵把 PDF、Word、PPT 轉成 AI 可讀 Markdown

MarkItDown 教學:微軟開源神器,一鍵把 PDF、Word、PPT 轉成 AI 可讀 Markdown

在 AI 時代,「讓 AI 看懂文件」變成一個非常關鍵的能力,但現實世界的資料格式五花八門,從 PDF、Word 到 PPT、甚至影片與音訊,這些內容對 AI 來說其實並不好直接處理。

這時候,MarkItDown 就成為一把真正的「文件瑞士刀」。

由 Microsoft 開源推出,MarkItDown 能將各種格式的檔案,一鍵轉換成乾淨、結構化、AI 友善的 Markdown,讓 ChatGPT、Claude 或各種 AI Agent 能輕鬆理解與分析。

你只要把 https://github.com/microsoft/markitdown 網址貼給 agent ,請他安裝就可以了


🚀 為什麼 MarkItDown 這麼強?

MarkItDown 最大的優勢只有一句話:

👉 幾乎什麼格式都能轉,而且還轉得漂亮

📂 支援格式(強到誇張)

🧾 辦公文件

  • PDF
  • Word(DOCX)
  • PowerPoint(PPTX)
  • Excel(XLSX / XLS)

🌐 網頁內容

  • HTML
  • 直接輸入 URL 解析整個頁面

🖼️ 影像檔

  • JPG / PNG
  • 支援 OCR 文字辨識
  • 可搭配 AI 產生圖片描述

🎧 音訊檔

  • WAV / MP3
  • 自動語音轉文字(Speech-to-Text)

📊 資料格式

  • CSV / JSON / XML

📦 其他進階格式

  • ZIP(自動解壓並轉換)
  • Outlook 郵件
  • YouTube(自動擷取字幕)
  • EPub 電子書

✨ 不只是轉檔,而是「結構理解」

很多轉檔工具的問題是:

👉 轉出來變成一坨純文字(完全不能用)

但 MarkItDown 不一樣,它會:

  • 保留標題層級(# ## ###)
  • 還原表格結構
  • 保留清單與段落
  • 維持超連結

👉 轉出來就是 AI 可以直接理解的 Markdown 結構

這對以下應用非常關鍵:

  • RAG(檢索增強生成)
  • AI 文件摘要
  • Agent 自動閱讀文件

⚡ 安裝與使用(超簡單)

安裝

pip install "markitdown[all]"

👉 如果只需要特定格式:

pip install "markitdown[pdf,docx,pptx]"

CLI 使用

markitdown 報告.pdf -o 報告.md

Python 使用

from markitdown import MarkItDownmd = MarkItDown()
result = md.convert("文件.docx")print(result.markdown)

👉 幾行程式碼就搞定


🤖 搭配 AI:威力直接翻倍

MarkItDown 真正強的地方,是它「原生為 AI 設計」。

🧠 AI 圖片理解

  • 可串接 OpenAI 視覺模型
  • 自動產生圖片描述
  • 讓 AI 看懂圖片內容

🔍 OCR 文字辨識

  • 整合 Azure Document Intelligence
  • 可讀取掃描 PDF / 圖片文字

🔌 MCP(Model Context Protocol)整合

  • 可直接接入 Claude Desktop
  • 或各種 AI Agent 系統

👉 這點對在做 AI Agent / LangChain / 自動化流程 特別重要


🧩 外掛系統

  • 可自訂格式解析
  • 支援企業客製流程

📌 實際應用場景

1️⃣ 餵 AI 吃文件(超省 Token)

👉 先轉 Markdown,再丟 AI

效果:

  • Token 減少最多可達 80%
  • AI 理解更準確

2️⃣ 建構企業知識庫(RAG)

流程:

文件 → MarkItDown → Markdown → Embedding → Vector DB

👉 完整 AI 知識庫 pipeline


3️⃣ AI Agent 文件閱讀能力

在你的 Agent 流程中加入:

文件 → MarkItDown → LLM 分析

👉 Agent 直接具備「讀文件能力」


4️⃣ 會議紀錄自動化

錄音 → 轉文字 → Markdown → AI整理

👉 自動產出結構化會議紀錄


⚠️ 不是萬能

MarkItDown 雖然強,但有幾個限制:

  • 複雜圖表(Chart / Graph)解析較弱
  • 高度排版文件可能失真
  • 不適合做「高保真排版還原」

👉 如果你要的是「完美排版還原」

建議用:
👉 Pandoc

👉 如果你要的是「讓 AI 看懂」
👉 MarkItDown 完勝


🧠 結論:AI 時代的文件標準工具

MarkItDown 解決了一個非常關鍵但常被忽略的問題:

👉 AI 看不懂文件格式

它的價值在於:

  • ✅ 超廣格式支援
  • ✅ 保留結構(不是純文字)
  • ✅ 原生為 AI 設計
  • ✅ 可整合 Agent / RAG / 自動化流程
  • ✅ 免費開源

👉 如果你正在做:

  • AI Agent
  • 文件分析
  • 自動化流程
  • 知識庫建構

MarkItDown 是 AI Agent 必裝工具。

阿里開源 Happy Horse 1.0:顛覆影音生成的下一個里程碑

阿里開源 Happy Horse 1.0:顛覆影音生成的下一個里程碑

🎬 前言:影音生成進入新紀元

在 AI 生成技術快速進化的浪潮中,影音生成(Video Generation)一直是最具挑戰的領域之一,近期阿里巴巴推出全新開源模型 Happy Horse 1.0,不僅一舉登上視訊生成排行榜首,更以「原生音視訊同步」技術引發業界關注。

這不只是一次模型更新,而是一場技術架構的全面升級。


🧠 技術突破:原生音視訊同步與統一架構

過去的影音生成模型,多數採用「先產畫面、再加聲音」的分離式流程,導致以下問題:

  • 聲音與畫面不同步
  • 情緒與語境不一致
  • 動作與語音對不上(例如嘴型錯誤)

Happy Horse 1.0 的最大突破在於:

✅ 原生音視訊同步(Native Audio-Visual Generation)

模型在同一個架構中,同步生成:

  • 視訊畫面
  • 聲音(語音、環境音)

👉 這代表:

  • 嘴型、語氣、動作可以完全對齊
  • 情境更自然、沉浸感更強

✅ 統一生成架構(Unified Architecture)

傳統模型:

Text → Image → Video → Audio

Happy Horse:

Text → Audio + Video(同步生成)

👉 好處:

  • 延遲更低
  • 表現更一致
  • 訓練與推理效率提升

🌍 開源策略:直接撼動產業格局

這次阿里的另一個關鍵策略是——全面開源

在目前市場上,多數高品質影音模型(如某些閉源模型)仍然:

  • 無法本地部署
  • API 成本高昂
  • 無法自訂訓練

而 Happy Horse 1.0:

🔓 開源帶來的優勢

  • 可自行部署(企業私有化)
  • 可進行 fine-tune
  • 可整合到自家 SaaS / Agent 系統
  • 大幅降低成本

👉 對你這種正在做:

  • AI Agent
  • SaaS 平台(像 OpenClaw / Hermes)
  • 影音生成服務

這其實是「直接可商用的關鍵拼圖」。


🧪 實測對比:各有所長,但方向已定

從目前社群與測試結果來看,Happy Horse 1.0 與其他主流模型相比:

🎥 優勢

  • 音畫同步表現極佳(領先)
  • 人物口型與語音一致性高
  • 長影片穩定性提升

⚖️ 相對限制

  • 某些細節畫質仍有進步空間
  • 複雜場景(多人物)仍需優化
  • 訓練與硬體需求較高

👉 結論不是「全面碾壓」,而是:

在「影音同步」這個核心維度上,已經領先一個世代。


🧩 對開發者的實際影響(重點)

如果你是開發者或創業者,這代表什麼?

💡 你現在可以做:

  • AI 影片生成 SaaS(類似 Runway / Pika)
  • AI 虛擬人(帶語音與表情同步)
  • 自動短影音生成(TikTok / 房仲 / 行銷)
  • AI 教學影片生成

👉 Happy Horse 可以直接變成:

Agent → 呼叫影音生成 API → 自動產影片

甚至可以做到:

  • 「用一句話生成完整短影音廣告」
  • 「AI 自動生成房仲介紹影片」

🏗️ 未來趨勢:影音生成將取代文字生成?

目前 AI 發展路線:

  1. 文字生成(GPT)
  2. 圖像生成(Stable Diffusion)
  3. 影音生成(下一戰場)

而 Happy Horse 代表:

🔥「影音生成正式進入可商用時代」

未來很可能出現:

  • AI 直接生成 YouTube 影片
  • 無人製作的短影音工廠
  • AI 自動做內容變現

📦 官方資源

從助手到同事:Multica 如何讓 AI 成為真正的團隊成員

從助手到同事:Multica 如何讓 AI 成為真正的團隊成員

在過去,AI 只是工具
現在,AI 正在變成你的「員工」

而未來,你的團隊中——
真正工作的,可能不再是人類

🧠 什麼是 Multica?

從助手到同事:Multica 如何讓 AI 成為真正的團隊成員

Multica 是一個開源的 Managed Agents(智能體管理)平台,核心概念非常直接:

把 AI 編碼 Agent,變成真正的「隊友」

不像傳統 AI 工具需要你手動下 prompt、盯著結果,
Multica 讓 AI:

  • 自己接任務
  • 自己執行工作
  • 自己回報進度
  • 自己累積能力

👉 就像你真的聘請了一個工程師。

根據官方說明,它的目標是打造「人類 + AI 的混合團隊」基礎設施。


💥 核心理念:AI 不再是工具,而是「員工」

傳統 AI:

  • 你操作它
  • 你監督它
  • 它只是工具

Multica 的 AI:

  • 你分配任務給它
  • 它自己完成工作
  • 它是團隊成員

👉 這是從「工具」到「組織角色」的巨大轉變。


⚙️ Multica 的核心功能

1️⃣ Agent 即隊友

你可以像在 Jira 或 Linear 一樣:

  • 指派任務給 AI
  • AI 會自動認領
  • 在看板上更新進度
  • 主動回報問題

👉 AI 成為專案管理的一等公民


2️⃣ 全自動任務執行

AI 會:

  • 排隊 → 接任務 → 執行 → 完成 / 失敗
  • 全程自動運作
  • 即時回報進度(WebSocket)

👉 不需要再「盯著 AI 跑」


3️⃣ 技能累積(最關鍵)

每一次任務:

➡️ 都會變成「可重用技能」

例如:

  • 部署流程
  • DB migration
  • Code review

👉 團隊能力會「越用越強」


4️⃣ 多 Agent 協作

你可以同時:

  • 跑 10 個 AI 任務
  • 多個 Agent 協同工作
  • 平行處理專案

👉 等於一個 AI 工程團隊


5️⃣ 統一運行與算力管理

  • 本地 + 雲端 runtime
  • 自動偵測 CLI 工具
  • 統一控制台管理

👉 不用自己拼基礎設施


🧩 為什麼這件事重要?

現在 AI 最大的問題是:

  • 每個人用自己的 Agent
  • 知識無法共享
  • 工作流程碎片化

Multica 解決的是:

👉 AI 協作的「組織問題」

它讓:

  • AI 有記憶
  • AI 有角色
  • AI 有協作能力

👉 這就是「AI 組織化」的開始


🏢 這其實是「AI HR 系統」

如果用一句話形容:

Multica = AI 員工管理系統

它提供:

  • 任務分配(像 HR)
  • 進度追蹤(像 PM)
  • 能力累積(像培訓系統)

👉 AI 不只是會做事,還會「成長」


🔮 未來趨勢:公司將變成「人類 + AI 混合組織」

你可以想像未來公司長這樣:

類型角色
人類決策 / 創意 / 策略
AI Agent開發 / 測試 / 自動化 / 文書

甚至:

  • 一個人帶 10 個 AI 工程師
  • 一個團隊管理 100 個 Agent

👉 生產力直接提升 10 倍(甚至更多)


⚔️ Multica vs 傳統 AI 工具

比較傳統 AIMultica
使用方式Prompt任務分配
工作模式單次互動長時間運行
協作多 Agent
記憶技能累積
管理人盯自動化

👉 本質差異:
工具 → 組織系統


🧠 結論:你該開始思考的事

這不是未來,而是現在正在發生的事。