Select Page

在 AI 模型快速演進的時代,由 Google 推出的 Gemma 系列模型 一直備受關注,但對許多進階開發者來說,官方版本的限制(安全策略、回應過濾)往往成為發揮模型潛力的瓶頸,有了越獄版本,模型就再也不會回答你說「這個問題我不能回答了」。

這篇文章將帶你深入了解——
👉 越獄版本 Gemma 4(Gemma-4-31B-JANG_4M-CRACK)是什麼?
👉 它如何突破限制?是否值得使用?
👉 在本地 AI 架構(如 Ollama)中的實戰價值

🧠 什麼是 Gemma 4 越獄版?

所謂「越獄版」或「Crack 版」,指的是:

👉 移除或弱化模型原本的安全限制(alignment / guardrails)

這個版本來自 Hugging Face 上的開源模型:
👉 Hugging Face 社群釋出的
Gemma-4-31B-JANG_4M-CRACK

並可透過:
👉 Ollama 直接部署本地推論


⚙️ 越獄版 vs 官方版差異

項目官方 Gemma 4越獄版 Gemma 4
安全限制高(嚴格過濾)低(大幅放寬)
回答自由度非常高
敏感內容處理拒答或模糊直接回答
適合用途商業應用研究 / 測試 / 私有 AI
風險

💣 為什麼有人需要「越獄模型」?

對你這種在做 AI Agent / 本地 LLM 架構的人來說,關鍵原因只有一個:

👉「控制權」

1️⃣ 做 AI Agent(LangChain / AutoGen)

  • 官方模型:常被拒答
  • 越獄模型:可完整執行任務

👉 尤其是:

  • 自動寫程式
  • 資料抓取
  • 系統操作

🧪 越獄版的核心改動(技術面)

這類模型通常做了以下處理:

🔹 1. 去除 RLHF 對齊限制

  • 移除「拒答機制」
  • 降低安全分類器權重

🔹 2. 訓練資料調整(JANG_4M)

  • 加入大量 unrestricted instruction data
  • 強化「服從 prompt」能力

🔹 3. Prompt Injection 抗性降低

👉 反而變成「完全服從」


🚀 在 Ollama 中部署

你可以直接用:

⚠️ 建議設定(for 128G)

export OLLAMA_NUM_PARALLEL=4
export OLLAMA_MAX_LOADED_MODELS=3
export OLLAMA_KEEP_ALIVE=-1
export OLLAMA_FLASH_ATTENTION=1

Hermes Agent 完整實測:自我進化 AI Agent 架構,全面取代 OpenClaw! – 雨