Select Page
用 Telegram 遠端操控 Claude Code:完整踩坑教學

用 Telegram 遠端操控 Claude Code:完整踩坑教學

從 MCP failed 到 connected,一步步解決 Windows 上的 Channels 整合問題

April 2026·Claude Code v2.1.109·適用平台:Windows

目錄

  1. 前言:Claude Code Channels 是什麼
  2. 前置需求 claude.ai 登入、Bot 設定
  3. 安裝與啟動 plugin install、–channels 旗標
  4. 常見錯誤與解法 Auth 衝突、MCP failed、Bun
  5. 確認成功運作
  6. 已知限制與現況

前言:Claude Code Channels 是什麼

Claude Code Channels 是 Anthropic 在 2026 年 3 月推出的實驗性功能,讓你可以透過 Telegram(或 Discord)把訊息推送進正在執行的 Claude Code session。

實際的應用場景:你在外出時用手機傳一句「跑一下測試,告訴我有沒有失敗」,你的電腦上的 Claude Code 就會收到、執行,然後把結果回傳到 Telegram。

注意Channels 目前仍是 Research Preview(實驗性功能),Windows 上有已知的穩定性問題。本文記錄的是截至 v2.1.109 的實際狀況。

前置需求

  • Claude Code 已安裝且版本 ≥ v2.1.109
    用 npm update -g @anthropic-ai/claude-code 更新
  • 使用 claude.ai 帳號登入(Pro 或 Max)
    Channels 不支援純 API Key 認證,必須用 claude.ai 帳號
  • 在 Telegram 建立 Bot(透過 @BotFather)
    取得形如 123456789:AAHfiqks... 的 Bot Token
  • 安裝 Bun 執行環境(Windows 必須)
    Telegram plugin 使用 Bun 執行,這是最常被忽略的步驟

安裝 Bun(Windows 必做)

這是 Windows 上最容易卡關的地方。Telegram plugin 的 MCP server 以 Bun 執行,沒有 Bun 就會直接顯示 MCP · ✗ failed

在 PowerShell 中執行:

powershell -c "irm bun.sh/install.ps1 | iex"

安裝完後關閉並重新開啟 PowerShell(讓 PATH 生效),確認安裝成功:

bun --version
# 應該輸出版本號,例如:1.x.x

解決 Auth 衝突

若啟動時看到這個警告:

⚠ Auth conflict: Both a token (claude.ai) and an API key
  (/login managed key) are set.

這代表同時存在兩種認證方式。Channels 功能只支援 claude.ai 登入,需要清除衝突:

claude /logout

登出後重新用 claude.ai 帳號登入,確認登入後只有一種認證方式存在。

安裝與設定 Telegram Plugin

啟動 Claude Code,在對話中執行以下指令:

/plugin install telegram@claude-plugins-official

安裝完成後設定 Bot Token:

/telegram:configure <你的 Bot Token>

設定存取權限(建議啟動後先用 pairing 模式,再切換成 allowlist):

/telegram:access

啟動 Channels

claude --channels plugin:telegram@claude-plugins-official

啟動後會看到:

Listening for channel messages from: plugin:telegram@claude-plugins-official
Experimental · inbound messages will be pushed into this session

驗證是否成功

在 Claude Code 裡執行 /plugin list,確認顯示:

telegram Plugin · claude-plugins-official · ✔ enabled
└ telegram MCP · ✔ connected       ← 這行是關鍵!

成功標誌看到 telegram MCP · ✔ connected 就代表設定完成,可以去 Telegram 傳訊息測試了。

常見錯誤排查

telegram MCP · ✗ failed

原因:Bun 未安裝或不在 PATH 中。
解法:安裝 Bun(irm bun.sh/install.ps1 | iex),重新開啟 PowerShell 後再試。

Auth conflict 警告

原因:同時存在 claude.ai token 和 API key。
解法:執行 claude /logout 清除衝突,選擇一種登入方式。Channels 需要 claude.ai 登入。

傳訊息沒有回應(MCP 顯示 connected)

原因:你的 Telegram 使用者 ID 不在 allowlist,或是 pairing 尚未完成。
解法:執行 /telegram:access 確認存取設定,或重新執行 pairing 流程。

已知限制(截至 v2.1.109)

這個功能仍在快速迭代,以下是目前的已知狀況:

  • Channels 只在 session 開啟時運作,關掉 Claude Code 就收不到訊息
  • 如需長時間監聽,建議搭配 tmux 或讓終端機持續開著
  • Windows 上的穩定性比 macOS/Linux 差,偶爾需要重啟
  • 目前是 Research Preview,API 隨時可能變更

參考資訊

https://code.claude.com/docs/zh-TW/channels

第三方 telegram

Manus 沒邀請碼怎麼辦?用 OpenManus 本地免費部署 Ollama 模型,三分鐘搞定

Manus 沒邀請碼怎麼辦?用 OpenManus 本地免費部署 Ollama 模型,三分鐘搞定

🚀 1. 本地端完美對接 Ollama AI 模型

OpenManus 最大的亮點在於能與目前最流行的 Ollama 本地端 AI 大模型平台進行完美整合。

  • Ollama 是一個輕量、高效的 AI 模型管理工具,讓你可以輕鬆在自己的電腦上運行各種強大的大模型(如 Llama3、Qwen、DeepSeek 系列模型等)。
  • OpenManus 透過 Ollama API 與這些模型無縫互動,你能輕易在本地體驗到媲美線上服務的智慧功能,並保護個人隱私。

💻 2. 跨平台支援 Windows、Mac、Linux

無論你使用哪個平台,OpenManus 都有完整的跨平台支援,讓你輕鬆安裝與運行:

  • Windows 用戶可透過 Conda 或 Docker 快速部署。
  • macOS 用戶可以使用 Homebrew 或直接透過終端機運行。
  • Linux 用戶則能自由選擇 Docker 或直接透過原生方式安裝。

🎯 3. 無需邀請碼,即裝即用!

不同於原始封閉的 Manus 需要透過邀請碼才能使用,OpenManus 堅持完全開源與自由的精神。
無須註冊、無須邀請碼,直接部署到自己的電腦,立即開始使用,毫無限制,這就是開源社群給予大家最棒的禮物。


如何快速部署 OpenManus?(以 Windows 為例)

只需幾個簡單步驟,即可享受本地端 AI 大模型:

建立 Conda 環境:

conda create -n openmanus python=3.12
conda activate openmanus

Git OpenManus 專案:

git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus

安裝所需依賴:

pip install -r requirements.txt

修改設定檔(config.toml):

cp config/config.example.toml config/config.toml

config.toml的內容如下,可以參考後修改

# Global LLM configuration
#[llm]
# model = "claude-3-7-sonnet-20250219"        # The LLM model to use
# base_url = "https://api.anthropic.com/v1/"  # API endpoint URL
# api_key = "YOUR_API_KEY"                    # Your API key
# max_tokens = 8192                           # Maximum number of tokens in the response
# temperature = 0.0                           # Controls randomness

# [llm] #AZURE OPENAI:
# api_type= 'azure'
# model = "YOUR_MODEL_NAME" #"gpt-4o-mini"
# base_url = "{YOUR_AZURE_ENDPOINT.rstrip('/')}/openai/deployments/{AZURE_DEPOLYMENT_ID}"
# api_key = "AZURE API KEY"
# max_tokens = 8096
# temperature = 0.0
# api_version="AZURE API VERSION" #"2024-08-01-preview"

[llm] #OLLAMA:
api_type = 'ollama'
model = "llama3.2"
base_url = "http://localhost:11434/v1"
api_key = "ollama"
max_tokens = 4096
temperature = 0.0

# Optional configuration for specific LLM models
#[llm.vision]
#model = "claude-3-7-sonnet-20250219"        # The vision model to use
#base_url = "https://api.anthropic.com/v1/"  # API endpoint URL for vision model
#api_key = "YOUR_API_KEY"                    # Your API key for vision model
#max_tokens = 8192                           # Maximum number of tokens in the response
#temperature = 0.0                           # Controls randomness for vision model

[llm.vision] #OLLAMA VISION:
api_type = 'ollama'
model = "llama3.2-vision"
base_url = "http://localhost:11434/v1"
api_key = "ollama"
max_tokens = 4096
temperature = 0.0

# Optional configuration for specific browser configuration
# [browser]
# Whether to run browser in headless mode (default: false)
#headless = false
# Disable browser security features (default: true)
#disable_security = true
# Extra arguments to pass to the browser
#extra_chromium_args = []
# Path to a Chrome instance to use to connect to your normal browser
# e.g. '/Applications/Google Chrome.app/Contents/MacOS/Google Chrome'
#chrome_instance_path = ""
# Connect to a browser instance via WebSocket
#wss_url = ""
# Connect to a browser instance via CDP
#cdp_url = ""

# Optional configuration, Proxy settings for the browser
# [browser.proxy]
# server = "http://proxy-server:port"
# username = "proxy-username"
# password = "proxy-password"

# Optional configuration, Search settings.
# [search]
# Search engine for agent to use. Default is "Google", can be set to "Baidu" or "DuckDuckGo".
# engine = "Google"

啟動 OpenManus 服務:

python main.py

之後打開瀏覽器就可以了

測試 OpenManus :

可以輸入請他使用瀏覽器看某一個網站,並且執行SEO策略

打開 https://rain.tips/ 並且給予SEO的建議,並且把建議存放在桌面上.txt的文件

補充資料

Github

Wubuntu:結合 Windows 外觀與 Ubuntu 穩定性的全新OS

Wubuntu:結合 Windows 外觀與 Ubuntu 穩定性的全新OS

Wubuntu(全名為 Windows Ubuntu)是一款基於 Ubuntu 的作業系統,在提供與 Microsoft Windows 相似的主題和工具,但不需要高規格的系統要求,並且可以在 linux 環境下使用 exe 檔案和 Android 應用,也可以支援 Nvidia 顯卡和繁體中文。

Wubuntu

主要特色:

  • Windows 應用程式相容性:透過優化的 Wine,讓Wubuntu 能夠順暢地執行多種 Windows 平台的應用程式。
  • Android 和 PlayStore 相容性:內建的 Android 子系統允許直接從 PlayStore 安裝遊戲和應用程式。
  • 適用於舊硬體設備:Wubuntu 不需要特殊的硬體要求,只需裝置支援 64 位元即可。

最新版本:

Wubuntu 的最新版本基於 Kubuntu 24.04.1 LTS,代號為「Winux」或「Windows Theme Over Linux」。

硬體需求:

  • 64 位元雙核心 CPU
  • 2 GB 記憶體(建議 4 GB)
  • 20 GB 硬碟空間(建議使用 SSD)

PowerTools:

這是一組工具,提供類似於 Windows 系統的控制面板和設定,以及增強的 Windows 和 Android 子系統支援,還可以上網用 OneDrive 和 Google Drive。

下載與支援:

使用者可以透過官方網站下載 Wubuntu 的最新版本,安裝檔案是 ISO 檔案,是可以用 VM 安裝或是用 USB 隨身碟安裝。

採用 Hyper-V

開機的安全性選項要選擇 Microsoft UEFI

注意事項:

Wubuntu 可能涉及一些版權和商標問題,以及使用者資料處理方面的爭議。

Windows設置LLM環境變數的幾種方法

LLMs Server 還是需要放在 Linux 環境中比較好,但開發階段常常用 Windows 在開發,多數人使用的 Shell export 就沒法使用

export OPENAI_API_KEY="sk-...".

Windows中設置LLM環境變數的幾種方法解決方法

使用命令列 CMD

set OPENAI_API_KEY=sk-...

使用 PowerShell

[Environment]::SetEnvironmentVariable("OPENAI_API_KEY", "sk-...", "User")

放在 Python 程式中

import os

# 設置環境變數
os.environ['OPENAI_API_KEY'] = 'sk-你的API密鑰'

# 之後就可以使用這個環境變數了
# 例如,當使用OpenAI的API時,就可以從環境變數中獲取API密鑰
api_key = os.environ['OPENAI_API_KEY']
print("API Key:", api_key)

檢查是否有正確設置

echo %OPENAI_API_KEY%

相關資料

Deep Live Cam-簡單易用,被遮擋也沒關係的即時換臉

Deep Live Cam-簡單易用,被遮擋也沒關係的即時換臉

用有多張臉,即時更換人臉的開源軟體,而且有綠色直接使用版本,已經幫忙把環境都打包好了,給懶人使用,支援windows、MAC、GPU

必要條件

Git 原始碼

https://github.com/hacksider/Deep-Live-Cam.git

下載模型

  1. GFPGANv1.4
  2. inswapper_128.onnx (Note: Use this replacement version if an issue occurs on your computer)

並且將這兩個檔案放在 models 的目錄下

安裝相關依賴

pip install -r requirements.txt

參考資料

https://github.com/hacksider/Deep-Live-Cam