by Rain Chu | 2 月 23, 2025 | AI , 程式開發
OpenRouter 是一個統一的大型語言模型(LLM)API 服務平台,可以讓使用者透過單一介面訪問多種大型語言模型。
主要特點:
多模型支援: OpenRouter 集成了多種預訓練模型,如 GPT-4、Gemini、Claude、DALL-E 等,按需求選擇適合的模型。
易於集成: 提供統一的 API 介面,方便與現有系統整合,無需自行部署和維護模型。
成本效益: 透過 API 調用,使用者無需購買昂貴的 GPU 伺服器,降低了硬體成本。
使用方法:
註冊帳號: 使用 Google 帳號即可快速註冊 OpenRouter。
選擇模型: 在平台上瀏覽並選擇適合的模型,部分模型提供免費使用。
調用 API: 使用統一的 API 介面,將選定的模型整合到您的應用中。
Cline 整合
OpenRouter 與 Cline 的整合為開發者提供了強大的 AI 編程體驗,Cline 是一款集成於 VSCode 的 AI 編程助手,支援多種大型語言模型(LLM),如 OpenAI、Anthropic、Mistral 等,透過 OpenRouter,Cline 能夠統一調用這些模型,簡化了不同模型之間的切換和管理,使用者只需在 Cline 的設定中選擇 OpenRouter 作為 API 提供者,並輸入相應的 API 金鑰,即可開始使用多種模型進行開發。這種整合不僅提升了開發效率,還降低了使用多模型的技術門檻。
DeepSeek R1
OpenRouter 現在也支援 DeepSeek R1 模型,DeepSeek R1 是一款高性能的開源 AI 推理模型,具有強大的數學、編程和自然語言推理能力。透過 OpenRouter,開發者可以在 Cline 中輕鬆調用 DeepSeek R1 模型,享受其強大的推理能力。這進一步豐富了開發者的工具選擇,讓他們能夠根據項目需求選擇最適合的模型。
by Rain Chu | 6 月 17, 2024 | AI , 影片製作
Luma AI – Dream Machine則是其中一個令人矚目的新星。這個平台具有多項吸引人的特點,尤其適合需要高品質視頻內容的創作者,我們來針對我發現的特色做分析
VIDEO
每天免費點數:
Luma AI Dream Machine提供了一個用戶友好的特點,即每天都有免費點數供用戶使用。這使得即使是預算有限的用戶也能夠探索平台的功能並製作高質量的視頻。
文字及圖片轉化為影片:
這個平台能將您的文字描述和圖片轉化為引人入勝的視頻。無論您是想將一個故事、說明或是任何視覺內容轉換成視頻,Luma AI Dream Machine都能助您一臂之力。
高效且可擴展的Transformer模型:
Luma AIDream Machine採用的是一種高效且可擴展的Transformer模型,該模型直接通過影片進行訓練。這種訓練方式使得生成的視頻不僅遵守物理原則,而且場景連貫,富有事件性,極大地提高了視頻的自然度和觀賞性。
擅長人物動畫:
這個平台在人物動畫方面表現尤為出色。它能夠細緻地捕捉人物表情和動作,使得動畫人物行為自然,表情生動,非常適合需要複雜人物互動的劇情視頻。
日系卡通動畫表現強大:
對於喜愛日系卡通風格的用戶來說,Luma AI Dream Machine提供了強大的支持。平台可以生成風格鮮明、色彩豐富的日系卡通動畫,非常適合創作動漫類型的視頻內容。
參考資料
https://lumalabs.ai/dream-machine
by Rain Chu | 5 月 13, 2024 | AI , Chat , Linux , NodeJS , React , Ubuntu , ViteJS , 程式
AnythingLLM是一款全功能的應用程序,支持使用商業或開源的大語言模型(LLM)和向量數據庫建構私有ChatGPT。用戶可以在本地或遠端運行該系統,並利用已有文檔進行智能對話。此應用將文檔分類至稱為工作區的容器中,確保不同工作區間的資料隔離,保持清晰的上下文管理。
特點:多用戶支持、權限管理、內置智能代理(可執行網頁瀏覽、代碼運行等功能)、可嵌入到網站的聊天窗口、多種文檔格式支持、向量數據庫的簡易管理界面、聊天和查詢兩種對話模式、引用文檔內容的展示,以及完善的API支持客戶端定制整合。此外,該系統支持100%雲端部署,Docker部署,且在處理超大文檔時效率高,成本低。
VIDEO
注意,以下要用 linux 平台安裝,windows 用戶可以用 WSL,推薦用 Ubuntu OS
在自己的 home 目錄下,到 GitHub 中下載原始碼
git clone https://github.com/Mintplex-Labs/anything-llm.git
利用 yarn 作設定資源
cd anything-llm
yarn setup
把環境變數建立起來,後端主機是 NodeJS express
cp server/.env.example server/.env
nano server/.env
密文需要最少12位的字元,檔案的存放路徑也記得改成自己的
JWT_SECRET="my-random-string-for-seeding"
STORAGE_DIR="/your/absolute/path/to/server/storage"
前端的環境變數,先把/api打開即可
# VITE_API_BASE='http://localhost:3001/api' # Use this URL when developing locally
# VITE_API_BASE="https://$CODESPACE_NAME-3001.$GITHUB_CODESPACES_PORT_FORWARDING_DOMAIN/api" # for Github Codespaces
VITE_API_BASE='/api' # Use this URL deploying on non-localhost address OR in docker.
如果你在設定的時候,遇到更新請求,可以跟我著我下面的方法作
把 prisma 更新好
yarn add --dev prisma@latest
yarn add @prisma/client@latest
前端的程式碼
先編譯前端程式碼,前端是由 viteJS + React
cd frontend && yarn build
將編譯好的資料放到 server 的目錄下
cp -R frontend/dist/* server/public/
選項,如果需要用到本地端的 LLM 模型,就把 llama-cpp 下載下來
cd server && npx --no node-llama-cpp download
把資料庫建立好
cd server && npx prisma generate --schema=./prisma/schema.prisma
cd server && npx prisma migrate deploy --schema=./prisma/schema.prisma
Server端是用來處理 api 以及進行向量資料庫的管理以及跟 LLM 交互
Collector 是一個 NodeJS express server,用來作UI處理和解析文檔
cd server && NODE_ENV=production node index.js &
cd collector && NODE_ENV=production node index.js &
更新的指令碼
現在 anything llm 更新速度超快,把這一段指令碼複製起來,方便未來作更新的動作
#!/bin/bash
cd $HOME/anything-llm &&\
git checkout . &&\
git pull origin master &&\
echo "HEAD pulled to commit $(git log -1 --pretty=format:"%h" | tail -n 1)"
echo "Freezing current ENVs"
curl -I "http://localhost:3001/api/env-dump" | head -n 1|cut -d$' ' -f2
echo "Rebuilding Frontend"
cd $HOME/anything-llm/frontend && yarn && yarn build && cd $HOME/anything-llm
echo "Copying to Sever Public"
rm -rf server/public
cp -r frontend/dist server/public
echo "Killing node processes"
pkill node
echo "Installing collector dependencies"
cd $HOME/anything-llm/collector && yarn
echo "Installing server dependencies & running migrations"
cd $HOME/anything-llm/server && yarn
cd $HOME/anything-llm/server && npx prisma migrate deploy --schema=./prisma/schema.prisma
cd $HOME/anything-llm/server && npx prisma generate
echo "Booting up services."
truncate -s 0 /logs/server.log # Or any other log file location.
truncate -s 0 /logs/collector.log
cd $HOME/anything-llm/server
(NODE_ENV=production node index.js) &> /logs/server.log &
cd $HOME/anything-llm/collector
(NODE_ENV=production node index.js) &> /logs/collector.log &
by Rain Chu | 1 月 26, 2024 | Elementor , wordpress
在網站開發的世界中,時間就是金錢。對於專業和業餘網頁設計師來說,尋找可以提高效率且功能豐富的工具至關重要。這就是為什麼 JetPlugins for Elementor 成為了眾多設計師的首選:它不僅能讓網站建設快速且高效,還提供了超過150個小工具(Widgets)和多種插件,以及動態模板,使得打造專業、具吸引力的網頁成為可能。
快速建立網頁
JetPlugins for Elementor 的主要賣點之一是它能顯著提高網頁建設的速度。借助於 Elementor 的拖放界面和 JetPlugins 豐富的小工具庫,即使是非技術背景的用戶也能快速搭建出專業級的網站。從基本的版面配置到複雜的功能元素,一切都變得觸手可及。
150+ 小工具
擁有超過150個小工具,JetPlugins 為用戶提供了前所未有的靈活性和創造性。這些小工具覆蓋了從基本的文本和圖像處理到進階的功能,如滑塊、表格、社交媒體整合等。這意味著用戶可以為他們的網站添加獨特和動態的內容,而無需編寫一行代碼。
多個插件和動態模板
除了豐富的小工具,JetPlugins 還提供了一系列的插件和動態模板,進一步擴展了 Elementor 的功能。這些插件包括了從表單建立器到高級圖庫顯示等等。動態模板則讓創建重複性內容變得輕而易舉,大大節省了時間和資源。
總結
總而言之,JetPlugins for Elementor 是一個強大且用戶友好的工具,適合任何希望快速且有效地建立專業網頁的人。它豐富的小工具、插件和動態模板使得設計工作變得簡單且有趣,無論你是專業設計師還是剛入門的愛好者。如果你尋求一個能讓你的網站設計工作更上一層樓的工具,那麼 JetPlugins for Elementor 絕對值得一試。
JetPlugins for Elementor
by Rain Chu | 11 月 8, 2023 | AI , 人臉辨識 , 圖型處理 , 影片製作 , 繪圖
Rope以其令人矚目的功能,站在了這場技術革新的前沿。這款AI工具不僅能夠輕鬆去除臉部遮擋,更整合了多種高清化算法,讓處理速度快如閃電。然而,在介紹如何安裝和使用Rope之前,我們必須提醒每一位用戶:這項強大的技術應當用於正當的創造和學術研究,千萬別拿去做壞事。現在,讓我們詳細了解如何在您的本地設備上安裝並運行Rope。
安裝必要軟體
在開始使用Rope之前,需要先安裝一些必要的軟體:
安裝Python
安裝FFmpeg
FFmpeg是處理影片不可或缺的組件,可以通過命令行進行安裝,或是參考我之前的ffmpeg教學 。
Nvidia顯卡安裝CUDA
為了充分發揮Rope的性能,Nvidia顯卡用戶應安裝CUDA 11.8 ,這對於AI運算至關重要。
安裝Rope
安裝了必要的軟體後,便可以開始安裝Rope:
下載Rope壓縮包
安装visual studio 2022
創建虛擬環境
使用Python建立一個新的虛擬環境,這有助於管理依賴包和版本。
python -m venv venv
啟動虛擬環境
透過命令行啟動虛擬環境,準備安裝Rope。
call venv\scripts\activate.bat
安裝依賴包
在虛擬環境中,使用pip指令安裝Rope需要的所有依賴包。
pip install -r requirements.txt
如果安裝失敗,要先執行下面的指令
pip install –no-cache-dir -r requirements.txt
pip uninstall onnxruntime onnxruntime-gpu
pip install onnxruntime-gpu==1.15.0
下載換臉模型
透過這些步驟,您可以在本地機器上成功安裝和配置Rope,並開始進行高效的臉部轉換。隨著AI技術的快速發展,Rope提供了一個既方便又強大的工具,使創意和創新更加無限。
操作指南:如何使用Rope進行批量換臉
請先確認安裝 Rope 已經成功,接著,遵循以下步驟來執行Rope的批量換臉功能:
打開命令提示字元
進入Rope的本地根目錄
激活虛擬環境
通過執行call venv\Scripts\activate.bat
指令來激活Rope的Python虛擬環境。
運行Rope主程式
使用python run.py --execution-provider cuda
指令,開始執行批量換臉處理。
自定義選項:提升處理質量與效率
Rope提供多個可選參數來滿足用戶的特定需求:
面部增強
加入face_enhancer
選項,可以對換臉後的面部進行增強處理,使其更加清晰細緻。
python run.py –execution-provider cuda face_enhancer
調整輸出視頻質量
使用--video-quality
選項並指定一個0到50的數值(數值越小,輸出質量越高)。
python run.py –execution-provider cuda –video-quality 1
指定內存使用
若需要管理程序的內存使用,可透過--max-memory
選項設定最大內存限制。
python run.py –execution-provider cuda –max-memory 16
指定執行線程
對於較老的Nvidia顯卡,可使用--execution-threads
來指定執行線程數,以達到最佳運行效能。
python run.py –execution-provider cuda –execution-threads 2
預設是4
使用方法可以看YT
Rope又一款强大的一键换脸AI!可消除脸部遮挡,多种高清化算法,飞一般的处理速度!本地安装与参数使用详解。 – YouTube
解除roop检测深度换脸 – YouTube https://www.youtube.com/watch?v=YH4hB3wmRcQ
roop新奇用法:一键直播换脸、批量换图 – YouTube
Rope 分支
https://github.com/Hillobar/Rope/
https://github.com/s0md3v/sd-webui-roop
近期留言