by Rain Chu | 5 月 23, 2024 | AI , PPT
美圖最近推出新產品,一句話,10秒鐘,生成PPT ,並且還可以直接在網站上修改,要快速製作一個PPT專業且吸引人的PPT變得越來越重要。但卻常常面臨創意枯竭、內容組織困難以及設計不當的問題。幸運的是,美團最新開發的 AI PPT 工具可以解決這些難題。只需一句話,AI 就能根據您的需求自動生成符合專業水準的 PPT。
同時解決你的思路、文章、設計上的難題
這款 AI PPT 工具不僅能幫助您迅速整理思路,生成內容,還能提供精美的設計模板。無論是商業演示、學術報告,還是個人展示,AI 都能根據您的指示自動調整格式和風格,確保您的每一頁PPT都能給人留下深刻印象。
美團最新開發的 AI PPT – 什麼樣的PPT,AI都能做
美團的 AI PPT 工具具備強大的自動化能力,能夠分析您的文字輸入,理解您的需求,並快速生成符合您預期的PPT。無論是數據圖表、文字內容還是圖像排版,AI 都能靈活處理,幫助您輕鬆完成高質量的演示文稿
多種下載格式與高彈性編修
這款 AI PPT 工具支持多種下載格式,包括 PPT、PNG、PDF 等,方便您根據需求選擇最適合的文件格式。此外,您還可以在線直接編修,提供了極大的彈性和便利性。透過這款工具,製作 PPT 將變得前所未有的簡單且高效。無需再為思路混亂、文章結構以及設計風格煩惱,只需簡單幾步,AI 就能幫您搞定一切,讓您輕鬆應對各種演示需求
了解更多請訪問 美圖設計室 。
參考資料
by Rain Chu | 5 月 21, 2024 | AI , 影片製作
微軟在2023年Ignite 活動上推出了一項出人意料的產品,代表超級大廠也投入換臉的服務
VIDEO
這個新功能名為Azure AI語音文本轉語音虛擬形象,可以讓用戶通過上傳希望虛擬形象相似的人的圖像並編寫劇本來生成虛擬形象的說話視頻。
微軟在博客文章中寫道:“通過文本轉語音虛擬形象,用戶可以更有效地創建視頻……用於製作培訓視頻、產品介紹、客戶推薦等,只需輸入文本。就可以使用虛擬形象來建立會話代理、虛擬助理、聊天機器人等。
Deepfakes Web
https://deepfakesweb.com
Azure 上創建你的服務
你可以在 Azure 中,輸入 deepfake ,就可以找到這項服務
參考資料
by Rain Chu | 5 月 21, 2024 | AI , Chat
在法律領域中,AI 的應用日益增加,而「ChatLaw 法律大模型」正是這一趨勢的最新產物,這個由尖端技術驅動的模型,同時面相專業人士和一般人,提供前所未有的支持,從基本的法律查詢到複雜的案件分析,ChatLaw 都能提供高效且精確的協助,一般人只需要用白話文就可以請 Chatlaw 幫你判斷案件。
核心技術
ChatLaw 的核心在於其先進的演算法。這使得它能夠精確理解和分析法律文本,從而提供具有操作性的建議。無論是判例研究、法律意見書撰寫,還是復雜的法律論證,ChatLaw 都能夠提供高效的解決方案。
ChatLaw-13B,此版本為學術demo版,基於姜子牙Ziya-LLaMA-13B-v1訓練而來,中文各項表現很好,但是邏輯複雜的法律問答效果不佳,需要用更大參數的模型來解決。
ChatLaw-33B,此版本為學術demo版,基於Anima-33B訓練而來,邏輯推理能力大幅提升,但是因為Anima的中文語料過少,導致問答時常會出現英文數據。
ChatLaw-Text2Vec,使用93萬條判決案例做成的數據集基於BERT訓練了一個相似度匹配模型,可將用戶提問信息和對應的法條相匹配。
功能應用
律師和法學研究者使用 ChatLaw 可以迅速獲得所需的法律信息,包括最新的法規變動和相關的判決案例。此外,ChatLaw 的使用者界面極其友好,即使是非專業人士也能輕鬆上手,進行基本的法律查詢。
例如:你可以問”一名女大學生在地鐵站被偷拍”,他就可以回應你判例以及相關條文給你參考,不過現在都是大陸那邊的法律條文。
支援 Python 庫
https://github.com/PKU-YuanGroup/ChatLaw
對法律實踐的影響
ChatLaw 的出現讓法律服務更加民主化,讓普通公眾也能輕鬆接觸到專業的法律建議。這不僅提升了法律服務的普及率,也幫助減少了因法律知識欠缺而產生的社會問題。
參考資料
挤爆服务器,北大法律大模型ChatLaw火了:直接告诉你张三怎么判
姜子牙模型
Anima 模型
by Rain Chu | 5 月 15, 2024 | AI
打算用一句會形容每一個Google IO所發表的AI新功能
VIDEO
2024-05-15- Google IO 10min 彙整
Gemini in workspace
用 google ai 整合並且搜尋你所有在google上的私人資訊,包含用文字搜尋照片(找出女兒游泳的照片),email的彙整,google meet的會議紀錄彙整,Ask Photos with Gemini,Ask with Video
Gemini 1.5 Pro token 1M
相較於其他產品,Gemini 1.5 Pro 的 token 數量可以來到 2M ,大約是1500頁論文,1小時的影片
Gemini 1.5 Flash
輕量型 Gemini ,用於端,有效率
Project Astra
跟昨天的 OpenAI 一樣,可以利用手機的攝像頭即時理解生活的大小事情,包含複雜的程式碼或是只是幫你找到眼鏡
Project Veo
跟 OpenAI SORA 一樣,是影片的生成引擎,可以生成 1080p 的影片 46 秒
VIDEO
TPU Trillium
比起上一代,要快4.7倍
Google AI Search (Gemini Era)
Gemini 客製了一個模型是給搜尋引擎使用,可以產初即時的資訊,有評分過後並且可以信任的資訊,也支援影片搜尋
Gemini Gems
跟 OpenAI 的 GPTs 一樣,可以用自然語言指揮你的AI,但不同的是有支援到 1M Tokens
Youtube AI
可以跟影片對話,提問
PailGemma
Gemma 2 才會支援,27B 參數,針對視覺處理
LearnLM
專作教育市場的 AI 大語言模型,會出題會改作業的時代要來了
Imagen 3
Google 最新的文生圖模型
Music AI Sandbox
提供給專業製作人們使用的 AI 生成音樂工具
VIDEO
AI Teammate (Chip)
協助你協同作業的萬能助理,他能在你開會的時候,幫你調查各種資料,以及解答問題
Circle to search
有了教學平台,當然也會有解題平台,學生可以用 Circle 取圈選題目,查詢答案,並且會提供解題步驟
AI旅行社
幫你規劃旅程
AI 防詐騙
幫你聽電話裡面的人是否有想要詐騙你
結論
整場會議上 AI 被提及 121 次,可見有多重要
by Rain Chu | 5 月 14, 2024 | AI , Chat
這一次OpenAI的2024年春季更新,帶來了虛擬人的真正可行性,因為可以真正即時的交互對談,過程中也真的像極了真人,有語氣,不會笨笨的把句子唸到完畢,完全能理解使用者的指令,並且做出對應的動作,重點還 free
更新說明
Hello GPT-4o | OpenAI
影片如下
Introducing GPT-4o (youtube.com)
重點摘要
realtime
反應速度快、真的超快,再也沒有延遲,可以看看DEMO
VIDEO
有了真的的人類情緒
懂說話者的語氣,你可以緊張、可以不舒服,他都可以感受到
chatgpt 可以用各種語氣回應,甚至連叫他用歌劇的方法也可以
Live research
可以用錄影的方法,了解上下文解題,數學題代公式的也難不倒
也可以用攝像頭看得出來使用者的情緒
Free to everyone
Desktop and Mobile Phones app
https://openai.com/chatgpt/download
Web UI Update
by Rain Chu | 5 月 13, 2024 | AI , Chat , Linux , NodeJS , React , Ubuntu , ViteJS , 程式
AnythingLLM是一款全功能的應用程序,支持使用商業或開源的大語言模型(LLM)和向量數據庫建構私有ChatGPT。用戶可以在本地或遠端運行該系統,並利用已有文檔進行智能對話。此應用將文檔分類至稱為工作區的容器中,確保不同工作區間的資料隔離,保持清晰的上下文管理。
特點:多用戶支持、權限管理、內置智能代理(可執行網頁瀏覽、代碼運行等功能)、可嵌入到網站的聊天窗口、多種文檔格式支持、向量數據庫的簡易管理界面、聊天和查詢兩種對話模式、引用文檔內容的展示,以及完善的API支持客戶端定制整合。此外,該系統支持100%雲端部署,Docker部署,且在處理超大文檔時效率高,成本低。
VIDEO
注意,以下要用 linux 平台安裝,windows 用戶可以用 WSL,推薦用 Ubuntu OS
在自己的 home 目錄下,到 GitHub 中下載原始碼
git clone https://github.com/Mintplex-Labs/anything-llm.git
利用 yarn 作設定資源
cd anything-llm
yarn setup
把環境變數建立起來,後端主機是 NodeJS express
cp server/.env.example server/.env
nano server/.env
密文需要最少12位的字元,檔案的存放路徑也記得改成自己的
JWT_SECRET="my-random-string-for-seeding"
STORAGE_DIR="/your/absolute/path/to/server/storage"
前端的環境變數,先把/api打開即可
# VITE_API_BASE='http://localhost:3001/api' # Use this URL when developing locally
# VITE_API_BASE="https://$CODESPACE_NAME-3001.$GITHUB_CODESPACES_PORT_FORWARDING_DOMAIN/api" # for Github Codespaces
VITE_API_BASE='/api' # Use this URL deploying on non-localhost address OR in docker.
如果你在設定的時候,遇到更新請求,可以跟我著我下面的方法作
把 prisma 更新好
yarn add --dev prisma@latest
yarn add @prisma/client@latest
前端的程式碼
先編譯前端程式碼,前端是由 viteJS + React
cd frontend && yarn build
將編譯好的資料放到 server 的目錄下
cp -R frontend/dist/* server/public/
選項,如果需要用到本地端的 LLM 模型,就把 llama-cpp 下載下來
cd server && npx --no node-llama-cpp download
把資料庫建立好
cd server && npx prisma generate --schema=./prisma/schema.prisma
cd server && npx prisma migrate deploy --schema=./prisma/schema.prisma
Server端是用來處理 api 以及進行向量資料庫的管理以及跟 LLM 交互
Collector 是一個 NodeJS express server,用來作UI處理和解析文檔
cd server && NODE_ENV=production node index.js &
cd collector && NODE_ENV=production node index.js &
更新的指令碼
現在 anything llm 更新速度超快,把這一段指令碼複製起來,方便未來作更新的動作
#!/bin/bash
cd $HOME/anything-llm &&\
git checkout . &&\
git pull origin master &&\
echo "HEAD pulled to commit $(git log -1 --pretty=format:"%h" | tail -n 1)"
echo "Freezing current ENVs"
curl -I "http://localhost:3001/api/env-dump" | head -n 1|cut -d$' ' -f2
echo "Rebuilding Frontend"
cd $HOME/anything-llm/frontend && yarn && yarn build && cd $HOME/anything-llm
echo "Copying to Sever Public"
rm -rf server/public
cp -r frontend/dist server/public
echo "Killing node processes"
pkill node
echo "Installing collector dependencies"
cd $HOME/anything-llm/collector && yarn
echo "Installing server dependencies & running migrations"
cd $HOME/anything-llm/server && yarn
cd $HOME/anything-llm/server && npx prisma migrate deploy --schema=./prisma/schema.prisma
cd $HOME/anything-llm/server && npx prisma generate
echo "Booting up services."
truncate -s 0 /logs/server.log # Or any other log file location.
truncate -s 0 /logs/collector.log
cd $HOME/anything-llm/server
(NODE_ENV=production node index.js) &> /logs/server.log &
cd $HOME/anything-llm/collector
(NODE_ENV=production node index.js) &> /logs/collector.log &
近期留言