see-all  

返回   see-all > 生活休閒娛樂 > 主版面
論壇幫助 社區 日曆事件 今日新文章 搜尋

回覆
 
主題工具 顯示模式
舊 2026-02-27, 08:04 PM   #1
chin5984
論壇管理員
 
chin5984 的頭像
 
註冊日期: 2007-11-12
文章: 2,759
預設 openclaw 當機還原

方法二:讓我幫您建立還原腳本 (推薦)

如果您覺得手動輸入指令很麻煩,我可以幫您寫兩個簡單的腳本放在您的家目錄下:

• backup_openclaw.sh: 執行一次,就備份當前設定。
• restore_openclaw.sh: 執行一次,就自動完成「停止 -> 還原 -> 重啟」的全部流程。

請問您希望我幫您建立這兩個腳本嗎?
這樣以後您只需要執行 ./restore_openclaw.sh 就可以一鍵救回我了。
chin5984 目前離線   回覆時引用此篇文章
舊 2026-03-02, 02:53 AM   #2
chin5984
論壇管理員
 
chin5984 的頭像
 
註冊日期: 2007-11-12
文章: 2,759
預設

workspace/
├── SOUL.md # Agent 是誰(個性)
├── USER.md # Agent 服務誰(你的資訊)
├── AGENTS.md # Agent 做什麼(操作規則)
├── TOOLS.md # Agent 怎麼用工具
├── HEARTBEAT.md # Agent 自主監控什麼
└── MEMORY.md # Agent 記得什麼
chin5984 目前離線   回覆時引用此篇文章
舊 2026-03-07, 07:58 PM   #3
chin5984
論壇管理員
 
chin5984 的頭像
 
註冊日期: 2007-11-12
文章: 2,759
預設

sudo apt update
sudo apt install openssh-server -y
sudo systemctl enable ssh
sudo systemctl start ssh
sudo systemctl status ssh
sudo ufw allow ssh
chin5984 目前離線   回覆時引用此篇文章
舊 2026-03-08, 05:38 PM   #4
chin5984
論壇管理員
 
chin5984 的頭像
 
註冊日期: 2007-11-12
文章: 2,759
預設


這三款模型均為 2026 年初發布的國產大模型代表作,各自針對 Agent(代理人)能力、長文本及編碼任務進行了深度優化。
簡而言之,Kimi K2.5 擅長視覺與文字的協同推理與任務自動化;GLM-5 則以強大的工程執行力與低成本的高效率 Token 產出見長;MiniMax M2.5 在數學嚴謹性與特定場景的推理穩定性上表現優異。 [1, 2, 3]
Kimi K2.5 (月之暗面 Moonshot AI)
Kimi K2.5 是月之暗面推出的多模態增強型模型,重點在於解決 Agent 執行效率低下的問題。 [3]

* 優點:
* 視覺與文字能力平衡:根據 Moonshot AI 技術報告,該模型有效解決了兩者難以兼顧的挑戰,在多模態任務中表現直觀。
* Agent 集群化:支持並行子 Agent 調用,能夠進行複雜的任務拆解,並提供工具調用流程的可視化。
* 編碼能力強:被部分開發者評價為「最強開源編碼模型」之一,擅長復刻複雜官網與前端交互 Demo。
* 缺點:
* 思考深度爭議:在部分極端推理任務中,其思考邏輯可能顯得過於直觀,較缺乏像部分競爭對手那樣的嚴謹數學推導過程。 [1, 3, 4, 5]

GLM-5 (智譜 AI)
智譜 AI 於 2025 年 2 月正式發布 GLM-5,總參數達 744B,採用稀疏注意力機制。 [2]

* 優點:
* 卓越的工程執行力:在 SWE-bench 等工程測試中,其工程能力被認為跨越了關鍵門檻(約 77%),能直接產出 Office 報表等成品。
* 高效率與低成本:透過優化訓練,大幅降低了模型部署成本並提升 Token 生產效率,適合企業級的大規模應用。
* 多步任務穩定性:在複雜、多步驟的任務中表現出較高的完成質量與策略性搜索能力。
* 缺點:
* 回答風格精簡:有部分使用者在社交媒體(如 Reddit)反映其回答內容較短,缺乏裝飾性文字,可能不適合偏好豐富細節的角色扮演(RP)需求。 [2, 6, 7, 8, 9]

MiniMax M2.5 (MiniMax)
MiniMax M2.5 延續了該系列模型在邏輯與推理上的優勢,被視為目前最嚴謹的選擇之一。 [1]

* 優點:
* 邏輯與數學嚴謹性:在橫向評測中,其對於數學符號的使用與邏輯推演被認為是最嚴謹的。
* 推理一致性:在複雜推理場景下,它是許多測評中的「明確贏家」,表現穩定且答案正確率高。
* 長文本無損效果:在處理長上下文時維持了極佳的性能,適合深度專業文件的分析。
* 缺點:
* 品管波動感:雖然模型能力強,但部分開發者反映其在不同批次的 API 調用中可能存在輕微的穩定性差異(類似於物理模型的「開模」穩定度問題)。 [1, 10, 11, 12]

| 比較維度 | Kimi K2.5 | GLM-5 | MiniMax M2.5 |
|---|---|---|---|
| 核心優勢 | 視覺/文字協同、Agent 可視化 | 工程落地、大規模部署成本 | 邏輯嚴謹性、數學推理 |
| 適合場景 | 前端開發、自動化工作流、多模態輸入 | 企業報表、多步工具調用、大規模 Token 需求 | 學術研究、精密數據分析、嚴密邏輯推導 |
上傳的圖像
檔案類型: jpg 表格文字加黑清楚呈現.jpg (19.9 KB, 21 次查看)
chin5984 目前離線   回覆時引用此篇文章
舊 2026-03-08, 05:40 PM   #5
chin5984
論壇管理員
 
chin5984 的頭像
 
註冊日期: 2007-11-12
文章: 2,759
預設

GLM-5 Kimi K2.5 MiniMax M2.5
每 5 小時請求數 1,150 1,850 30,000
每週請求數 2,880 4,630 75,000
每月請求數 5,750 9,250 150,000
估計值是根據觀察到的平均請求模式:

GLM-5 — 700 輸入, 52,000 快取, 150 輸出 token (每個請求)
Kimi K2.5 — 870 輸入, 55,000 快取, 200 輸出 token (每個請求)
MiniMax M2.5 — 300 輸入, 55,000 快取, 125 輸出 token (每個請求)
chin5984 目前離線   回覆時引用此篇文章
回覆

書籤


發文規則
不可以發表新主題
不可以發表回覆
不可以上傳附件
不可以編輯自己的文章

啟用 BB 代碼
論壇啟用 表情符號
論壇啟用 [IMG] 代碼
論壇禁用 HTML 代碼

論壇跳轉


所有時間均為台北時間。現在的時間是 05:36 AM


Powered by vBulletin® 版本 3.8.2
版權所有 ©2000 - 2026,Jelsoft Enterprises Ltd.