載入中...
Reachy Me, Reachy You:把 Reachy Mini 帶進 OpenClaw 的分享與實作
這篇文章是一份「更像分享」的整合紀錄:把 Reachy Mini(透過 ClawBody)接入 OpenClaw,讓 AI 不只「能說」,還能「有表情地說」。以下會穿插一些關鍵 commit,讓你可以直接對照程式細節。
1. 起手式:Devbox 與 GitHub 連線
先把環境打穩,後面才能順利疊代。這次主要解了幾個點:
- 權限與存取:模型端無法直接存取 GitHub,需在可控機器(devbox)操作。
- SSH 金鑰:為 devbox 的 node 使用者建立 SSH key,完成 GitHub 授權與連線測試。
- Repo 管理:從 HTTPS 回到 SSH 的穩定流程,避免權限與 URL 格式問題。
這些工程細節會決定你後面能不能穩定迭代。
2. 表情與手勢:從「有」到「像」
目前已完成(含 commit 連結)
- 基本動作(look / goto_target / set_target)可用。
- 宏手勢更明顯:點頭、搖頭、揮手、彈跳加強(f416c04)。
- 語音同步與工具化:手勢更貼近語音、加入
body_sway(111668b)。 - 工具回報 logging:方便 debug(863d8ae)。
- 關鍵詞 cue 觸發(525f7d1)、transcript delta 即時觸發(4053353)。
- 自然 turn-level 手勢:回應開始時依情境補「微動作」(1978064)。
- 探索 Reachy Daemon 81 表情:動態列出 recorded emotions/dances(90c7da3)。
- 能力註冊/載入:動態 registry 與本地 capabilities 呼叫(f25c102、8b9e538)。
- 資料集 layout 對應:支援
reachy_mini_dances_library(a53d93a)。 - emotion() 工具更新:優先播放 daemon recorded expressions(bda899a)。
核心改善重點
- 手勢同步:cue-word 與 delta 觸發已能用,但仍需調整 GESTURE_BIAS_S 把動作貼近語音節點。
- body_sway:工具已實作,還需要更完整的實機測試與 API 響應驗證。
- 舞蹈資料庫:
reachy_mini_dances_library已能辨識 layout,但需確保 Python API (collection.dance) 完整對接。
3. 現況與下一步
✅ 已經做得不錯
- Reachy Mini 具備清楚的「情緒與表達能力」
- 手勢不再只是語音旁白,而是真正動起來
- daemon 端擴充的 81 表情開始能被系統性管理
🔧 下一步要做
- 更精準的語音同步:微調 GESTURE_BIAS_S,把「動作發生點」貼近語意重點
- 完整測試 body_sway:確認每次 API 呼叫都能穩定動作
- 舞蹈能力擴充:確保所有
dances_library都能被正確發現與執行 - 強化錯誤回復:daemon API 或 dataset 缺失時,要能自動 fallback
結語
整體來說,Reachy Mini 的「表情化」整合已經踏進可用階段。接下來的關鍵就是把同步做得更準、把能力做得更穩。AI 走向實體世界的那一刻,細節就是體驗本身。