Reachy Mini × OpenClaw:一次更像分享的整合紀錄(從手勢到情緒)

載入中...


Reachy Me, Reachy You:把 Reachy Mini 帶進 OpenClaw 的分享與實作

這篇文章是一份「更像分享」的整合紀錄:把 Reachy Mini(透過 ClawBody)接入 OpenClaw,讓 AI 不只「能說」,還能「有表情地說」。以下會穿插一些關鍵 commit,讓你可以直接對照程式細節。

1. 起手式:Devbox 與 GitHub 連線

先把環境打穩,後面才能順利疊代。這次主要解了幾個點:

  • 權限與存取:模型端無法直接存取 GitHub,需在可控機器(devbox)操作。
  • SSH 金鑰:為 devbox 的 node 使用者建立 SSH key,完成 GitHub 授權與連線測試。
  • Repo 管理:從 HTTPS 回到 SSH 的穩定流程,避免權限與 URL 格式問題。

這些工程細節會決定你後面能不能穩定迭代。

2. 表情與手勢:從「有」到「像」

目前已完成(含 commit 連結)

  • 基本動作(look / goto_target / set_target)可用。
  • 宏手勢更明顯:點頭、搖頭、揮手、彈跳加強(f416c04)。
  • 語音同步與工具化:手勢更貼近語音、加入 body_sway111668b)。
  • 工具回報 logging:方便 debug(863d8ae)。
  • 關鍵詞 cue 觸發525f7d1)、transcript delta 即時觸發4053353)。
  • 自然 turn-level 手勢:回應開始時依情境補「微動作」(1978064)。
  • 探索 Reachy Daemon 81 表情:動態列出 recorded emotions/dances(90c7da3)。
  • 能力註冊/載入:動態 registry 與本地 capabilities 呼叫(f25c1028b9e538)。
  • 資料集 layout 對應:支援 reachy_mini_dances_librarya53d93a)。
  • emotion() 工具更新:優先播放 daemon recorded expressions(bda899a)。

核心改善重點

  • 手勢同步:cue-word 與 delta 觸發已能用,但仍需調整 GESTURE_BIAS_S 把動作貼近語音節點。
  • body_sway:工具已實作,還需要更完整的實機測試與 API 響應驗證。
  • 舞蹈資料庫reachy_mini_dances_library 已能辨識 layout,但需確保 Python API (collection.dance) 完整對接。

3. 現況與下一步

✅ 已經做得不錯

  • Reachy Mini 具備清楚的「情緒與表達能力」
  • 手勢不再只是語音旁白,而是真正動起來
  • daemon 端擴充的 81 表情開始能被系統性管理

🔧 下一步要做

  1. 更精準的語音同步:微調 GESTURE_BIAS_S,把「動作發生點」貼近語意重點
  2. 完整測試 body_sway:確認每次 API 呼叫都能穩定動作
  3. 舞蹈能力擴充:確保所有 dances_library 都能被正確發現與執行
  4. 強化錯誤回復:daemon API 或 dataset 缺失時,要能自動 fallback

結語

整體來說,Reachy Mini 的「表情化」整合已經踏進可用階段。接下來的關鍵就是把同步做得更準、把能力做得更穩。AI 走向實體世界的那一刻,細節就是體驗本身。