Physical AI 之 AI Worker

ROBOTIS AI Worker 是一款由物理 AI (Physical AI)驅動的尖端全身半人形機器人。主要設計能無縫整合到工業環境中,它能夠從人類示範中學習,並透過模仿學習(Imitation Learning, IL),和強化學習(Reinforcement Learning, RL)不斷優化技能。這款創新機器人,擅長執行線束組裝(wiring harness assembly)、焊接(welding)和檢測(inspection)等複雜工作任務,對提高生產力和克服勞動力的短缺,提供了強大的解決方案。


AI Worker 配備行動底座和雙臂,並運用 ROBOTIS 的核心技術,提供高效能、高可靠性和直覺的使用者介面。準備好迎接智能自動化的新時代吧!


🧠 物理 AI(Physical AI) – 基於人類示範動作的模仿學習

⚡ 即時智能任務的執行

🦾 高自由度雙臂及靈巧手系統

🔄 已整合好全部的模仿學習(IL)過程的流程

🧭 基於 Swerve Drive 的最佳化移動性

🤩 完全開源平台


** ROBOTIS AI Worker announced in NVidia blog at ROSCon conference:  NVIDIA Contributes to Open Frameworks for Next-Generation Robotics Development

TESOLLO DG-5F 五指爪手
TESOLLO DG-5F 五指爪手(M款, S款)
ROBOTIS Physical AI lineup
ROBOTIS 物理 AI(Physical AI) 解決方案

🧠 Physical AI - 基於人類示範動作的模仿學習
基於物理 AI 技術的 AI Worker,透過人類的示範,可與真實環境互動來學習工作任務。這使得機器人能夠直觀地學習新技能,並靈活地適應各種環境變化。

即時智能任務的執行
機器人能即時感知周圍環境,並基於學習到的智能,推斷下一步行動,從而可即時執行工作任務。這確保了其在複雜多變的現實工作環境中的高適用性。

🦾 高自由度雙臂及靈巧手系統
高性能的靈巧手,單手自由度可達 16 至 20,結合單臂 7 自由度的雙臂機器手臂,可實作擬人的高精度複雜物體操控,有助於實現在各種工業生產現場的精密工序自動化。

🔄 已整合好全部的模仿學習(IL)過程的流程
AI Worker 提供已整合好的流程,涵蓋整個模仿學習(Imitation Learning)過程,從直觀的基於遠端操作的數據收集、視覺化處理、模型訓練到模型推理,從而實現對收集的資料,和學習模型的高效管理。

🧭 基於 Swerve Drive 的最佳化移動性
AI Worker 採用了 Swerve Drive 傳動系統,即使在受限的工作環境中,也能展現出卓越的全向機動性,比現有的輪式移動方式更精準、更可靠。

🤩 完全開源平台
所有與 AI Worker 相關的原始碼、模擬的模型、教程、教育影片和訓練資料,均以開源形式公開,鼓勵開發者和研究社群積極的參與。

product components
AI Worker 的不同型號
model ffw lg2
FFW-LG2 二指夾爪
model ffw lh5
FFW-LH5 五指靈巧手

AI Worker 硬體平台,結合先進的機器人技術與 AI 賦能,打造出多功能全身半人形機器人。本平台基於 ROBOTIS DYNAMIXEL 智能馬達構建,配備有 Swerve Drive 轉向驅動的移動底座、及帶有靈巧手/夾爪的雙 7 自由度機器手臂,以及包含 RGBD 深度相機,和 LiDAR 光達。系統配有 NVIDIA Jetson AGX Orin 電腦,可處理複雜的運算和 AI 任務。AI Worker 專為工業應用而設計,能夠在動態環境中執行組裝、檢測和物流等任務。這種全面的硬體設計,使 AI Worker 能夠透過模仿學習和強化學習,在各種工業環境中執行複雜的操作任務。。

1. FFW-BG2: Basic 基本款: 提供固定式的全身半人形機器人,標配內含 FFW-LG2 穿戴式骨骼 Leader 引導裝置
2. FFW-SG2: Mobility 移動款: 配有 Swerve Drive 移動底座的全身半人形機器人,標配內含 FFW-LG2 穿戴式骨骼 Leader 引導裝置
3. FFW-LG2 穿戴式骨骼 Leader 引導裝置(2 指夾爪): 此設備穿戴在人身上,引導機器人的雙手動作來進行學習,手的末端是配置 2DOF 夾爪。此 leader arm 是標配的產品。
4. FFW-LH5 穿戴式骨骼 Leader 引導裝置(5 指靈巧手,規劃中): 此設備穿戴在人身上,引導機器人的雙手動作來進行學習,手的末端是配置 5 指靈巧手。。

model name
AI Worker 命名規則
joints
AI Worker 大致結構
dimension ffw sg2
FFW-SG2 移動款大小
dimension ffw lg2
FFW-LG2 穿戴式骨骼引導裝置(2 指夾爪)
workspace
AI Worker Workspace
dimension ffw bg2
FFW-BG2 固定款大小
dimension ffw lh5
FFW-LH5 穿戴式骨骼引導裝置(5 指靈巧手)
規格 FFW-SG2 移動款 FFW-BG2 固定款
尺寸(WxDxH) 604x602x1,623 (mm) 604x564x1,607 (mm)
重量 90 kg 85 kg
智能馬達 Arm Joint 1~6: DYNAMIXEL-Y
Arm Joint 7: DYNAMIXEL-P
Head: DYNAMIXEL-X
Lift: DYNAMIXEL-Y
Arm Joint 1~6: DYNAMIXEL-Y
Arm Joint 7: DYNAMIXEL-P
Head: DYNAMIXEL-X
Lift: DYNAMIXEL-Y
自由度(DOF) Total: 25 DOF
- Arm: 7 DOF x 2
- Gripper: 1 DOF x 2
- Head: 2 DOF x 1
- Lift: 1 DOF x 1
- Mobile: 6 DOF
Total: 19 DOF
- Arm: 7 DOF x 2
- Gripper: 1 DOF x 2
- Head: 2 DOF x 1
- Lift: 1 DOF x 1
手臂伸展 641 mm (to wrist) + hand 641 mm (to wrist) + hand
手臂負載(Nomial) 3.0 kg (single arm)
6.0 kg (dual arm)
3.0 kg (single arm)
6.0 kg (dual arm)
手臂負載(Peak)
(* 隨姿態及動作而變動)
5.0 kg (single arm)
10.0 kg (dual arm)
5.0 kg (single arm)
10.0 kg (dual arm)
關節解析度 -π(rad)~π(rad)
-262,144~262,144 (pulse/rev)
-π(rad)~π(rad)
-262,144~262,144 (pulse/rev)
夾爪 標配: RH-P12-RN (2指) 標配: RH-P12-RN (2指)
移動類別 Swerve Drive 轉向驅動
移動速度 1.5 m/s
電源 電池: 25V, 80Ah (2,040Wh) 市電 powered via SMPS:
24VDC, 80A, 1,920W
操作溫度 0 ~ 40℃ 0 ~ 40℃
外部材質 鋁,塑材 鋁,塑材
感測器 RGBD Camera x 3, LiDAR x 2, IMU RGBD Camera x 3
Host 介面 Ethernet
(Wi-Fi router up to 1Gbps)
Ethernet
(Direct connection to host PC)
內部通訊 RS-485 RS-485
傳輸速度 Baudrate 4 Mbps 4 Mbps
電腦 NVIDIA Jetson AGX Orin 32GB NVIDIA Jetson AGX Orin 32GB
軟體 ROS 2 Support, Python, C++, Web UI ROS 2 Support, Python, C++, Web UI

本段簡單說明基於 ROS2 的完整模仿學習(Imitation Learning, IL)流程,本流程是基於 AI Worker,和 Hugging Face Hub 所構建,並配備了一個方便使用的 Web GUI 圖形介面,主要在簡化互動並增強存取性。

Imitation Learning 流程
Data Collection

人類操作者使用穿戴式骨骼引導裝置(例如 FFW-LG2)示範動作,收集影像和手臂關節位置的數據。Web 的 GUI 圖形介面,透過提供即時的視覺化(visualization)和控制,在簡化流程方面發揮關鍵作用。所收集到的數據,可以在 Hugging Face Hub 上傳或下載。

資料蒐集
Data Visualization

OMY Data Prepare

收集的數據經過可視化處理(Prerequisities, Recording, Visualization, Editing),用於檢查運動軌跡和影像,從而幫助在模型訓練(Model Training)前,先識別可能的錯誤。

資料可視化處理
Model Training

然後,經過驗證的資料集,就可用來訓練一個動作策略模型(action policy model)。訓練可以在本地 GPU 或 NVIDIA Jetson 等嵌入式平台上進行。產生的模型可以在 Hugging Face Hub 上傳或下載。

模型訓練
Model Inference

訓練完成後,訓練好的模型將部署到 AI Worker 上,執行拾取、放置和避障等任務的即時推理。

模型推理

AI Worker 的 simulation 模擬環境,主要是在一個受控的虛擬環境中,來測試和驗證機器人功能。這使得機器人在部署到實體硬體平台之前,能夠全面評估其在各種工作任務中的能力。此模擬生態系統利用了包括 ROS2、Google DeepMind 的 MuJoCo 和 NVIDIA Isaac Sim 在內的產業標準工具,為開發和研究提供了多樣化的選擇。詳細請參考 AI Worker Simulation 頁面

我們的模擬環境特別適合強化學習(Reforcement Learning, RL)。它們提供逼真的實體和感測器回饋,使 AI Worker 能夠透過互動,來學習和調整其行為。這對於培養複雜的操作和導航技能至關重要。

RILAB OMY Tutorial
模仿學習(IL)示意圖 by OMY 手臂
ffw bg2 urdf
Gazebo / RViz (URDF/SDF)
ffw bg2 mujoco
MuJoCo (MJCF)
ffw bg2 isaac sim
NVIDIA Isaac Sim (USD)
ffw bg2 isaac lab
NVIDIA Isaac Lab
網路資源 說明 連結
AI Worker ROS2 Packages for operating the AI Worker GitHub
Physical AI Tools ROS2 package for generating datasets in LeRobot Dataset format GitHub
Simulation Models URDF(ROS), MJCF(MuJoCo) and USD(Isaac Sim/Lab) model files for simulation URDF
MJCF
USD
AI Models &
Datasets
預訓練模型及訓練資料集 Hugging Face
Docker Images 可即用的開發環境 Docker Hub
說明文件 官方線上使用手冊 ai.robotis.com
教學影片 官方線上教學及展示 Youtube