Physical AI 之 AI Worker
ROBOTIS AI Worker 是一款由物理 AI (Physical AI)驅動的尖端全身半人形機器人。主要設計能無縫整合到工業環境中,它能夠從人類示範中學習,並透過模仿學習(Imitation Learning, IL),和強化學習(Reinforcement Learning, RL)不斷優化技能。這款創新機器人,擅長執行線束組裝(wiring harness assembly)、焊接(welding)和檢測(inspection)等複雜工作任務,對提高生產力和克服勞動力的短缺,提供了強大的解決方案。
AI Worker 配備行動底座和雙臂,並運用 ROBOTIS 的核心技術,提供高效能、高可靠性和直覺的使用者介面。準備好迎接智能自動化的新時代吧!
🧠 物理 AI(Physical AI) – 基於人類示範動作的模仿學習
⚡ 即時智能任務的執行
🦾 高自由度雙臂及靈巧手系統
🔄 已整合好全部的模仿學習(IL)過程的流程
🧭 基於 Swerve Drive 的最佳化移動性
🤩 完全開源平台
** ROBOTIS AI Worker announced in NVidia blog at ROSCon conference: NVIDIA Contributes to Open Frameworks for Next-Generation Robotics Development
- AI Worker 簡介
- AI Worker 平台選擇
- AI Worker 結構
- AI Worker 規格
- 模仿學習(Imitation Learning)
- Simulation
- 網路資源
- 影片
🧠 Physical AI - 基於人類示範動作的模仿學習
基於物理 AI 技術的 AI Worker,透過人類的示範,可與真實環境互動來學習工作任務。這使得機器人能夠直觀地學習新技能,並靈活地適應各種環境變化。
⚡ 即時智能任務的執行
機器人能即時感知周圍環境,並基於學習到的智能,推斷下一步行動,從而可即時執行工作任務。這確保了其在複雜多變的現實工作環境中的高適用性。
🦾 高自由度雙臂及靈巧手系統
高性能的靈巧手,單手自由度可達 16 至 20,結合單臂 7 自由度的雙臂機器手臂,可實作擬人的高精度複雜物體操控,有助於實現在各種工業生產現場的精密工序自動化。
🔄 已整合好全部的模仿學習(IL)過程的流程
AI Worker 提供已整合好的流程,涵蓋整個模仿學習(Imitation Learning)過程,從直觀的基於遠端操作的數據收集、視覺化處理、模型訓練到模型推理,從而實現對收集的資料,和學習模型的高效管理。
🧭 基於 Swerve Drive 的最佳化移動性
AI Worker 採用了 Swerve Drive 傳動系統,即使在受限的工作環境中,也能展現出卓越的全向機動性,比現有的輪式移動方式更精準、更可靠。
🤩 完全開源平台
所有與 AI Worker 相關的原始碼、模擬的模型、教程、教育影片和訓練資料,均以開源形式公開,鼓勵開發者和研究社群積極的參與。
AI Worker 硬體平台,結合先進的機器人技術與 AI 賦能,打造出多功能全身半人形機器人。本平台基於 ROBOTIS DYNAMIXEL 智能馬達構建,配備有 Swerve Drive 轉向驅動的移動底座、及帶有靈巧手/夾爪的雙 7 自由度機器手臂,以及包含 RGBD 深度相機,和 LiDAR 光達。系統配有 NVIDIA Jetson AGX Orin 電腦,可處理複雜的運算和 AI 任務。AI Worker 專為工業應用而設計,能夠在動態環境中執行組裝、檢測和物流等任務。這種全面的硬體設計,使 AI Worker 能夠透過模仿學習和強化學習,在各種工業環境中執行複雜的操作任務。。
1. FFW-BG2: Basic 基本款: 提供固定式的全身半人形機器人,標配內含 FFW-LG2 穿戴式骨骼 Leader 引導裝置。
2. FFW-SG2: Mobility 移動款: 配有 Swerve Drive 移動底座的全身半人形機器人,標配內含 FFW-LG2 穿戴式骨骼 Leader 引導裝置。
3. FFW-LG2 穿戴式骨骼 Leader 引導裝置(2 指夾爪): 此設備穿戴在人身上,引導機器人的雙手動作來進行學習,手的末端是配置 2DOF 夾爪。此 leader arm 是標配的產品。
4. FFW-LH5 穿戴式骨骼 Leader 引導裝置(5 指靈巧手,規劃中): 此設備穿戴在人身上,引導機器人的雙手動作來進行學習,手的末端是配置 5 指靈巧手。。







| 規格 | FFW-SG2 移動款 | FFW-BG2 固定款 |
|---|---|---|
| 尺寸(WxDxH) | 604x602x1,623 (mm) | 604x564x1,607 (mm) |
| 重量 | 90 kg | 85 kg |
| 智能馬達 | Arm Joint 1~6: DYNAMIXEL-Y Arm Joint 7: DYNAMIXEL-P Head: DYNAMIXEL-X Lift: DYNAMIXEL-Y | Arm Joint 1~6: DYNAMIXEL-Y Arm Joint 7: DYNAMIXEL-P Head: DYNAMIXEL-X Lift: DYNAMIXEL-Y |
| 自由度(DOF) | Total: 25 DOF - Arm: 7 DOF x 2 - Gripper: 1 DOF x 2 - Head: 2 DOF x 1 - Lift: 1 DOF x 1 - Mobile: 6 DOF | Total: 19 DOF - Arm: 7 DOF x 2 - Gripper: 1 DOF x 2 - Head: 2 DOF x 1 - Lift: 1 DOF x 1 |
| 手臂伸展 | 641 mm (to wrist) + hand | 641 mm (to wrist) + hand |
| 手臂負載(Nomial) | 3.0 kg (single arm) 6.0 kg (dual arm) | 3.0 kg (single arm) 6.0 kg (dual arm) |
| 手臂負載(Peak) (* 隨姿態及動作而變動) | 5.0 kg (single arm) 10.0 kg (dual arm) | 5.0 kg (single arm) 10.0 kg (dual arm) |
| 關節解析度 | -π(rad)~π(rad) -262,144~262,144 (pulse/rev) | -π(rad)~π(rad) -262,144~262,144 (pulse/rev) |
| 夾爪 | 標配: RH-P12-RN (2指) | 標配: RH-P12-RN (2指) |
| 移動類別 | Swerve Drive 轉向驅動 | 無 |
| 移動速度 | 1.5 m/s | 無 |
| 電源 | 電池: 25V, 80Ah (2,040Wh) | 市電 powered via SMPS: 24VDC, 80A, 1,920W |
| 操作溫度 | 0 ~ 40℃ | 0 ~ 40℃ |
| 外部材質 | 鋁,塑材 | 鋁,塑材 |
| 感測器 | RGBD Camera x 3, LiDAR x 2, IMU | RGBD Camera x 3 |
| Host 介面 | Ethernet (Wi-Fi router up to 1Gbps) | Ethernet (Direct connection to host PC) |
| 內部通訊 | RS-485 | RS-485 |
| 傳輸速度 Baudrate | 4 Mbps | 4 Mbps |
| 電腦 | NVIDIA Jetson AGX Orin 32GB | NVIDIA Jetson AGX Orin 32GB |
| 軟體 | ROS 2 Support, Python, C++, Web UI | ROS 2 Support, Python, C++, Web UI |
本段簡單說明基於 ROS2 的完整模仿學習(Imitation Learning, IL)流程,本流程是基於 AI Worker,和 Hugging Face Hub 所構建,並配備了一個方便使用的 Web GUI 圖形介面,主要在簡化互動並增強存取性。
人類操作者使用穿戴式骨骼引導裝置(例如 FFW-LG2)示範動作,收集影像和手臂關節位置的數據。Web 的 GUI 圖形介面,透過提供即時的視覺化(visualization)和控制,在簡化流程方面發揮關鍵作用。所收集到的數據,可以在 Hugging Face Hub 上傳或下載。

收集的數據經過可視化處理(Prerequisities, Recording, Visualization, Editing),用於檢查運動軌跡和影像,從而幫助在模型訓練(Model Training)前,先識別可能的錯誤。
然後,經過驗證的資料集,就可用來訓練一個動作策略模型(action policy model)。訓練可以在本地 GPU 或 NVIDIA Jetson 等嵌入式平台上進行。產生的模型可以在 Hugging Face Hub 上傳或下載。
AI Worker 的 simulation 模擬環境,主要是在一個受控的虛擬環境中,來測試和驗證機器人功能。這使得機器人在部署到實體硬體平台之前,能夠全面評估其在各種工作任務中的能力。此模擬生態系統利用了包括 ROS2、Google DeepMind 的 MuJoCo 和 NVIDIA Isaac Sim 在內的產業標準工具,為開發和研究提供了多樣化的選擇。詳細請參考 AI Worker Simulation 頁面。
我們的模擬環境特別適合強化學習(Reforcement Learning, RL)。它們提供逼真的實體和感測器回饋,使 AI Worker 能夠透過互動,來學習和調整其行為。這對於培養複雜的操作和導航技能至關重要。





| 網路資源 | 說明 | 連結 |
|---|---|---|
| AI Worker | ROS2 Packages for operating the AI Worker | GitHub |
| Physical AI Tools | ROS2 package for generating datasets in LeRobot Dataset format | GitHub |
| Simulation Models | URDF(ROS), MJCF(MuJoCo) and USD(Isaac Sim/Lab) model files for simulation | URDF |
| MJCF | ||
| USD | ||
| AI Models & Datasets | 預訓練模型及訓練資料集 | Hugging Face |
| Docker Images | 可即用的開發環境 | Docker Hub |
| 說明文件 | 官方線上使用手冊 | ai.robotis.com |
| 教學影片 | 官方線上教學及展示 | Youtube |








