視覚・言語・動作を統合するVLA(Vision-Language-Action)制御技術で、Embodied Intelligenceを実現し、製造・リサイクル・物流の現場に革新をもたらします。
| 活用例 | 廃棄物自動選別 | 分解作業(両手) | 教育・研究 |
|---|---|---|---|
| Robot | Franka | ALOHA | Franka/ALOHA |
| VLAの役割 | リチウムイオン電池等の色・形状を認識し、指示通りに把持・分類 | 両手でラベルを外す、蓋を開けるなどの複雑動作 | 学習・実験用として、自然言語操作が可能なロボット教材 |
| 画像認識 | 大規模マルチモーダルモデルLMM、物体検出、YOLO、SAM(Segment Anything Model)等 |
|---|---|
| 言語理解 | 大規模言語モデルLLM |
| 制御インタフェース | Franka API, ALOHA SDK, ROS2等 |
| VLA制御 | 視覚認識・自然言語理解・運動制御を統合し、人間の“意図”を理解して動くAIシステム |
| FrankaとALOHA(両手) | 2種の協働ロボットによる柔軟な知的動作 |
| Human-Robot Interaction(HRI) | マルチモーダルAIで実現する“対話可能なロボットアシスタント” |
VLA遠隔データ収集システム
VLAロボットデモ@NEW環境展2025