マサチューセッツ工科大学(MIT)のコンピュータ科学・人工知能研究所(CSAIL)の研究者たちは、ロボットが単一のカメラを用いて自己の動きを学習し、制御できるAIシステム「Neural Jacobian Fields(NJF)」を開発しました。
このシステムは、ロボットが視覚的なフィードバックを通じて自身の体を理解し、複雑なセンサーや詳細なプログラミングなしで動作を制御することを可能にします。NJFは、ロボットの3D形状と運動に対する感度を同時に学習し、視覚データのみでロボットの動きを予測・制御します。
研究チームは、NJFを用いて、ソフトロボットや従来型のロボットなど、さまざまなロボットシステムでテストを行いました。その結果、ロボットが視覚データから自己の動きを学習し、制御する能力を確認しました。
この技術は、農業や建設現場などの複雑で未整備な環境でのロボットの適用可能性を広げると期待されています。NJFを活用することで、ロボットは高精度な動作を実現し、従来のセンサーや複雑なプログラミングに依存しない柔軟な制御が可能となります。
MITのCSAILの研究者たちは、NJFがロボットの設計と制御の新たな可能性を切り開くとともに、ロボット技術の普及と発展に寄与することを目指しています。