自律的なロボットを実現するには、ロボットが周囲の環境を認識し、自ら意志決定して行動を起こすことが必要ですが、当研究室では、この外界の認識と行動決定を2本柱とするパターン識別の研究を進めています。たとえば、ロボットに何らかのジェスチャーで指令を与えるとなると、画像の位置がズレたり、同じジェスチャーでも動作のスピードが違ったりするだけで、なかなか動画像を適切に分類できないという問題があります。こうした時空間パターンのズレや伸縮に強い分類システムの開発などを行っています。将来的にはカスタムチップ化して、より簡単な指令でロボットが実行・学習してくれるマン・マシン・インターフェースを構築したいと考えています。 |
|