Agriculture
人とロボットが協調して動作するスマート農場の実現に向けて

1. 農作物収穫・観測ロボットの知能化技術

[概要]

農業就業者の減少から、 ロボットによる 農業効率化技術の開発が望まれています。農作物は規格化された工業部品とは異なり、全て異なる形状をしている自然物であり、それに対応する技術開発が必要となります。本研究室ではまずトマト果実の収穫ロボットを本学社会ロボット具現化センターが主催しているトマトロボット競技会に参加しながら開発を進めております。

課題やキーワード :
RGB-Dカメラ情報からエンドエフェクタ機能に合わせた アフォーダンス情報(トマトの刈り取り可能性情報)の抽出、トマトの収穫戦略、菜園の時空間画像情報からの収量予想技術、フェノタイピング3次元点群処理 etc…

[発表など]

S.Yasukawa, B.Li, T.Sonoda, K.Ishii, “Development of a Tomato Harvesting Robot”,International Conference of Artificial Life and Robotics 2017, 2017.

T. Fujinaga, S. Yasukawa, B. Li, & K, Ishii, “Image Mosaicing Using Multimodal Images for Generating Tomato Growth State Map”, Journal of Robotics and Mechanics, Vol. 30, No. 2, 2018.

Fujinaga, T., Yasukawa, S., Li B., & Ishii, K. (2018). “Recognition of Tomato Fruit Regardless of Maturity by Machine Learning Using Infrared Image and Specular Reflection” ,International Conference of Artificial Life and Robotics 2018, 2018. Young Author Award

Fujinaga, T., Yasukawa, S., Li B., & Ishii, K. (2017, September). Generation of Mosaic Image in Tomato Greenhouse Using Infrared Image, Smart Info-Media Systems in Asia (SISA 2017), 2017 International Workshop on SISA 2017(pp.15-20). SISA Excellent Student Paper Award

etc…

これから進めたいプロジェクト
2. 植物の生育環境の記録及び形態計測機能を有する植物工場プラットフォーム

[概要]

同じ生まれ(遺伝子)である植物でも、育ち(温度・湿度・照度など)によって作物の量や質(栄養価・味・色・形・大きさなど)は異なります。RGB-Dカメラによる作物の時空間観測及び形態計測機能を研究開発し、生育環境と作物状態の関係づけを自動で行えるようにします。またロボットアームを搭載することで、植物の葉かきを行うなど更にインタラクティブ性を高めた環境制御技術を追加することで検証項目が豊かな植物工場プラットフォームの開発を目指します。

課題やキーワード :
ロボットのソフトウェア開発・組み立て、IoT用クラウドシステムの構築、フェノタイピング、
3次元点群処理 、形態計測、葉かき動作、 機械学習 etc…

基板図CAD1CAD2部品表日本で購入できるよううに修正した部品表
組み立てwiki日本語フォーラム

[発表など]

一年目のプロジェクトです

3. 農作物の状態と農場環境情報の時空間観測システム

[概要]

農作物の持続的・安定的な供給のために従来の経験と勘の農業から、データに基づいた「スマート農業」への転換が求められています。これまでの農業では農場の気候や土壌の状態、もしくは予め参考となる作物の葉や作物の外観を作業員が確認することによって、大まかに各工程に取り掛かる時期を予想してきました。本研究では生育条件と植物体の状態の両方の情報を統合・解析することで新たな収量予想法の提案し、農場で実証試験を行います。

[発表など]

一年目のプロジェクトです

Underwater

1. サンプリングAUV の知能化技術

[概要]

水産資源や生物学の学術的知見の蓄積のために海洋生態系を調査する技術の開発や運用手法は重要です。我々のグループでは海底物を採取する新たな自律型海洋ロボットである「サンプリングAUV(Autonomous Underwater Vehicle)」の構築に取り組んでいます。サンプリングAUVに優れた海底の様子の観測機能や海底物採取機能を実装するために、本研究室では水中画像の青かぶれを補正する技術や採取対象物をトラッキングする技術等、様々なタスクに対する画像センシング手法やそれを組み込み実装する手法を研究しています。

課題やキーワード :
水質や照明に順応した画像取得カメラ開発、Sampling-AUV、水中画像補正法、水中音響通信用画像圧縮法、水中生物画像トラッキング法、visual SLAM、音響通信技術、統合ソフトウェア 設計法 etc…

[主な業績 ]

S. Yasukawa, J. Ahn, Y. Nishida, T. Sonoda, K. Ishii and T. Ura, “Vision System for an Autonomous Underwater Vehicle with a Benthos Sampling Function“, Journal of Robotics and Mechatronics, Vol. 30, No. 2, 2018.

Y. Nishida, T. Sonoda, S. Yasukawa, K. Nagano, M Minami, K. Ishii and T. Ura, “Underwater Platform for Intelligent Roboitics and Its Application into Two Visual Tracking Systems“, Journal of Robotics and Mechatronics, Vol. 30, No. 2, 2018.

J. Ahn, S. Yasukawa, T. Sonoda, Y. Nishida, T. Ura and K.Ishii, “Enhancement of Deep-Sea Floor Images Obtained by an Underwater Vehicle and its Evaluation by Crab Recognition Journal of Marine Science and Technology“. Issue 4, Volume 22, pp 758–770, December 2017.

J. Ahn, S. Yasukawa, T. Sonoda, Y. Nishida, K. Ishii, & T. Ura, “An Optical Image Transmission System for Deep Sea Creature Sampling Missions Using Autonomous Underwater VehicleIEEE Journal of Oceanic Engineering., 2018.

etc…

・その他、生体規範型の水中用途センサ開発はこちら

→Research