製品情報
2023.08.15
様々なセンサーを取付けて自律走行可能!! ~「ROS開発キット」のご紹介 ~
————————————————————————————————————
- 屋内でLiDARを使用して自律走行したい
- カメラの映像をもとに物体検出や物体認識をしたい
- 高精度なRTK-GNSSを実現したい&RTK-GNSSの基準局設置が面倒くさい
————————————————————————————————————
移動ロボットの開発に携わっている方であれば、
一度はこうした悩みを持たれたことがあると思います。
この記事では、そんな悩みにお応えできる「ROS開発キット」をご紹介します。
是非、最後までご覧下さい!
(「ROS開発キット」の詳しい紹介については、こちらよりご覧下さい)
目次は以下の通りです。
—————————————————————————————————————————————————
- 「ROS開発キット」のメリット①:SLAMによる屋内自律走行ができる
- 「ROS開発キット」のメリット②:「Jetson」&「Model Zoo」による充実した画像処理環境
- 「ROS開発キット」のメリット③:基準局不要!ロボット単体で高精度なRTK-GNSSが実現可能
—————————————————————————————————————————————————
- 「ROS開発キット」のメリット①:SLAMによる屋内自律走行ができる
出典:https://www.mybotshop.de/SLAMTEC-RPLIDAR-S2E-360-Laser-Scanner-30-m
「ROS開発キット」を使えば、SLAMによる屋内自律走行を簡単に行うことができます!
SLAMとは、取得したデータを基に「ロボットの自己位置推定」と「周囲の環境地図構築」を同時に行う手法で、LiDARを活用した自律走行では定番の手法です。
「ROS開発キット」には「RPLiDAR S2E」という2DLiDARが標準で搭載されており、
ほぼ360度の視野で周囲約30mの範囲の環境データを取得できます。
例えば、「RPLiDAR S2E」で取得した環境データを基にSLAMをすることで、
下記画像のように「自己位置推定(青・赤・緑の軸が交差している部分)」と「環境地図の作成」
ができるのです。
環境地図が作成できれば、後は地図内(走行可能な白い部分)で目的地を指定するだけで、
ロボットが指定位置まで自律走行してくれます。
GPSが使えない屋内で自律走行をしたい場合、LiDARを搭載した「ROS開発キット」であれば
購入からすぐに実現できる環境が整っております!
—————————————————————————————————————————————————
- 「ROS開発キット」のメリット②:「Jetson」&「Model Zoo」による充実した画像処理環境
出典:https://www.nvidia.com/ja-jp/autonomous-machines/embedded-systems/jetson-orin/
「ROS開発キット」では、カメラ(例:RealSense D435 Intel)で撮影した映像を基に、
物体検出や物体認識などを行うことができます。
本来、カメラで撮影したデータを基に画像処理を行う場合、
「難しいプログラムを書かないといけないのでは?」
「どのツールを使えばいいか分からない」
など不安も多いかと思います。
「ROS開発キット」では、そんな心配も不要です!
というのも、機体にはNVIDIA社の「Jetson Orin NX」を搭載しているため、
同社の物体検出・物体認識のためのツールセットである「Computer Vision Model Zoo」を活用することができるからです。
「Computer Vision Model Zoo」には、画像内の物体検出や物体認識を行うことができる
ライブラリが豊富にあるため、用途に併せて最適なツールがきっと見つかるでしょう。
以下では、その一部を紹介します。
- PeopleNet Transformer:画像内の人やモノの検出ができます
出典:[https://docs.nvidia.com/tao/tao-toolkit/text/model_zoo/cv_models/peoplenet_transformer.html PeopleNet Transformer - NVIDIA Docs]
- PeopleSemSegFormer:ピクセル毎のラベル付けにより、人と人以外の画像分類ができます
出典:https://docs.nvidia.com/tao/tao-toolkit/text/model_zoo/cv_models/peoplesemsegformer.html
- Gaze Estimation:人の目線を検出することができます
出典:https://docs.nvidia.com/tao/tao-toolkit/text/model_zoo/cv_models/gazenet.html
「ROS開発キット」&「NVIDIA社」の充実した開発環境の下で、
普段の画像処理タスクをもっと手軽にしてみてはいかがでしょうか。
—————————————————————————————————————————————————
- 「ROS開発キット」のメリット③:基準局不要!ロボット単体で高精度なPPP-RTKが実現可能
出典:https://www.u-blox.com/en/product/zed-f9p-module、https://www.u-blox.com/en/product/neo-d9c-series
「ROS開発キット」では基準局が無い状態でも、ロボット単体での高精度なRTK-GNSSによる位置推定を実現できます!
通常、RTK-GNSSを行う際には、
「基準局(位置が分かっている既知点の受信局)」と「移動局(測定したい位置(未知点)にある受信)」の2つで衛星からのデータを取得し、高精度な位置情報の計測を行います。
ただ、基準局の設置をする作業は手間がかかることに加え、
エリアによっては基準局を利用できない状況もあり得ます。
そんな基準局の心配も「ROS開発キット」では不要です!
何故なら「ROS開発キット」には、「ZED-F9P」と「NEO-D9C」という
高精度なGNSSモジュールの搭載を予定しており(購入希望の方は問合せ下さい)、
それぞれで受信したデータを組み合わせることで、基準局がある時とほぼ同様の精度を実現できるからです。
尚、それぞれのモジュールの機能は下記となります。
ZED-F9P:GPS、GLONASS、Galileo、BeiDou等の衛星から2周波を同時に受信し、㎝級の測位が可能NEO-D9C:CLAS(「みちびき」を活用したcm級測位補強サービス)からの補強データを受信可能
以下では、実際に「つくばチャレンジ(つくば市内をロボットが自律走行する大会)」のコースにて測定した様子をご紹介します。
1枚目:「ROS開発キット」の街中の想定走行コース(黄色の線)
参照:https://tsukubachallenge.jp/2023/regulations/tasks
2枚目:GNSSモジュールが取得した位置情報の軌跡(赤色の線)
Map data ©2023 Google
画像の2枚目の測位結果(赤色線)をよく見ると、右側通行のルールがある歩道上では、
しっかりと右側通行ができていることが分かります。
つまり、実際に機体が走行した位置をかなり正確に測位できていることが分かるかと思います。
この位置情報の精度が高ければ高いほど、自律走行をする上でより誤差が少ない状態での走行が可能となります。
是非とも「ROS開発キット」を使って、
基準局不要&高精度なPPP-RTKを実現してみてはいかがでしょうか。
————————————————————————————————————
以上、この記事では、
- 「ROS開発キット」のメリット①:SLAMによる屋内自律走行ができる
- 「ROS開発キット」のメリット②:「Jetson」&「Model Zoo」による充実した画像処理環境
- 「ROS開発キット」のメリット③:基準局不要!ロボット単体で高精度なPPP-RTKが実現可能
を紹介してきました。
「多種多様なセンサーをロボットに搭載したい方」
「ロボット上で様々な画像処理を行いたい方」
「屋内でも自律走行を行いたい方」にとって、
少しでも今回の記事が参考になれば幸いです。
商品に関する疑問やご要望がございましたら、
是非とも弊社ホームページのお問合せフォームよりお問合せ下さい。