2013年6月10日月曜日

laserscanしてみる

KinectでGMappingするには?という質問があった
おそらくXtionでも同じだろう
http://answers.ros.org/question/64268/how-to-show-the-date-obtain-from-the-kinect/

以下のリンクを参考してみろ的な感じ
http://ros.org/wiki/openni_camera
http://ros.org/wiki/turtlebot_bringup/Tutorials/groovy/3D%20Visualisation
http://ros.org/wiki/turtlebot_navigation/Tutorials/Build%20a%20map%20with%20SLAM

turtlebotのスタックを使うということか
turtlebot無くても使用できるのだろうか?
以下のチュートリアルに手をつけてみる
http://ros.org/wiki/turtlebot_bringup/Tutorials/groovy/3D%20Visualisation

まずは、turtlebot_navigationをダウンロード
$ git clone https://github.com/turtlebot/turtlebot_apps

端末上で
$ roslaunch openni_launch openni.launch
$ rosrun rviz rviz

rvizインタフェース上で
Fixed Frameを /camera_depth_frame設定
LaserScanをAdd
LaserScanのTopicに /scanに設定

端末に戻って

$ roslaunch turtlebot_bringup 3dsensor.launch

しばらく待つ

レーザースキャンできた!

















3dsenser→rvizの順でもいける。その場合openni.launchはいらない
Fixed Frameで /camera_depth_frameが候補として上がらないかもしれないので、
ちょくせつFixed Frameに /camera_depth_frameと書き込む

とにかく
3dsensorを使えばLaserScanデータは取得できるろいうことか?
もしかしたら、デフォで取れてはいるけど、可視化できているだけなのかもしれない
つまり、openni.launchだけでもLaserScanデータが取れていたという可能性

GMappingに一歩近づいた感がある

とりあえず全部の端末をCtrl+Cして次のチュートリアルに進んでみた
http://ros.org/wiki/turtlebot_navigation/Tutorials/Build%20a%20map%20with%20SLAM

$ roslaunch openni_launch openni.launch
$ roslaunch turtlebot_navigation gmapping_demo.launch

そしたら
 [ INFO] [1370873334.870602547]: Still waiting on map...

がいっぱい出てきた
つかれたので今日はここまで
明日、ちゃんと上のリンクの記事を読むことにする

とりあえず、ちょっと進んだ
よかった
ありがとうインドの方

0 件のコメント:

コメントを投稿