모바일 매핑 시스템의 GEO 로컬라이제이션

The GEO-Localization of a Mobile Mapping System

  • 발행 : 2009.10.31

초록

모바일 매핑 시스템 또는 로봇이 GPS (Global Positioning System)와 다중 스테레오 카메라만 탑재 할 경우, V-SLAM(Vision based Simultaneous Localization And Mapping)에 의한 카메라 외부표정과 3차원 데이터를 GIS데이터와 연계 또는 카메라 외부표정의 누적에러를 제거하기 위해 극부 카메라 좌표계에서 GPS (Global Positioning System) 좌표계로 변환이 필요로 한다. 이 요구사항을 만족시키기 위해, 본 논문은 GPS와 V-SLAM에 의한 3쌍의 카메라의 위치를 이용하여 GPS좌표계에서 카메라 자세를 계산하는 새로운 방법을 제안하였다. 제안한 방법은 간단한 4단계로 구성되어 있다; 1)각 3개의 카메라 위치에 기반한 두 평면 법선벡터가 병렬이되도록 하는 사원수 (quaternion)를 계산한다, 2) 계산된 사원수를 통하여 V-SLAM에 의한 3개의 카메라 위치를 변환한다, 3) 변환된 위치에서 두번째 또는 세번째 점이 GPS에 의한 점과 일치하도록 하는 두번째 사원수를 계산한다, 4)두 사원수의 곱을 통하여 최종 사원수 결정한다. 최종 사원수는 극부 카메라 좌표계에서 GPS좌표계로 변환할 수 있다. 추가적으로, 촬영된 물체 위치에서 카메라를 보는 시야각을 기반으로 물체의 3차원좌표 갱신방법을 제안하였다. 본 논문은 제안한 방법을 시뮬레이션과 실험을 통하여 증명하였다.

When a mobile mapping system or a robot is equipped with only a GPS (Global Positioning System) and multiple stereo camera system, a transformation from a local camera coordinate system to GPS coordinate system is required to link camera poses and 3D data by V-SLAM (Vision based Simultaneous Localization And Mapping) to GIS data or remove the accumulation error of those camera poses. In order to satisfy the requirements, this paper proposed a novel method that calculates a camera rotation in the GPS coordinate system using the three pairs of camera positions by GPS and V-SLAM, respectively. The propose method is composed of four simple steps; 1) calculate a quaternion for two plane's normal vectors based on each three camera positions to be parallel, 2) transfer the three camera positions by V-SLAM with the calculated quaternion 3) calculate an additional quaternion for mapping the second or third point among the transferred positions to a camera position by GPS, and 4) determine a final quaternion by multiplying the two quaternions. The final quaternion can directly transfer from a local camera coordinate system to the GPS coordinate system. Additionally, an update of the 3D data of captured objects based on view angles from the object to cameras is proposed. This paper demonstrated the proposed method through a simulation and an experiment.

키워드

참고문헌

  1. 전재춘 (2008), 벡터내적 기반 카메라 자세 추정, 대한원격탐사학회지, 대한원격탐사학회, 24(6), pp. 614-644 https://doi.org/10.7780/kjrs.2008.24.6.641
  2. 전재춘, Sastry, S. (2008), 벡터내적기반 카메라 외부파라메타, 응용: 절대표정, 제어로봇시스템학회지, 제어로봇 시스템학회, 14(1), pp. 70-74
  3. 전재춘, Sastry, S.(2007), 벡터내적 기반 카메라 외부 파라메터 응용: 카메라와 레이져스캐너간의 캘리브레이션, 대한원격탐사학회지, 대한원격탐사학회, 23(6), pp. 553-558 https://doi.org/10.7780/kjrs.2007.23.6.553
  4. 전재춘, Shibasaki, R. (2008), IMU/GPS와 카메라 좌표계간의 물리적 관계를 위한 수학적 모델, 한국측량학회지, 한국측량학회, 제 26권, 제 6호, pp. 611-616
  5. Chon, J. Fuse, T., Shimizu, E, and Shivasaki, R. (2007), 3D Image Mosaicking Using Multiple Projection Planes, IEEE Tr. onSMC-B, 37(3), pp. 771-783
  6. Chon, J Kim, H, and Lin, C., (2009), Seam-line determination for image mosaicking: A technique minimizing the maximum local mismatch and the global cost. ISPRS Journal of Photogrammetry and Remote Sensing, doi:10.1016/J.isprsjprs.2009.09001
  7. Civera, Javier, Oscar G. Grasa, Andrew J. Davison and J. M. M. Montiel (2009), 1-Point RANSAC for EKF-Based Structure from Motion, IROS 2009, CD-ROM
  8. Felzenszwalb, P. F., Girshick, R. B., McAllester, D., Ramanan, D., (2009), Object Detection with Discriminatively Trained Part Based Models, To appear in IEEE Trans. on PAMI
  9. Fischler, M.A., Bolles, R.C.(1981), RANSAC random sampling concensus: A paradigm for model fitting with applications to image analysis and automated cartography, Communications of ACM, 26, pp. 381-395
  10. Fruh, C., Jain,S., and Zakhor, A. (2005), Data Processing Algorithms for Generation Textured 3D Building Facade Meshes from Laser Scans and Camera Images, International Journal of Computer Vision, 61(2), pp. 159-184 https://doi.org/10.1023/B:VISI.0000043756.03810.dd
  11. Hamilton, William Rowan (1844), On quaternions, or on a new system of imaginaries in algebra, philosophical Magazine, 25(3), pp. 489-495
  12. Lowe, David G. (2004), Distinctive image features from scale-invariant keypoints, International Journal of Computer Vision, 60(2), pp. 91-110 https://doi.org/10.1023/B:VISI.0000029664.99615.94
  13. Milford, Michael J., Gordon F (2008), Mapping a Suburb With a Single Camera Using a Biologically Inspired SLAM System, IEEE Tr. on Robotics, 24(5), pp. 1038-1053 https://doi.org/10.1109/TRO.2008.2004520
  14. Se, S. Lowe, D.G. Little, J. J. (2005), Vision-based global localization and mapping for mobile robots, IEEE Tr. on Robotics, 21(3), pp. 364-375 https://doi.org/10.1109/TRO.2004.839228
  15. Sinha, Sudipta N, Jan- Michael Frahm, Marc Pollefeys and Yakup Genc(2006), GPU-Based Video Feature Tracking and Matching, EDGE 2006, workshop on Edge Computing Using New Commodity Architectres, Chapel Hill, May 2006
  16. Thrun, S., Fox, D., Burgard, W., and Dellaert, F. (2001), Robust Monte-Carlo localization for mobile robots, Artificial Intelligence, 128(1), pp. 99-141 https://doi.org/10.1016/S0004-3702(01)00069-8
  17. Zhao, H., Shibasaki, R. (2003), A vehicle-borne urban 3-D acquisition system using single-row laser range scanners, IEEE Tr. on SMC-B, 33(4), pp. 658-666 https://doi.org/10.1109/TSMCB.2003.814280