DOI QR코드

DOI QR Code

Depth Image Distortion Correction Method according to the Position and Angle of Depth Sensor and Its Hardware Implementation

거리 측정 센서의 위치와 각도에 따른 깊이 영상 왜곡 보정 방법 및 하드웨어 구현

  • Jang, Kyounghoon (Department of Electronic Engineering, Dong-A University) ;
  • Cho, Hosang (Department of Electronic Engineering, Dong-A University) ;
  • Kim, Geun-Jun (Department of Electronic Engineering, Dong-A University) ;
  • Kang, Bongsoon (Department of Electronic Engineering, Dong-A University)
  • Received : 2014.02.12
  • Accepted : 2014.03.16
  • Published : 2014.05.31

Abstract

The motion recognition system has been broadly studied in digital image and video processing fields. Recently, method using th depth image is used very useful. However, recognition accuracy of depth image based method will be loss caused by size and shape of object distorted for angle of the depth sensor. Therefore, distortion correction of depth sensor is positively necessary for distinguished performance of the recognition system. In this paper, we propose a pre-processing algorithm to improve the motion recognition system. Depth data from depth sensor converted to real world, performed the corrected angle, and then inverse converted to projective world. The proposed system make progress using the OpenCV and the window program, and we test a system using the Kinect in real time. In addition, designed using Verilog-HDL and verified through the Zynq-7000 FPGA Board of Xilinx.

디지털 영상 처리 분야에서 사람의 동작 인식은 다양하게 연구되고 있으며, 최근에는 깊이 영상을 이용한 방법이 매우 유용하게 사용되고 있다. 하지만 깊이 측정 센서의 위치와 각도에 따라 깊이 영상에서의 객체 크기나 형태가 왜곡되므로 사물 및 사람의 인식 과정에서 인식률이 감소하는 경우가 발생한다. 따라서 뛰어난 성능을 보장하기 위해서는 측정 센서에 의한 왜곡 보정은 반드시 고려되어야 할 사항이다. 본 논문에서는 동작 인식 시스템의 인식률을 향상시키기 위한 전처리 알고리즘을 제안한다. 깊이 측정 센서로부터 입력되는 깊이 정보를 실제 공간 (Real World)으로 변환하여 왜곡 보정을 수행한 후 투영 공간 (Projective World)으로 변환한다. 최종적으로 제안된 시스템을 OpenCV와 Window 프로그램을 사용하여 구현하였으며 Kinect를 사용하여 실시간으로 성능을 테스트하였다. 또한, Verilog-HDL을 사용하여 하드웨어 시스템을 설계하고, Xilinx Zynq-7000 FPGA Board에 탑재하여 검증하였다.

Keywords

References

  1. I. Benbasat, "HCI Research: Future Challenges and Directions," AIS Transactions on Human-Computer Interaction, vol. 2, no. 2, pp. 16-21, Jun. 2010. https://doi.org/10.17705/1thci.00011
  2. Hosang Cho, Kyounghoon Jang, Jeong-Ho Han, and Bongsoon Kang, "A Background Removal Scheme Based on a Running Average for Motion recognition Using Depth Information," ITC-CSCC 2013, pp. 474-476, Jun. 30-Jul. 3, 2013.
  3. Jihye Jeon, Daehee Kim, Yoongi Yang, Joonki Paik and Changsu Lee, "Image Distortion Compensation for Improved Gait Recognition," Journal of the Institute of Electronics Engineers of Korea, vol. 46, no. 4, pp.97-107, July. 2009.
  4. J. Biswas and M. Veloso, "Depth Camera Based Indoor Mobile Robot Localization and Navigation," Robotics and Automation (ICRA), IEEE International Conference on, pp. 1697-1702, May. 2012.
  5. R. Zhou, J. Wu, Q. He, C. Hu, and Z. Yu, "Approach of Human Face Recognition Based on SIFT Feature Extraction and 3D Rotation Model," Information and Automation (ICIA), 2011 IEEE International Conference on, pp. 476-479, Jun. 2011.
  6. M. A. Garcia and A. Solanas, "3D Simultaneous Localization and Modeling from Stereo Vision," Robotics and Automation, 2004. Proceedings. ICRA '04. 2004 IEEE International Conference on, vol. 1, pp. 847-853, May. 2004.

Cited by

  1. 3차원 점군데이터의 깊이 영상 변환 방법 및 하드웨어 구현 vol.18, pp.10, 2014, https://doi.org/10.6109/jkiice.2014.18.10.2443