3D feature point extraction technique using a mobile device

모바일 디바이스를 이용한 3차원 특징점 추출 기법

  • Published : 2022.10.03

Abstract

In this paper, we introduce a method of extracting three-dimensional feature points through the movement of a single mobile device. Using a monocular camera, a 2D image is acquired according to the camera movement and a baseline is estimated. Perform stereo matching based on feature points. A feature point and a descriptor are acquired, and the feature point is matched. Using the matched feature points, the disparity is calculated and a depth value is generated. The 3D feature point is updated according to the camera movement. Finally, the feature point is reset at the time of scene change by using scene change detection. Through the above process, an average of 73.5% of additional storage space can be secured in the key point database. By applying the algorithm proposed to the depth ground truth value of the TUM Dataset and the RGB image, it was confirmed that the\re was an average distance difference of 26.88mm compared with the 3D feature point result.

본 논문에서는 단일 모바일 디바이스의 움직임을 통해 3차원 특징점을 추출하는 방법에 대해 소개한다. 단안 카메라를 이용해 카메라 움직임에 따라 2D 영상을 획득하고 Baseline을 추정한다. 특징점 기반의 스테레오 매칭을 진행한다. 특징점과 디스크립터를 획득하고 특징점을 매칭한다. 매칭된 특징점을 이용해 디스패리티를 계산하고 깊이값을 생성한다. 3차원 특징점은 카메라 움직임에 따라 업데이트 된다. 마지막으로 장면 전환 검출을 이용하여 장면 전환시 특징점을 리셋한다. 위 과정을 통해 특징점 데이터베이스에 평균 73.5%의 저장공간 추가 확보를 할 수 있다. TUM Dataset의 Depth Ground truth 값과 RGB 영상으로 제안한 알고리즘을 적용하여 3차원 특징점 결과와 비교하여 평균 26.88mm의 거리 차이가 나는것을 확인하였다.

Keywords

Acknowledgement

본 연구는 문화체육관광부 및 한국콘텐츠진흥원의 2021년도 문화기술 연구개발사업으로 수행되었음(과제명 : 1인 기업 및 소상공인의 문화상품 유통을 위한소셜 XR 쇼룸 기술 개발(2차년도))