DOI QR코드

DOI QR Code

Low-Complexity Handheld 3-D Scanner Using a Laser Pointer

단일 레이저 포인터를 이용한 저복잡도 휴대형 3D 스캐너

  • Lee, Kyungme (Dept. of Media Software, SangMyung University) ;
  • Lee, Yeonkyung (Dept. of Media Software, SangMyung University) ;
  • Park, Doyoung (Dept. of Media Software, SangMyung University) ;
  • Yoo, Hoon (Dept. of Media Software, SangMyung University)
  • Received : 2014.08.27
  • Accepted : 2015.02.04
  • Published : 2015.03.01

Abstract

This paper proposes a portable 3-D scanning technique using a laser pointer. 3-D scanning is a process that acquires surface information from an 3-D object. There have been many studies on 3-D scanning. The methods of 3-D scanning are summarized into some methods based on multiple cameras, line lasers, and light pattern recognition. However, those methods has major disadvantages of their high cost and big size for portable appliances such as smartphones and digital cameras. In this paper, a 3-D scanning system using a low-cost and small-sized laser pointer are introduced to solve the problems. To do so, we propose a 3-D localization technique for a laser point. The proposed method consists of two main parts; one is a fast recognition of input images to obtain 2-D information of a point laser and the other is calibration based on the least-squares technique to calculate the 3-D information overall. To verified our method, we carry out experiments. It is proved that the proposed method provides 3-D surface information although the system is constructed by extremely low-cost parts such a chip laser pointer, compared to existing methods. Also, the method can be implemented in small-size; thus, it is enough to use in mobile devices such as smartphones.

Keywords

1. 서 론

3D 스캔이란 물체의 3차원 정보를 획득하는 기술이다. 3차원 정보 획득기술은 물체의 밀도 등 내부의 3차원 화소(voxel)를 추정하는 기술과 물체의 표면정보를 획득하는 기술로 구분된다[1]. 3차원 화소를 추정하는 기술은 주로 CT(computed tomography), MRI (magnetic resonance imaging) 등에서 사용되고 3D 스캔에서는 물체의 표면 정보를 획득하는 기술이 사용된다. 기존의 이미지 센서(image sensor)는 깊이정보가 없는 2차원 정보만을 인식 할 수 있다. 이 방식은 영상을 통해 실제 세계를 인지하는 능력에 제한한다. 제한을 극복하고자 과거 수십 년 간 물체의 표면 정보 획득에 대한 연구가 계속 되었고 [1], 기술의 발전과 컴퓨터의 성능의 증가로 물체의 3차원 표면 정보를 획득하는 하드웨어 장비들이 저렴해지고, 연산환경이 개선되고 있다.

3D 스캔을 통해 물체의 표면 정보를 획득 하는 방법은 여러가지 방법이 존재한다. 레이저를 이용하는 방식과 패턴을 이용하는 방식, 그리고 스테레오 카메라 방식 등이 물체의 표면정보를 획득하는 대표적인 방식이다[2-6]. 3D 스캔의 목표는 실제 물체의 표면정보를 정확하게 획득하는 것이다[7]. 레이저를 이용한 방식이 가장 정확하게 3D 표면 정보를 획득하지만 스캔하는 시간이 필요하고, 정밀한 기계장비가 필요하여 고해상도의 정지된 물체에만 적용하고 있다[8]. 그래서 레이저를 이용한 방식보다 효율적인 방식으로 패턴을 인식하는 방법이 연구 되었다. 패턴을 인식하여 물체의 표면정보를 획득하는 방식은 광원과 카메라를 일정 간격으로 배치한 뒤 물체의 깊이 정보에 따라 변화 하는 패턴의 왜곡율을 이용하여 카메라와 물체 사이의 거리를 측정한다. 사용하는 패턴은 색상이나 형태의 단순한 패턴부터 복잡한 패턴까지 다양하게 사용한다[9-10]. 하지만 이 방식은 카메라와 패턴의 광원이 일정한 각도를 유지해야 하는 특징 때문에 큰 물체를 스캔하는 경우 장치의 크기가 함께 커져야 한다는 단점이 존재한다[8]. 3차원 정보를 획득하는데 있어서 스마트폰과 같은 모바일 단말기를 활용하고자 하는 필요성이 증대되고 있다. 3차원 인터렉션을 이용한 다양한 UI나 게임 소프트웨어에서 3차원의 정보는 점점 더 요구되고 있다.

따라서, 제안하는 방법은 시중에서 쉽게 접할 수 있는 저가형 포인트 레이저를 통해 물체와의 거리정보를 획득하는 것이다. 이 방법은 하나에 카메라를 사용하여 레이저 포인터의 위치를 추적하고 그 결과로 물체의 거리정보를 획득하는 것이다. 레이저 포인터를 통해 3차원 위치를 추정하기 위해서, 먼저 영상처리 기법을 이용하여 레이저 포인터의 2차원 위치를 인식한다. 또한 고속으로 3차원 정보를 추출하기 위해서 레이저 포인터의 입력 영상내에서의 위치 변동과 깊이 정보에 대한 매핑관계를 정의한다. 여기서 매핑관계의 관계식은 최소자승(least-squares) 기법에 의해서 얻어진다. 레이저 포인터의 2차원 위치는 두 장의 입력 영상으로부터 정의될 수 있다. 즉, 이전 영상과 현재의 영상에서 움직임 정보를 추정함으로써 레이저 포인터의 이동 정보 즉 2차원 공간 정보를 추정한다. 카메라의 이동 정보를 추정하기 위해서는 두 영상간의 전역 움직임을 추정해야한다. 이는 상당히 많은 연산량을 요구할 수 있다. 따라서 본 논문에서는 이를 초고속으로 처리하기 위해서 3단계 탐색(three step search)을 통해 추정한다[11-12]. 또한 입력 영상 안에서 레이저 포인터의 위치를 추정하기 위해서 이진화(thresholding)와 레이블링(labeling)을 사용하고 획득한 포인트의 위치 값을 가지고, 이를 최소자승 관계식에 의해서 얻어진 맵핑 테이블에 매핑시켜 깊이정보를 추정한다. 레이저 포인터를 이용해서 3차원 표면 정보를 얻을 수 있는지에 대한 검증하기 위해 다양한 실험을 수행하고 결과 영상을 제공한다.

본 논문의 구성은 다음과 같다. 2장에서는 표면 정보를 획득하는 기존 방법에 대해서 설명하고 3장에서는 레이저 포인터를 이용한 저비용 3차원 스캐너 구현을 위한 새로운 방법을 제시하고 4장에서는 실험 과정 및 결과를 제시한다.

 

2. 표면정보를 획득하는 기존 방법

3D 스캐너는 물체의 3차원 표면정보 (x, y, z)를 획득하는 것이다. 물체의 표면정보를 획득하는 방법은 투영(projection) 방식과 스테레오 카메라(stereo camera) 방식으로 나뉜다. 투영 방식은 그림1의 (a)처럼 측정하고자 하는 물체에 빛의 패턴을 투사하고, 카메라로 그 영상을 입력받아 왜곡된 빛의 패턴을 이용하여 깊이 정보를 추출해 내는 것이며, 스테레오 카메라 방식은 그림1의 (b)처럼 서로 다른 위치에서 입력받은 두 장의 영상에서 나타나는 물체의 위치 차이를 이용하여 물체의 3d 정보를 추정한다.

그림 1표면정보 획득 방법 (a) 패턴 투영 (b) 스테레오 카메라 Fig. 1 Acquisition method of surface information (a) pattern projection (b) stereo camera

2.1 패턴 투영법

패턴 투영법은 물체에 빛의 패턴을 투영하여 얻은 영상을 이용하는 방식이다. 빛의 패턴과 패턴을 물체에 투영하였을 때 그림 2와 같은 모습을 확인할 수 있다. 그림 2의 (a)는 일반적인 패턴의 모습이며, 빈 공간에 빛을 투사하였을 때 얻는 영상의 패턴과도 유사하다. 그림 2의 (b)는 굴곡이 있는 물체에 빛을 투사한 모습이며, 물체의 굴곡에 따라 왜곡된 빛의 패턴을 확인할 수 있다.

그림 2패턴 투영 (a) 패턴 (b) 패턴의 왜곡현상 Fig. 2 Pattern projection (a) pattern (b) distorted pattern

투영 방식은 이원 패턴(binary pattern), 회색 단계 패턴 (grey-level pattern), 격자무늬 패턴(grid pattern)등 다양한 패턴이 사용되고, 그림 3과 같은 원리를 사용하여 깊이정보 (z)를 획득한다. 그림 3에서 깊이정보 Z를 획득할 때 삼각함수를 이용한다. 깊이정보 Z를 구하는 식은 아래 (1)과 같으며, 삼각형의 카메라와 프로젝터 사이의 거리 B와 왜곡된 정도 d의 비율을 이용하여 깊이정보 Z를 구한다[1].

그림 3패턴 프로젝션 방식의 기본 원리 Fig. 3 Principle of pattern projection

2.2 스테레오 카메라

스테레오 카메라 방식은 다른 각도에서 촬영된 영상에서 나타난 물체의 위치 차이(disparity)를 가지고 에피폴라 기하학(epipolar geometry)을 이용한다. 스테레오 카메라를 이용하여 깊이정보를 획득하기 위해서는 먼저, 두 스테레오 카메라의 켈리브레이션(calibration) 과정이 필요하다. 스테레오 카메라 방식은 켈리브레이션의 결과에 의해 획득한 3차원 표면정보의 정확도가 크게 좌우되므로 켈리브레이션 과정이 중요하다. 켈리브레이션 과정은 카메라의 특징이 3차원 공간상의 점들을 2차원 평면에 투영함으로써 얻어진다는 점을 이용하여 모델링한 변환관계의 파라미터를 찾는 과정으로, 파라미터의 종류에는 외부 파라미터와 내부 파라미터가 있다. 이때, 외부 파라미터는 카메라의 방향, 카메라 사이의 거리 등이며 내부 파라미터는 초점거리(focal length), 주점(principal point) 등이 있다. 특히 카메라를 통하여 영상을 얻을 때 생기는 기하학적 왜곡(geometric distortion)을 해결하는 것이 켈리브레이션 과정에서 가장 중요한데, 이 왜곡은 두 영상 사이의 기하학적 관계를 통해 구할 수 있는 기본행렬(fundamental matrix)이나 카메라의 내부 파라미터를 이용하여 구할 수 있는 핵심행렬(essential matrix)을 이용한다. 행렬을 이용하여 영상의 왜곡을 해결한 후, 두 카메라에서 획득한 영상에서 물체의 위치 차이를 이용하여 깊이정보를 구한다.

그림 4는 스테레오 카메라로 영상을 획득할 때의 기본 원리를 나타낸 것이며, 식 (2)는 그림 4의 스테레오 카메라를 이용하여 깊이정보를 획득하는 식이다. f는 카메라 렌즈의 초점거리이며 e는 카메라 사이의 거리, p는 영상의 가로 길이, σ는 영상에서 나타나는 물체간의 위치 차이를 나타낸다[13].

그림 4스테레오 카메라 방식의 기본 원리 Fig. 4 Principle of stereo camera

 

3. 제안하는 방법

제안하는 방법에서는 포인트 레이저와 단일 카메라로 물체의 깊이 정보를 추정한다. 그림 5는 포인트 레이저를 이용해서 물체의 깊이 정보를 추정하는 전체 과정이다. 참조 영상과 영상으로부터 추출한 데이터를 기반으로 포인트 레이저를 이용하여 깊이 정보를 추정하는데 필요한 매핑테이블(mapping table)을 전처리(preprocessing) 과정에서 생성한다. 생성 후 실제 물체 촬영이 시작되면 촬영하는 각 위치에 대한 물체의 3차원 (x, y, z)정보를 매핑테이블을 통해 추정한다. (x, y)정보는 연속된 영상에서의 위치변화에 따른 상관관계를 통해 추정 하며, (z)정보는 포인트 레이저의 위치 정보를 전처리 과정에서 획득한 매핑테이블에 적용시켜 추정한다.

그림 5깊이정보 추정 순서도 Fig. 5 Flow chart for depth data acquisition system

3.1 매핑테이블을 구하기 위한 전처리

일반적인 전처리 과정은 카메라에 대한 캘리브레이션 작업이다. 캘리브레이션 작업은 2.2에서 언급한것과 같이 매우 복잡한 과정이기 때문에, 단순하고 쉽게 진행하기 위해서 매핑테이블을 만들게 된다. 매핑테이블은 카메라에 부착하는 레이저포인터의 위치, 각도에 따라 변경되기 때문에 스캔을 시작하기 전에 반드시 거쳐야 하는 과정이며, 하드웨어에 따라 다른 매핑테이블을 가진다. 매핑테이블은 카메라에 나타나는 레이저 포인터의 위치를 모델링한 결과로, 카메라와 물체의 거리에 따라 변화하는 레이저포인터의 위치를 나타내게 된다. 매핑테이블을 만드는 과정은 카메라에 레이저포인터를 부착한 하드웨어를 통해 촬영한 영상에서 물체와의 거리에 따라 변화하는 레이저 포인터의 위치를 이용하여 진행된다.

그림 6은 물체의 거리 변화에 따른 영상에서의 포인트 레이저의 위치에 대하여 설명한다. 물체가 기준 거리보다 가까워지면 포인트 레이저는 영상의 중심보다 아래로 내려간 그림 6의 (b)의 모습이 된다. 이와 반대로 물체가 기준 거리보다 멀어지게 되면 포인트 레이저는 영상의 중심보다 위쪽에 위치하여 그림 6의 (c)와 같은 모습이 된다. 이는 물체의 깊이에 따라서 물체에서의 카메라 중심 위치가 달라지기 때문이다. 물체와의 거리에 따라 포인트 레이저의 위치가 변하기 때문에 거리와 포인트 레이저의 위치사이의 관계식을 도출하면 포인트 레이저의 위치에 따른 물체의 깊이 정보를 추정할 수 있다.

그림 6깊이정보 변화에 따른 화면에서의 포인트 레이저 위치의 변화 (a) 중심 위치 (b) 가까이 있을 때 위치 (c) 멀리 있을 때 위치 Fig. 6 Positions of a laser pointer in image while adjusting real depth. (a) Center position (b) Closer position (c) Further position

관계식을 도출하는 방법으로는 최소자승법(least squares)을 사용한다. 최소자승법은 샘플 데이터를 이용하여 데이터에 해당하는 함수식을 도출 하는 방식이다. 함수식을 모델링하여 모델링한 함수식에 최소자승법을 이용한다. 모델링에 사용된 함수식은 아래 식(3)과 같다.

모델링한 함수식에 대하여 최소 자승법을 이용하여 a, b를 추정하여 포인터의 위치 x와 물체와의 거리 y에 관한 매핑테이블을 얻는다. 이때 a, b를 추정하는 과정은 다음과 같다. 먼저 식 (3)을 아래 식 (4)과 같이 양 변에 x를 곱해준다.

최소자승법을 사용하기 위해 n개의 데이터를 가지는 일반적인 식으로 나타내면 다음 식 (5)와 같으며 행렬식으로 표현하면 다음 식 (6)과 같다.

이 식 (6)을 각각 아래와 같이 재정의 하였을 때 다음 식 (7)과 같다. 이는 최소자승법으로 아래 식 (8)과 같이 정의된 a, b를 구할 수 있다.

따라서 최소자승법에 의해 구한 a와 b를 식(3)에 적용하여 매핑테이블을 완성한다.

3.2 3차원 정보 추정 과정

하드웨어에 알맞은 매핑테이블이 완성되면 본격적인 스캔 과정에 들어간다. 이 과정은 그림 7에서와 같이 크게 세가지 과정으로 나눌 수 있다. 첫 번째, 카메라의 움직임을 추정해서 스캔하는 포인트 위치의 상대적인 x, y 값을 찾는 과정과 두 번째, 레이저 포인터의 위치를 찾고 세 번째, 매핑테이블에 매칭시키는 것이다. 두 번째와 세 번째 과정은 카메라와 포인트 위치 사이의 거리 (z)정보를 획득하기 위한 과정이다. 추출해낸 포인터의 위치는 카메라 중심점인 한 점에 대해서 나타내는 정보이므로 카메라를 x, y 방향으로 움직이면서 한 장의 입력영상에서 (x,y,z)정보를 추출하면 다음 영상에 대하여 (x,y,z)를 추출할 수 있도록 이 과정을 반복 수행한다. 물체에 대한 촬영이 끝나면 반복적으로 획득한 (x,y,z)정보를 통합하여 저장하고, 이 정보를 토대로 화면에 촬영 결과를 표시하게 되면 물체의 표면 곡선이 나타나게 된다.

그림 73D 스캐너 동작 과정 Fig. 7 Flow chart for 3D scanner processing

3.3 x,y 위치정보 추정

x, y 위치정보 추정의 경우 연속된 영상의 상관관계를 이용하여 카메라의 x, y방향의 움직임을 고려하여 추정한다. 그림 8은 카메라의 움직임에 따른 영상 내에서의 물체의 위치 변화를 나타낸다.

그림 8카메라 움직임에 따른 물체의 위치 변화 Fig. 8 Object positions varied by camera movement

그림 9은 3단계 탐색의 탐색과정을 나타낸다. 3단계 탐색을 수행하는 방법은 원본영상을 2번 각각 2:1로 축소(down sampling) 한 영상에서 블록 매칭을 수행하며 이때 실시간으로 영상을 입력받기 때문에 영상의 변화범위가 크지 않아 검색범위는 실험에 의하여 -5~5로 설정하였다. 2번 축소된 영상에서 블록 매칭을 수행하여 대략적인 위치를 찾은 뒤 1번 축소된 영상에서는 2번 축소된 영상에서 찾은 위치와 주변 8점을 포함한 총 9점에서 블록 매칭을 수행하여 위치의 정확성을 높인다. 원 영상에서 최종적으로 1번 다운샘플링 한 영상에서 얻어진 위치와 그 주변 8점을 포함한 9점에서 블록 매칭을 수행하여 정확한 위치를 찾아낸다.

그림 93단계 탐색을 사용한 x, y 위치 획득 과정 Fig. 9 Acquisition of x,y position using 3-step search

3.4 z 위치정보 추정

3차원 정보 중 z 위치정보 추정은 획득한 영상에서의 포인트 레이저의 위치와 전처리 과정에서 만들어진 매핑테이블을 사용한다. 깊이 정보를 추정하는 과정은 그림 10과 같이 레이저 포인터의 위치를 구하는 이진화와 레이블링 과정을 거쳐 레이저 포인터의 위치를 매핑테이블에 매칭시켜 깊이정보를 추정하는 과정으로 구성된다.

그림 10z 정보 획득 흐름도 Fig. 10 Flow chart for z data acquisition

포인트 레이저의 위치를 파악하기 위해서 먼저 그림 11과 같이 영상의 이진화를 수행한다. 인식률을 높게 하기 위해 높은 임계값을 이용하여 이진화한다. 그림 11의 (a)는 원 영상이며 영상내에서 포인트 레이저는 원 영상을 확대한 그림 11의 (d)와 같다. 그림 11의 (d)를 통해 포인트 레이저가 R값을 많이 가지고 있을 것이라고 판단하여 R Plane에 대하여 이진화를 수행한다. 그림 11의 (b)는 R Plane만을 추출한 영상이며 그림 11의 (c)는 그림 11의 (b)의 이진화 결과영상이며, 그림 11의 (e)는 원 영상을 흑백으로 바꾸었을 때의 영상이며 그림 11의 (f)는 흑백영상에서의 이진화 결과영상이다. 같은 임계 값 200으로 설정하였을 때 그림 11의 (b)처럼 R Plane만을 추출하였을 경우가 더욱 포인트 레이저의 위치를 정확히 찾아내는 것을 확인할 수 있다.

그림 11흑백 평면과 Red 평면 이진화 비교 (a) 원본 영상 (b) R 평면 영상 (c) R 평면 이진화 (임계값 200) (d) 포인트 레이저 (e) 흑백 영상 (f) 흑백 영상 이진화(임계값 200) Fig. 11 Comparison of thresholding between R plane and Gray plane (a) Original image (b) R plane image (c) Thresholded R plane (threshold=200) (d) Laser point image (e) Gray image (f) Thresholded gray image (threshold=200)

R평면에서 이진화를 수행한 영상에서 레이블링을 사용하여 영역의 정보들을 수집 한다. 높은 임계값으로 이진화한 영상에서 레이블링을 수행하기 때문에 값을 가지는 영역이 거의 없고, 작은 영역들은 잡음(noise)일 가능성이 높다. 따라서 가장 큰 영역을 포인트 레이저의 영역이라고 가정한다. 레이블링을 통해 얻어진 가장 큰 영역에서 포인트 레이저의 중심을 구한다. 그 후 전처리 과정에서 구한 매핑테이블에 중심 값을 매칭하여 실제 깊이정보를 추정한다. 매핑테이블에 깊이정보를 매칭할 때에는 포인트 레이저의 y좌표 값을 매핑테이블의 x에 대입 하여 깊이 정보를 추정한다.

 

4. 실험 결과

그림 12와 같이 하드웨어를 구성해서 실험을 진행하였다. 카메라와 레이저포인터의 위치, 각도에 따라서 매핑테이블이 변하기 때문에 실험용 하드웨어를 제작하여 실험을 진행하였다. 하드웨어는 웹캠과 레이저 포인터를 고정시켜 구성하였다. 카메라와 레이저 포인터 사이의 거리는 약 15cm 이고, 카메라와 레이저 포인터의 각도는 약 25도로 하였다.

그림 12실험에 사용한 하드웨어 Fig. 12 Hardware used in experiments

입력받는 영상의 크기는 800×600을 사용하고 카메라는 2차원 (x, y)로만 움직인다고 가정하였다.

가장 먼저 실험에서 사용하는 하드웨어에 대한 매핑테이블을 만드는 전처리 과정을 수행하였다. 전처리 과정은 3.1에서 제안하는 방법을 사용하였고, 그 과정은 그림 13과 같이 진행되었다. 카메라와 물체 사이의 간격을 일정하게 증가시키면서 영상을 획득하고, 획득한 영상의 레이저 포인터 위치와, 카메라와 물체사이의 실측거리를 가지고 표 1과 같은 데이터를 생성한다.

그림 13Mapping table을 구하기 위한 실험 영상 (a) 20cm (b) 35cm (c) 50cm Fig. 13 Test images for mapping table (a) 20cm (b) 35cm (c) 50cm

표 1의 데이터를 식(3)과 같은 관계식으로 모델링하여 계수를 구한다. 위 식에서 x는 포인트 레이저의 y축 정보이고 수식에서의 y는 깊이정보 (z)를 나타낸다. 표1의 데이터를 가지고 최소자승법을 사용하여 매핑테이블의 계수인 (a, b)를 구하여 관계식을 완성한다. 표 1의 데이터를 기준으로 최소자승법의 결과인 계수 값은 a = 14042.016, b = −10.826가 된다.

표 1그림 13의 실험을 통해 얻은 데이터 Table 1 Resulting data from the experiment of Fig.13

완성된 매핑테이블은 그림 14와 같이 표현할 수 있으며, 앞에서 언급한 3.2의 3차원 정보 추정 과정을 통해 촬영을 진행 할 때, 레이저 포인터 위치 획득 후 매핑테이블을 매칭 할 때 사용한다. 획득한 레이저 포인터의 y좌표 값을 입력하여 카메라와의 거리를 추정하게 된다. 예를 들어, y좌표가 261일때는 카메라와 측정한 위치사이의 거리가 42.97483(cm)로 추정할 수 있고, y좌표가 438 일때는 21.2334(cm)로 추정할 수 있다.

그림 14최소자승기반 매핑테이블 그래프 Fig. 14 Mapping table graph based on least-squares

그림 15는 실험에 사용한 스캔 물체와, 그 결과 영상을 나타낸 영상이다. 복잡한 캘리브레이션 과정을 단순화하여 매핑테이블을 생성한 후 레이저 포인터만을 사용하여 3d 스캔과정을 진행하여도 물체 표면의 굴곡이 잘 나타나는 것을 확인할 수 있다. 그림 15의 (b)는 그림 15의 (a)를 가로로 스캔하여 얻은 결과영상이며, V자 특징이 잘 나타난 것을 확인할 수 있고, 그림 15의 (d)는 (c)의 측면을 스캔하여 얻은 결과이며. (c)측면의 굴곡이 잘 나타난 것을 확인할 수 있다.

그림 15물체 스캔 결과 (a) 물체 1 (b) (a)의 스캔결과(top view) (c) 물체 2 (d) (c)의 스캔결과(left side view) Fig. 15 Results of scanning (a) object 1 (b) Scan result (a) (top view) (c) object 2 (d) Scan result (c) (left side view)

단순한 형태의 물체의 경우, 여러 번 스캔을 통해서 전체 모습을 스캔할 수 있다. 그림 15의 (a)의 스캔 결과를 메시(mesh) 형태로 표현한 모습은 그림 16과 같다. 그림 16에서 확인할 수 있듯이 여러 번 스캔을 했을 경우에도 전체적으로 V자 특징이 잘 나타나 있는 것을 확인할 수 있다.

그림 16그림 15의 (a)를 mesh형태로 나타낸 모습 (a)우 (b)위 (c)좌 Fig. 16 The mesh image of Fig 15. (a) right side (b) top (c) left side

 

5. 결 론

본 논문은 포인트 레이저를 이용한 3D 스캐너를 제안하였다. 제안하는 방법은 단일 카메라와 단일 포인트 레이저를 사용하는 환경에서 영상 내에서의 포인트 레이저의 위치변화를 통해 깊이정보를 추정하는 방식이다. 깊이정보를 추정하기 위해 최소 자승법을 이용하여 포인트 레이저의 위치와 깊이정보 사이의 관계식을 도출하였다. 3단계 탐색 방법을 사용하여 카메라의 (x, y)정보의 변화량을 추정하였고 (z)정보는 포인트 레이저의 중심 값을 전처리 과정을 통해 생성된 매핑테이블에 매칭하여 추정하였다. 실험을 통하여 제안하는 방법으로 물체의 표면 정보가 추정 되는 것을 확인하였다. 단일카메라와 포인트 레이저를 이용하여 장치를 구성함으로서 기존 방식들의 가격과 크기의 문제를 개선하였다. 또한 제안하는 방식으로 스캐너를 제작할 경우 일반 개인용 컴퓨터는 물론 모바일 폰의 카메라를 이용하여 레이저 포인터를 앱세서리 형식으로 부착시켜 스캐너의 기능을 동작 할 수 있을 것으로 기대된다.

References

  1. J. Geng, “Structured-light 3D surface imaging: a tutorial,” Advances in Optics and Photonics, vol. 3, no. 2, pp. 128-160 2011. https://doi.org/10.1364/AOP.3.000128
  2. C. Rocchini, P. Cignoni, C. Montani, P. Pingi, and R. Scopigno, “A low cost 3D scanner based on structured light,” Computer Graphics Forum, vol. 20, no. 3, pp. 299–308, Sep. 2001. https://doi.org/10.1111/1467-8659.00522
  3. J. Batlle, E. Mouaddib, and J. Salvi, “Recent progress in coded structured light as a technique to solve the correspondence problem: A survey,” Pattern Recognition, vol. 31, no. 7, pp. 963-982, Jul. 1998. https://doi.org/10.1016/S0031-3203(97)00074-5
  4. F. Blais, “Review of 20 years of range sensor development,” Journal of Electronic Imaging, vol. 5013, pp. 62-76, Jan. 2003.
  5. T. Higo, Y. Matsushita, N. Joshi, and K. Ikeuchi, “A hand-held photometric stereo camera for 3-D modeling,” Computer Vision, 2009 IEEE 12th International conference, pp. 1234-1241, Sep. 2009.
  6. D. Scharstein and R. Szeliski. “A taxonomy and evaluation of dense two-frame stereo correspondence algorithms,” International journal of computer vision, vol. 47, no. 1-3, pp. 7-42, Apr. 2002. https://doi.org/10.1023/A:1014573219977
  7. M. Levoy, K. Pulli, B. Curless, S. Rusinkiewicz, D. Koller, L. Pereira, M. Ginzton, S. Anderson, J. Davis, J. Ginsberg, J. Shade, and D. Fulk, “The digital Michelangelo project: 3D scanning of large statues,” SIGGRAPH ‘00 Proceedings of the 27th annual conference Computer graphics and interactive techniques, pp. 131-144, 2000.
  8. M. Morimoto and K. Fujii, “A portable 3D scanner based on structured light and stereo camera,” Communications and information Technology, vol. 1, pp. 569-572, Oct. 2005.
  9. J. Salvi, J. Pages, and J. Baltlle, “Pattern codification strategies in structured light systems,” Pattern Recognition, vol. 37, no. 4, pp. 827-849, Apr. 2004. https://doi.org/10.1016/j.patcog.2003.10.002
  10. R. A. Moraqno and C. Ozturk, “Structured light using pseudorandom codes,” Pattern Analysis and Machine Intelligence IEEE Transaction, vol. 20, no. 3, pp. 322-328, Mar. 1998. https://doi.org/10.1109/34.667888
  11. L. Renxiang, B. Zeng, and M. L. Liou. “A new three-step search algorithm for block motion estimation,” IEEE Trans. Circuits and Systems for Video Tech., vol. 4, no. 4, pp. 438-442, Aug. 1994. https://doi.org/10.1109/76.313138
  12. B. Liu and A. Zaccarin “New fast algorithm for estimation of block motion vectors”, IEEE Trans. Circuits and Systems for Video Tech., vol. 3, no. 2, pp. 148-157 Apr. 1993. https://doi.org/10.1109/76.212720
  13. A. Bensrhair, M. Bertozzi, A. Broggi, P. Miche, S. Mousset, and G.Toulminet, “A Cooperative Approach to vision-based Vehicle Detection,” IEEE Intelligent Transportation Systems Conference Proceedings, pp. 209-214, Aug. 2001.