DOI QR코드

DOI QR Code

Tracking and Recognition of vehicle and pedestrian for intelligent multi-visual surveillance systems

지능형 다중 화상감시시스템을 위한 움직이는 물체 추적 및 보행자/차량 인식 방법

  • Lee, Saac (Department of Computer Science & Engineering, Korea University of Technology and Education) ;
  • Cho, Jae-Soo (Department of Computer Science & Engineering, Korea University of Technology and Education)
  • Received : 2014.12.18
  • Accepted : 2015.01.19
  • Published : 2015.02.28

Abstract

In this paper, we propose a tracking and recognition of pedestrian/vehicle for intelligent multi-visual surveillance system. The intelligent multi-visual surveillance system consists of several fixed cameras and one calibrated PTZ camera, which automatically tracks and recognizes the detected moving objects. The fixed wide-angle cameras are used to monitor large open areas, but the moving objects on the images are too small to view in detail. But, the PTZ camera is capable of increasing the monitoring area and enhancing the image quality by tracking and zooming in on a target. The proposed system is able to determine whether the detected moving objects are pedestrian/vehicle or not using the SVM. In order to reduce the tracking error, an improved camera calibration algorithm between the fixed cameras and the PTZ camera is proposed. Various experimental results show the effectiveness of the proposed system.

본 논문에서는 지능형 다중 화상감시시스템에 응용할 수 있는 움직이는 물체 추적 및 보행자/차량 인식 방법을 제안한다. 지능형 다중 화상감시시스템은 다수의 고정형 카메라와 한 대의 PTZ 카메라로 구성되며, 고정형 카메라에서 검출된 움직이는 물체들을 PTZ 카메라로 팬/틸트/줌 제어하고, 보행자인지 또는 차량인지를 자동으로 인식한다. 넓은 영역을 감시하는 고정된 카메라에서 검출된 물체는 너무 작고, 변별력이 떨어지는 문제가 있다. 이러한 문제를 극복하기 위해 PTZ 카메라를 통한 특정 움직이는 물체를 팬/틸트/줌인 제어함으로써 움직이는 물체의 변별력과 감시성능을 높일 수 있다. 제안된 시스템은 움직이는 물체를 추적하는 기능 외에 SVM 학습알고리즘을 이용하여 검출된 물체가 보행자 또는 차량인지를 판단할 수도 있다. 그리고 추적에러를 줄이기 위해 기존의 고정된 카메라와 PTZ 카메라간의 캘리브레이션 방법을 개선한다. 다양한 실험결과를 통하여 제안한 시스템의 효용성을 입증하였다.

Keywords

Ⅰ. 서 론

최근 컴퓨팅 기기 및 촬영 장비의 발전과 함께 영상감시분야의 중요성이 증가하면서, 다양한 형태의 지능형 감시시스템들이 개발되고 있다. 실제 지능형 감시 시스템에 대한 관심과 연구는 지속적으로 증가하는 추세이다. TechNavio의 지능형 영상 분석 시장 동향[1]에 따르면 2013년부터 2018년까지 연평균 성장률이 34.12%에 달할 것으로 전망되고 있다. 이러한 지능형 감시시스템의 종류 중 하나인 그림 1과 같은 지능형 다중화상 감시시스템은[3] 기존의 단일 PTZ 카메라를 이용한 움직이는 물체 추적 시스템이 가지는 문제점을 해결할 수 있는 효과적인 감시 시스템이다. 기존의 단일 PTZ 카메라 추적 시스템의 경우 팬/틸트 제어는 어느 정도 좋은 성능을 보이지만, 줌 제어를 함께 하면서 움직이는 물체를 추적하는 것은 매우 어렵고 그 성능이 떨어지는 문제점이 있었다. 지능형 다중모드 화상감시 시스템은 다수의 고정형 카메라와 움직이는 물체의 변별력을 높이기 위한 한 대의 PTZ 카메라로 구성된다.

그림 1.지능형 다중화상 감시시스템의 예(쿼드모드) (a) 지능형 다중모드 화상감시 시스템 개념도 (b) 지능형 다중모드 화상감시 시스템(쿼드모드, 고정카메라 3대+PTZ 카메라 1대) 예 Fig. 1 Examples of intelligent multiple visual surveillance systems (a) Concept of intelligent multiple visual surveillance systems (b) Examples of intelligent multiple visual surveillance systems (Quad mode, Consist of three fixed cameras and a PTZ camera)

지능형 화상감시 시스템은 이동하는 객체를 정확히 탐지해야하며, 탐지된 객체가 어떤 종류인지 분류하는 것도 중요하다. 탐지된 움직이는 물체를 정확하게 분류함으로써 좀 더 지능적이고, 효율적인 화상감시 시스템이 될 수 있다. 현재까지 개발된 화상감시 시스템들은 일반적으로 움직이는 객체를 보행자 또는 차량과 같이 단일 대상으로 가정하고 추적하도록 구성[4]되어 있다. 이러한 시스템에서는 다양한 종류의 물체에 대한 우선 순위가 주어지지 않기 때문에 중요한 추적 대상을 놓치는 경우가 발생한다. 이러한 문제를 해결하기 위해 지능형 다중화상 감시시스템에서는 영상에서 발생하는 이동 물체들을 탐지하고 분류할 수 있는 기술을 필요로 한다.

본 논문에서는 지능형 다중모드 화상감시 시스템에서 필요한 기술인 지속적으로 배경영상을 업데이트하며 이동 중인 객체를 인식하는 방법을 새롭게 제시한다. 실외 환경에서 나타날 수 있는 객체의 종류는 크게 보행자, 차량 그리고 기타 대상으로 분류할 수 있으며, 보행자는 또한 단일 대상과 그룹 대상으로 나눌 수 있다. 이러한 대상들을 정확하게 인식하여 분류하고 추적할 수 있는 시스템을 만드는 것이 본 논문의 최종적인 목표이다.

본 논문의 2장에서는 제안하는 지능형 다중모드 화상감시 시스템의 전체적인 내용을 설명하며, 3장에서는 제안된 지능형 다중모드 화상감시 시스템의 실험 결과를 정리하였다. 마지막으로 4장에서는 본 시스템의 성능을 분석하고 추후 과제에 대해 기술한다.

 

Ⅱ. 지능형 다중모드 화상감시 시스템

2.1. 고정카메라와 PTZ 카메라간의 제어 캘리브레이션방법

고정카메라와 PTZ 카메라간의 캘리브레이션 방법[2]이란 고정카메라에서 탐지되고 추적되는 움직이는 물체들을 PTZ 카메라가 제어하기 위한 방법에 관한 것이다. 이전연구[3]의 듀얼모드 화상감시 시스템에서 개발된 두 카메라간 좌표변환 및 PTZ 제어 방법은 설치 환경에서 특징점이 없는 환경이나 또는 특징점 매칭이 잘 이루어지지 않는 환경에서는 두 카메라간 좌표변환에 대한 오차가 심하게 나타나고, 좌표변환에 대한 오차는 결국 추적카메라의 추적성능을 떨어뜨리는 문제점이 있었다. 본 논문에서는 좌표변환 없이 고정카메라 좌표에서의 직접적인 팬/틸트 제어변수를 활용한 들로내 삼각화 기법과 선형보간법을 통한 팬/틸트를 제어하는 방법을 제안한다. 여기서 들로네 삼각화란 평면위의 점들을 삼각형으로 연결하여 공간을 분할할 때, 이 삼각형들의 내각의 최소값이 최대가 되도록 분할하는 방법이다.

그림 2(a)는 먼저 다중모드 카메라 설치 시, 작업자가 고정카메라의 각 특징점들 (p1, p2, ⋯ , pN) 에 대하여 PTZ 카메라가 각 특징점들이 중심에 오도록하는 수동으로 제어변수들(Pan 제어변수, Tilt 제어변수)을 설정하는 과정을 보여주고 있다. 고정 카메라의 각 특징점 p1, p2, ⋯ , pN에 대해 PTZ 카메라를 수동으로 조정하여 해당 점이 PTZ 카메라의 중심에 오도록 수동으로 조정하고, 대응되는 팬/틸트 제어변수를 고정카메라 좌표의 특징점 좌표의 제어변수로 저장한다. 특징점을 선정하는 기준은 화면상의 윤곽이 명확하게 드러나는 코너점이며, 전체영역에 대해 균일한 분포를 가지도록 결정한다. 이와 같은 과정을 모든 특징점에 대해 수행하여 각 특징점 p1, p2, ⋯ , pN에 대응되는 PTZ 제어파라미터 c1, c2, ⋯ , cN를 얻게 된다. 만약 고정된 카메라의 새로운 좌표(pt)에 대한 제어변수는 그림 2(b)와 같이 그 주변의 세 점 pa, pb, pc 을 들로네 삼각화 방법을 통해 구하고, 세 점에 대응되는 제어변수 ca, cb, cc를 각 점과의 거리 비율을 이용한 선형보간법을 통해 새로운 좌표(pt) 제어변수 ct를 계산할 수 있다. 구해진 제어변수 ct만큼 PTZ 카메라를 움직이면 고정된 카메라의 pt좌표에서 검출된 움직이는 물체가 PTZ 카메라의 중심에 오게 제어할 수 있는 것이다.

그림 2.고정카메라와 PTZ 카메라간 제어 캘리브레이션 방법 (a) 좌표변환 없이 직접적인 팬/틸트 제어변수를 활용한 PTZ 카메라 제어 방법 (b) 새로운 고정카메라 좌표에 대한 팬/틸트 제어변수 계산 방법 Fig. 2 Calibration method for fixed and PTZ camera (a) Existing calibration method for fixed and PTZ camera (b) Proposed calibration method for fixed and PTZ camera

그림 3은 실제 다중 화상감시 시스템을 설치 시 PTZ 카메라 추적을 위한 고정 카메라와 PTZ 카메라간 제어캘리브레이션 과정을 좀 더 자세하게 정리한 것을 보여주고 있다. 기본 보정은 설치자가 최소한의 특징점(3개)만 수동으로 설치한 후, 상세보정 과정에서 수동 모드와 자동모드로 설정할 수 있다. 수동모드는 모든 특징점 제어 파라미터 설정을 수동으로 설정하는 것을 의미하고, 자동모드는 나머지 특징점 제어 파라미터 설정을 자동으로 설정하는 과정을 의미한다. 설치하는 환경에 따라서 수동모드 또는 자동모드를 선택할 수 있다.

그림 3.PTZ 카메라 추적을 위한 고정 카메라와 PTZ 카메라간 제어 캘리브레이션 과정 Fig. 3 The overall flow chart of the camera calibration

2.2. 고정카메라에서의 움직이는 물체검출 및 추적

감시 분야의 영상에서 이동하는 물체를 감지하고, 인식하는 것은 매우 중요하며, 이는 정확히 배경과 객체를 분리한다는 의미와 같다. 고정된 카메라 영상에서는 일반적으로 배경영상을 모델링하여 배경영상과 입력영상의 차영상 방식을 통해 움직임이 있는 물체를 탐지하고, 추적한다. 시작 영상을 배경 영상으로 사용하는 경우 장기적으로 움직임이 없이 고정되어 있던 물체가 움직일 경우 이전 영역을 움직이는 물체로 오검출하는 문제가 있다. 이전 영상을 사용하는 경우 두 영상 사이의 겹치는 영역에 비어있는 공간이 발생하고 실제 물체보다 크게 검출됨으로써 정확한 객체 영역을 검출하지 못하는 문제도 발생하기도 한다.

이러한 문제를 해결하기 위해 두 가지 방식을 혼합하여 배경 영상을 지속적으로 갱신하는 방법[5]이 연구되었다. 이 방식에서는 세 프레임간의 차분을 구하는 방식을 통해 온전한 객체의 영역을 계산한다. 또한 “이동픽셀”과 “부동 픽셀”이라는 개념을 통해 영상 전체의 픽셀들에 대해 움직임이 발생한 픽셀들을 정확히 구분한다.

시간 t=n에서 영상의 x 위치에 있는 픽셀을 In(x)로 가정했을 때 현재 영상(In(x))과 이전 영상(In-1(x)) 그리고 그 이전 영상(In-2(x))을 이용해 그림 4와 같은 상황을 만족하는 경우 픽셀 x가 움직임이 발생했다고 결정할 수 있다. Tn(x)는 x 좌표 상의 밝기값에 대한 임계값으로써 각 픽셀별로 임계값이 달라질 수 있으며, 초기에는 전체 영상에 대해 적당한 임의의 임계값을 부여한다.

그림 4.이동 픽셀을 결정하는 방법 Fig. 4 Method for determining the moving pixel

하지만 이렇게 구해진 이동 픽셀들은 하나의 객체 단위로 구성하기에는 균일한 픽셀 정보가 포함되지 않는다. 그렇기 때문에 비어있는 공간을 배제하고 검출된 각각의 이동 픽셀을 연결요소(Connected Components) 방식의 라벨링을 통해 각각의 객체 영역으로 분리한다. 하나의 검출된 객체영역을 R로 가정하고 이 영역에 있는 픽셀들을 식 (1)과 같이 각각의 움직이는 객체들을 입력영상(In(x))과 배경영상(Bn(x))의 차영상을 통해 최종적인 움직임이 있는 객체로 검출한다.

배경 영상 Bn(x)과 차영상에 대한 임계값인 Tn(x)은 k˂n에 대한 여러 영상들의 통계적 특성을 고려해 계산된다. 시작 배경 영상 B0(x)는 첫 번째 영상을 통해 생성되며, 즉 B0(x) = I0(x) 이다. 각 픽셀에 대한 임계치의 시작 값 T0(x)는 상황에 따라 0이 아닌 임의의 추정 값이 부여된다. B(x)와 T(x)는 다음 시간동안 식 (2), (3)과 같이 계산되어 갱신된다.

α는 시간 상수로써 갱신할 배경영상과 임계값에 현재 영상 정보를 얼마나 포함시킬지에 대한 가중치이며, 프레임 속도에 의해 α 값이 결정된다. 여기서 배경영상과 임계값은 x 위치의 해당 픽셀이 부동 픽셀일 때에만 갱신되며, 이동 픽셀에 대해서는 기존 값을 그대로 유지한다.

즉, 영상 전체가 동일하게 갱신되는 것이 아닌 이동이 발생되지 않은 위치에 대해서만 갱신하도록 한다. 수식에서 Bn(x)는 지역적인 밝기값의 평균을 나타내는 방식으로 갱신되며, Tn(x)는 지역적인 밝기값 표준편차에 5배를 한 값으로써 IIR(Infinite Impulse Response) 필터에 의해 계산된다. 그림 5는 실제 실험영상을 통해 이동 물체를 검출한 결과를 보여주고 있다.

그림 5.고정된 카메라에서의 이동 물체 검출의 결과 Fig. 5 Result of the moving object detection in the fixed camera

2.3. 움직이는 객체 분류

실외 환경 영상에서 검출될 수 있는 물체의 종류는 실내 환경에 비해 다양하다. 본 논문에서는 도로가 포함된 외부환경에서 검출된 이동물체를 대상으로 분류하기 때문이 이 대상을 명확하게 규정할 필요가 있다. 표 1은 실외 환경에서 검출될 수 있는 객체의 종류와 특징을 기술한 내용이다.

표 1.실외 환경에서 검출되는 객체의 종류와 특징 Table. 1 Characteristics of detected objects in the outdoor environment

객체의 종류는 분류 중요성이 가장 큰 보행자, 차량(승용차, 트럭, 오토바이 등), 기타(흔들리는 나뭇가지, 동물 등) 세 종류로 나누었으며, 객체들의 특징은 실외환경에서 나타나는 날씨의 변화, 시간의 변화에 무관한 특성들을 선택하였다. 이러한 종류의 객체들을 분류하기 위해 본 논문에서는 SVM(Support Vector Machine)[6]을 활용하였다. SVM은 학습데이터의 양이 제한되어있을 때 높은 효율을 보이는 분류 알고리즘이다. 본 논문에서는 실제 화상감시 시스템이 설치된 카메라에서 촬영된 영상을 통해 직접 학습 데이터를 수집하였다. 식 (4)와 같이 학습 데이터 수집을 위해 이동 물체 검출 알고리즘을 통해 이동 중인 2차원 상의 i번째 학습 샘플의 객체에 대해 종횡비 ARi, 면적 Ai, 밝기값 분산 , 속도 Vi을 계산한 벡터형식의 학습데이터를 저장한다.

종횡비(Aspect Ratio)는 객체 영역의 가로 크기와 세로 크기의 비율이며 1보다 클 경우 가로 크기가 크다는 것이고 1보다 작을 경우 세로 크기가 더 크다는 것을 의미한다. i번째 객체에 대한 종횡비는 식 (5)와 같이 계산한다.

여기서, Wi와 Hi는 각각 움직임 물체를 포함하는 사각형의 횡방향과 종방향의 크기를 의미한다.

면적(Area)은 객체 영역의 식 (6)과 같이 가로 크기와 세로 크기의 곱으로 계산하며 이는 객체가 영상에서 어떤 크기를 가지는지에 대한 값이다.

분산은 i번째 객체 영역의 밝기값이 얼마나 균일한지를 나타내는 값으로써, 객체 영역의 평균 밝기값과 각 픽셀에 대한 차의 절대값을 누적시킨 값이다. 값이 작을수록 해당 객체 영역이 균일한 밝기값을 가진다는 것이다. 마지막으로 객체분류를 위한 특징값으로 객체 속도 Vi는 식 (7)과 같다.

여기서, vx,vy는 이동 객체의 x, y 방향으로의 속도를 의미한다.

하나의 학습 샘플 객체에 대한 네 가지 특징값들은 평균적인 값이 1을 가지도록 정규화한다. 이러한 과정이 필요한 이유는 면적과 같이 비교적 큰 값을 가지는 특징값이 높은 가중치로 계산되는 것을 막기위해서이다. 기존에 구성된 학습데이터를 통해 현재 영상에서 발생하는 이동 객체들을 SVM 알고리즘으로 분류한다. 이동 객체의 종류는 총 10 프레임의 분류 결과를 통해 최대빈도를 발생시킨 대상으로 최종 분류한다.

2.4. 객체 추적 정책

하나의 검출된 이동 물체는 다음 프레임에서도 동일하게 존재할 가능성이 크다. 본 논문에서는 이러한 객체들의 정보를 유지하기 위해 기존 객체의 정보를 다음 프레임의 이동 물체에게 전달하기 위한 여러 가지 정책을 마련하였으며, 기본적인 순서는 그림 6과 같다.

그림 6.이동객체 추적에 대한 순서도 Fig. 6 Flowchart for the tracking of moving objects

우선 입력영상에서 이동물체를 탐지하여 대상이 기존 객체인지의 여부를 판단한다. 해당 이동 물체의 영역이 기존 객체와 50%이상 일치하는 경우 기존 객체로서 결정된다. 만약 기존 객체가 아니라면 SVM을 통한 분류 과정을 거친 후 현재 객체 정보에 추가 되고, 기존객체라면 이동 객체의 위치정보와 크기정보를 현재 객체 정보에 반영한다. 이후엔 배경영상과 임계값을 갱신하여 다음 프레임에 대한 이동 물체 탐지를 준비한다.

감시 영상에서 발생할 수 있는 다른 상황으로는 서로 다른 객체의 중복 문제와 기존 객체 정보의 미검출 문제가 있다. 서로 다른 객체의 중복문제는 그림 7과 같이 검출된 이동 물체 영역에 두 개 이상의 기존 객체 정보가 포함되는 경우이다. 이러한 상황에서는 이동 물체 정보를 반영하지 않고 기존 객체가 가지고 있던 속도 정보를 활용해 다음 위치를 예측한다. 만약 기존 객체의 정보가 검출된 이동물체 영역에 하나도 포함되지 않는 경우 20프레임간은 기존 객체의 속도 정보를 이용해 추적을 지속하지만 그 이후에도 이동물체가 검출되지 않는다면 해당 객체정보를 삭제한다.

그림 7.서로 다른 객체의 중복 문제 Fig. 7 Overlapping problem for different objects

 

Ⅲ. 실험결과

제안된 지능형 다중화상 감시 시스템의 성능을 실험하기 위해 그림 8과 같은 다중화상 감시 시스템(쿼드 모드(고정카메라 3대와 PTZ 카메라 1대))을 설치하여 실험하였다. 보행자와 차량, 기타 움직임이 발생하는 객체에 대해 각각 20개의 학습 데이터를 수집하였으며, 최대한 다양한 조건의 실외환경에서 촬영된 영상을 활용하였다. 표 2는 본 SVM 학습을 위해 구성한 학습데이터에서 각각의 종류별로 계산된 평균적인 특징 데이터를 보여주고 있다. 실제 학습데이터에서 객체의 종류별로 다른 종횡비, 면적, 분산, 속도 값을 가진다는 것을 확인할 수 있다. 실험 영상은 다중 화상 감시 시스템을 구성하는 카메라를 이용해 도로가 존재하는 실외 환경을 기준으로 다른 배율과 시간, 날씨 상황에서 영상을 획득하였다. 총 10개의 동영상에 대해 실험하였다.

그림 8.다중화상 감시 시스템 Fig. 8 Multi-visual surveillance system

표 2.학습 데이터의 평균적인 특징 데이터 값 Table. 2 Average feature data of training data

그림 9는 제안된 다중 화상감시 시스템을 이용하여 실제 움직이는 물체 검출 및 추적에 대한 결과 장면의 예이며, 총 4 회의 다른 시간에서 수행된 화면을 보여주고 있다. 각 영상에서 위쪽에 위치한 3개의 화면은 고정형 카메라의 영상이며, 아래쪽의 1개의 화면은 이동 물체을 지속적으로 추적하며 촬영하는 PTZ 카메라의 영상이다. 전체 실험 결과 영상은 다음 URL 사이트(http://youtu.be/3Y5uRlGL3Rk)에서 확인할 수 있다.

그림 9.움직이는 물체 검출 및 추적에 대한 실험 결과 Fig. 9 Experimental results for the detection and tracking of moving objects

그리고 보행자 검출 알고리즘과의 검출율, 오검출율 비교를 통해 제안하는 본 시스템의 보행자 분류 성능을 검증하였다. 표 3은 본 논문에서 제안한 분류방법과 비교할 기존의 네 가지 방법을 정리한 것이다. 각 알고리즘 별로 측정된 TP(True Positive)의 개수를 통해 실제 알고리즘에 대한 검출율을 계산하면 그림 10과 같다. 비교적 검출율이 좋은 C(HOG+Cascade) 알고리즘보다 본 논문에서 제안한 방법이 높은 성능을 보이는 것을 확인할 수 있다. 실제 보행자가 존재하는 전체 프레임에서 TP의 개수 비율을 통해 계산된 각 알고리즘에 대한 평균 검출율은 표 4와 같이 측정되었다. A, B 알고리즘은 모두 HOG+SVM을 사용하기 때문에 50% 정도의 비슷한 검출율을 보여주고 있으며, Haar+Cascade을 사용한 D 알고리즘은 20% 이내 의 매우 낮은 검출율을 보여준다.

표 3.네 가지 종류의 보행자 검출 방식 Table. 3 Four types of pedestrian detection method

그림 10.각 보행자 검출 알고리즘별 정검출율 비교 Fig. 10 Comparison of the pedestrian detection rate

표 4.보행자 검출 알고리즘별 평균 검출율 Table. 4 Average detection rate of pedestrian detection

자동차 검출 실험을 위해서는 총 7개의 동영상을 사용하였다. 차량이 식별되는 프레임에서 차량이 정확히 분류되는지 검증하기 위해 정검출, 오검출 횟수를 측정하였다. 표 5는 카메라 영상에서 측정되어야하는 차량의 총 프레임 수 2090장을 기준으로 분류된 측정 결과이다. 여기서 오검출 횟수는 해당 영상에서 차량이 아닌 대상을 차량으로 분류한 검출 횟수를 의미한다.

표 5.차량에 대한 분류 결과의 검출율과 오검출율 Table. 5 Detection rate and false detection rate of vehicle classification

 

Ⅳ. 결론 및 추후과제

본 논문에서는 지능형 다중 화상감시 시스템에 활용할 수 있는 고정 카메라와 PTZ 카메라간의 새로운 캘리브레이션 제어 방법과 고정 카메라에서 움직이는 물체를 검출하는 방법 그리고 검출된 객체를 분류하는 방법을 제안하였다.

제안된 지능형 다중화상 감시 시스템을 활용하여 고정된 카메라 영상의 이동 객체를 정확하게 검출하고, 분류한다면 불필요한 상황에서의 PTZ 카메라 동작을 줄일 수 있을 것이며, 이러한 감시 시스템의 설치 환경에 따라 원하는 대상(보행자, 차량)을 선택적으로 추적하도록 카메라 운용 정책을 설정할 수 있을 것이다. 이는 범죄를 예방하고 상황을 식별하는 유용한 정보로서 활용될 수 있다.

추후에는 객체 분류의 결과를 세 가지 종류가 아닌 대분류와 소분류를 나눠서 보행자는 솔로와 그룹, 차량은 차종에 따라 총 네 종류 이상의 검출 결과를 생성할 예정이다. 기존의 방식에 추가적인 특징정보를 활용한다면 이후 분류과정을 통해 다양한 객체를 분류할 수 있을 것으로 예상된다. 이렇게 실외환경에서 발생할 수 있는 다양한 객체를 분류한다면 감시시스템에서 중요한 대상으로 지정된 특정 객체를 집중적으로 감시하도록 정책을 구성하는 것도 가능할 것이다.

References

  1. TechNavio, "Global Intelligent Video Analytics Market 2014-2018", pp. 1-52, May. 2014.
  2. Z. Zhang, "A flexible new technique for camera calibration", IEEE Transactions on Pattern Analysis and aMachine Intelligence, vol. 22, no. 11 pp.1330-1334, 2000. https://doi.org/10.1109/34.888718
  3. G. S. Kim, S. Lee, J. S. Park, and J. S. Cho, "Study on Effective Visual Surveillance System using Dual-mode (Fixed+Pan/Tilt/Zoom) Camera", Journal of Institute of Control, vol. 18, no. 4, pp.650-657, 2012.
  4. A. Yilmaz, O. Javed, and M. Shah, "Object Tracking: A Survey", ACM Comput. Surv. 38, 4, Article 13, Dec. 2006. https://doi.org/10.1145/1177352.1177355
  5. Robert T. Collins, etc, "A System for Video Surveillance and Monitoring", The Robotics Institute, Carnegie Mellon University, Pittsburgh PA, 2000.
  6. Cortes, Corinna and Vapnik, "Support-Vector Networks", Machine Learning, 20, 1995. https://doi.org/10.1007/BF00994018
  7. N. Dalal and B. Triggs, "Histograms of oriented gradients for human detection", CVPR 2005.
  8. Q. Zhu, M.-C. Yeh, K.-T. Cheng, and S. Avidan. "Fast human detection using a cascade of histograms of oriented gradients", CVPR, 2006.
  9. P. Viola and M. J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", CVPR, 2001.
  10. H. Kruppa, M. Castrillon-Santana, and B. Schiele, "Fast and Robust Face Finding via Local Context.", Joint IEEE International Workshop on Visual Surveillance and Performance Evaluation of Tracking and Surveillance", 2003.

Cited by

  1. 감시 카메라와 RFID를 활용한 다수 객체 추적 및 식별 시스템 vol.6, pp.2, 2015, https://doi.org/10.3745/ktccs.2017.6.2.51
  2. 다수의 보행자 추적과정에서 특징정보를 이용한 보행자 검출 알고리즘 설계 vol.22, pp.4, 2015, https://doi.org/10.6109/jkiice.2018.22.4.641
  3. 영상정보에 기초한 전차 자율탐지 및 조준점탐색 연구 vol.27, pp.2, 2015, https://doi.org/10.9709/jkss.2018.27.2.001
  4. 실시간 객체 추적 기술을 활용한 스마트 케어 시스템에 대한 연구 vol.18, pp.6, 2015, https://doi.org/10.7236/jiibc.2018.18.6.243