DOI QR코드

DOI QR Code

An Intelligent Fire Leaning and Detection System

지능형 화재 학습 및 탐지 시스템

  • Cheoi, Kyungjoo (Dept. of Computer Science, Chungbuk National University)
  • Received : 2015.01.06
  • Accepted : 2015.03.11
  • Published : 2015.03.30

Abstract

In this paper, we propose intelligent fire learning and detection system using hybrid visual attention mechanism of human. Proposed fire learning system generates leaned data by learning process of fire and smoke images. The features used as learning feature are selected among many features which are extracted based on bottom-up visual attention mechanism of human, and these features are modified as learned data by calculating average and standard variation of them. Proposed fire detection system uses learned data which is generated in fire learning system and features of input image to detect fire.

Keywords

1. 서 론

지금까지 개발되어 상용화한 열 센서에 의한 화재감지 시스템은 대부분 실내의 제한적 공간에서만 사용이 가능하여, 실외의 개방적 공간에 적용하여 폭넓은 감시를 수행하기에는 무리가 있다. 이로 인해 비전 처리를 사용한 개방된 공간에 대한 화재 감시 시스템의 개발이 대두되었다. 비전 처리를 사용한 화재 감시 시스템은 사용 가능한 공간의 제약이 적고, 화재 자료 관리와 기록 측면에서 폭넓은 자료를 얻을 수 있는 장점이 있다. 이러한 비전 처리를 사용한 화재 감시 시스템은 다음과 같은 여러가지 방법으로 연구되었다.[1-7], 화재의 컬러정보를 산불 탐지에 이용한 시스템[1,12], 차영상 기법을 연기 탐지에 이용한 시스템[2], 연기의 색깔이 회색을 띄고 있다는 사실과 연기가 발생할 때 그 움직임이 불규칙한 모양으로 확산된다는 특성을 이용하여 RGB/HIS 색공간에서 경험적 임계값을 사용하여 연기 탐지를 한 시스 템[3], 화재의 초기 단계에서 연기가 반투명하게 보인다는 사실에 기반을 두어 입력 영상을 웨이블릿 변환하여 고주파성분의 변화를 특징으로 사용하여 연기를 탐지한 시스템[4], 입력 영상으로부터 움직임벡터를 측정하고, 이를 방향 히스토그램으로 변환하여 연기 탐지를 한 시스템[5], 화재 연기 감지를 위하여 키프레임간의 차영상[6]을 검출하는 배경 모델링방법을 사용하였고, 동적 베이지안 네트워크를 적용함으로서, 연기특성에 해당하는 연기의 지속성 대한 문제를 해결한 시스템[7] 등이 있다. 그러나 이러한 시스템들은 연기만을 감지한다거나, 동적 베이시안 네트워크를 사용한 경우에는 화재 탐지까지 시간차가 존재한다는 점, 영상 프레임을 동적으로 선택하여 시간 차이에 의해 화재 탐지가 되지 못한다는 점 등의 한계가 존재한다. 본 논문에서는 이러한 한계점을 극복하고자 새로운 접근법을 사용하여 화재를 탐지해 보고자 인간의 하이브리드 시각주의 기법에 기반하여 화재를 학습하고 탐지하는 시스템을 제안한다. 다음 2장에서 제안하는 화재 학습 및 탐지 시스템에 대하여 설명하고, 3장에서 실험 및 결과를 설명한다. 그리고 마지막으로 4장에서 결론을 맺는다.

 

2. 제안하는 화재 학습 및 탐지 시스템

2.1 시각 주의와 화재 탐지

본 논문에서 제안하는 전체 시스템의 개괄적 구성도는 Fig. 1과 같다. 화재를 탐지하기 위해서는 우선 화재가 무엇인지에 대한 학습이 이루어진 후, 화재를 탐지해야 한다. 따라서 화재 학습 시스템이 먼저 가동된다. 화재 학습 시스템에서는 화재 시 발생하는 불꽃과 연기에 대한 영상을 수집하여 학습 영상으로 구성한 후, 이 영상들을 대상으로 학습에 사용될 특징을 추출하고, 이 특징에 대하여 학습을 수행하여 각 특징 별 평균과 표준편차를 계산하여 학습 자료로 구축한다. 화재 탐지 시스템에서는 카메라를 통해 입력되는 영상에서 화재 의심 영역을 인간 시작주의의 시간적 특징을 통해 찾아내고, 찾아낸 화재 의심영역에 대하여 상향식 시각주의 기법에 근거하여 특징들을 추출한 후, 이 특징을 미리 학습된 화재 학습 자료와 함께 화재 탐지기에 입력하여 영상 내 화재 발생 여부를 결정한다. 만일 탐지기를 통해 화재가 발생하였다는 결과가 나오면 경보를 울려주고, 화재가 발생하지 않았다는 결과가 나오면 계속 감시를 수행한다.

Fig. 1.Overall Process of the system.

화재 학습 및 탐지 시스템에 학습 영상이나. 테스트 영상이 입력되면 학습을 하거나 탐지를 위해서는 입력 영상으로부터 특징을 추출해야 하는데, 이 특징 추출을 위해 인간의 상향식 시각주의 기법에 근거를 둔 상향식 시각주의 시스템에서 사용하는 특징 추출 방법을 사용하였다. 상향식 시각주의는 다른 자극들보다 두드러진 특정 부분에 대하여 집중하는 저 차원적인 시각적 주의 기능이며, 영상이 주어지면 외부자극에 대한 어떠한 추가 정보없이 입력영상 본연의 특징을 사용하여 전체 영상 중에서 주의 영역을 탐지해낸다. 여기서 주의영역이란 다른 부분에 비해 상대적으로 중요한 정보, 많은 정보를 포함할 가능성이 큰 영역을 말하는 것으로, 입력되는 영상으로부터 의미있는 몇몇의 특정 영역을 성공적으로 탐지할 수 있다면 전체 영상보다 상대적으로 좁은 선택된 영역에 자원을 집중하여 정보처리의 효율을 극대화시킬 수 있다. 시각자극을 주는 부분은 일반적으로 유용한 정보를 포함하고 있을 가능성이 크며, 선택된 부분은 영상의 다른 부분에 비해서 시각적으로 현저하게 주의를 끄는 부분이라 할 수 있다. 하지만, 상향식 시각주의 시스템은 영상에서 무의식적으로 시선이 가는 부분이 찾고자 하는 물체가 아닐 수 있다는 한계점을 가지고 있다. 따라서 하향식 시각주의가 필요한데, 하향식 주의는 사람이 의식적으로 어떤 한 부분이나 물체에 시선을 두는 탐지법으로 상향식 주의와 동일한 과정으로 영상에서 물체를 인식하지만, 시선을 두는 부분이 결정될 때 사람의 고차원직 지식이 반영된다는 것에 차이가 있다. 본 시스템에서는 이 부분에 착안을 두고 전체 시스템을 설계하였다. 화재에 대한 고차원적인 지식을 학습 자료로 미리 만들어두고, 화재 탐지 시 이에 대한 정보를 탐지 시스템에 입력시켜 우리가 원하는 화재를 찾도록 하는 것이다.

2.2 화재 학습 시스템

Fig. 2는 화재 학습 시스템의 학습과정을 나타낸 것이다. 그림 2에서 확인할 수 있듯이 영상이 입력되면 입력 영상에 대해 초기 특징맵, 특징맵, 현저함맵이 단계적으로 구성되어 지고, 이 과정에서 특징들이 추출된다. 앞서 기술했지만 이러한 특징 추출 기법이 인간의 상향식 시각주의 기법에 근거를 둔 상향식 시각주의 시스템에서 사용하는 특징 추출 방법이다. 본 시스템에서는 이렇게 추출된 특징을 모두 학습에 사용하는 것이 아니다. 학습 후보 특징이 추출되면 이 정보들을 기반으로 실제로 학습에 사용할 특징을 선정한 후, 이 특징들에 대해 학습 자료를 구축한다.

Fig. 2.Fire Learning System.

2.1.1 학습 후보 특징 추출

화재 학습 시스템에 학습 영상이 입력되면 다음과 같이 6단계를 거쳐 학습에 사용될 후보 특징들이 추출된다.

① 초기특징맵인 R(red), G(green), B(blue), Y(yellow), I(intensity)를 추출한다.

② 추출된 초기 특징맵에서 적-녹, 청-황 색상에 대한 상대적 색상특징맵(R+G-, R-G+, B+Y-, B-Y+)을 생성한다. 밝기 특징의 경우 인간의 눈으로 보는 밝기 특징은 영상에서 밝은 부분에 현저도가 높은 수도 있고 반대로 어두운 부분에 현저도가 높은수도 있기 때문에 밝은 부분이 높은 특징 값을 가지는 I-ON 특징과, 어두운 부분이 높은 특징 값을 가지는 I-OFF 특징을 추출한다.

③ 생성된 각각의 초기 특징맵은 비선형결합[8]을 통하여 활동량이 큰 맵인 RG에 대한 색상특징맵 (F11), BY에 대한 색상특징맵(F12), I에 대한 밝기 특징맵(F13)으로 결합된다.

④ 8가지 방위로 조율된 DOOrG (Difference of Oriented Gaussian)[8]을 사용하여 각 색상 및 밝기별 형태와 방위 특징맵(F21(ɵ), F22(ɵ), F23(ɵ)) 24개를 추출한다.

⑤ 4번째 단계에서 생성된 8개 방위에 조율된 총 24개의 특징맵을 비선형결합을 통하여 RG-형태-방위(F21), BY-형태-방위(F22) I-형태-방위(F23)의 3개의 특징맵으로 결합한다.

⑥ 입력맵의 활동량을 고려한 가중치 결합을 통하여 추출된 특징을 결합하여 현저함맵(S)을 생성한다.

2.1.2 학습 후보 특징 추출

추출된 후보 특징 중에서 실제로 화재 학습에 사용될 4가지 종류의 학습 특징을 선정한다.

(1) 학습영상이 가지는 두드러진 색상 및 밝기 특징

학습 영상의 어떠한 색상과 밝기가 두드러지는지를 알기 위하여 색상 특징맵(F11, F12)과 밝기 특징맵 (F13)의 최대 특징값의 위치와 대응되는 초기특징맵 (R, G, B, Y, I-ON, I-OFF)에서의 특징값을 학습 특징으로 선정하였다. 예를 들어 F11 맵의 최대 특징값은 해당 최대값 위치에 대응되는 초기특징맵 R과 G에서의 특징값이 된다.

(2) 학습영상이 가지는 색상과 밝기 특징 간의 상대적인 활동 특징

비선형결합으로 색상 특징맵(F11, F12)과 밝기 특징맵(F13)이 생성될 때 다수의 입력맵 중 어떤 맵에서의 어떤 특징이 선택되었는지 알기 위하여 결합시 입력으로 사용되는 RG(R+G-)와 GR(R-G+), BY(B+Y-)와 YB(Y-B+), I-ON(I+)과 I-OFF(I-) 맵의 각쌍의 상대적 활동량을 학습 특징으로 선정하였다.

상대적 활동량은 ‘현재 맵의 활동량/고려하는 맵의 활동량 총합’으로 구한다. 여기서 활동량은 입력 맵에서 국부적인 값과 전역적인 값과의 차이를 구한 것으로, 이 값이 높을수록 입력맵에는 국부적으로 높은 값이 존재하여 활동량이 높다고 계산된다. 띠라서 입력맵에서 가장 높은 값인 전역적인 최대값을 추출한 후, 이 값에서 입력맵의 라인별 최대값의 평균을 빼는 식 (1)과 같은 방법을 사용하여 활동량을 계산할 수 있다. 이 방법은 입력맵에서 최대값과 유사한 값들이 많다면 라인별 최대값의 평균 또한 커지기 때문에 활동량이 작게 계산되며 반대의 경우 활동량은 크게 계산된다.

(3) 학습영상이 가지는 8개의 서로 다른 형태-방위 특징 간의 상대적인 활동 특징

비선형결합으로 색상-형태-방위(F21, F22)와 밝기-형태-방위(F23) 특징맵이 생성될 때 다수의 입력맵중 어떠한 특징이 선택되었는지 알기 위하여 결합 시 입력으로 사용되는 8개 방위에 조율된 형태-방위 특징맵(F21n, F22n, F23n) 별 상대적 활동량을 학습 특징으로 선정하였다.

(4) 학습영상이 가지는 색상-형태-방위와 밝기-형태-방위 특징 간의 상대적인 활동 특징

가중치 결합으로 현저함맵(S)이 생성될 때 가수의 입력맵의 상대적인 관계가 어떠한지를 알아보기 위하여 현저함맵(S) 생성 시 사용되는 색상-형태-방위 (F21, F22), 밝기-형태-방위(F23) 특징맵에 부여되는 가중치를 학습 특징값으로 선정하였다.

2.1.3 학습 자료 구축

위에서 선정된 4가지 학습 특징은 학습영상인 불꽃과 연기영상으로부터 추출하며 나이브 베이지안을 통하여 식 (2)와 식 (3)과 같은 평균(μ)과 표준편차(σ2)로 저장된다. 두 식에서 xi는 입력된 자료의 값이고 N은 입력된 자료의 수이다. 이러한 방법으로 다수의 영상들을 학습하여 학습 자료를 구성한다. 학습 자료는 식 (4)와 같은 확률 수식으로 표현되는데, N()은 정규 분포 곡선을 p()는 확률, n은 학습 되는 특징의 총 개수를 뜻한다. 즉, 특징 Fj에서 값 θj가 나올 확률은 학습된 Fj의 평균(μ)과 표준편차(σ2)로 구성한 정규 분포 곡선에 θj를 입력한 값이 된다.

학습 자료 구축 과정을 예를 들어 설명하자면, 특징맵의 최대 특징값 위치에 대응되는 초기특징맵에서의 특징값이 R 맵에서는 (3, 4, 5), G 맵에서는 (5, 6, 7), B 맵에서는 (7, 8, 9), Y 맵에서는 (10, 11, 12), ON 맵에서는 (10, 3, 5), OFF 맵에서는 (23, 54, 67)인 경우라면, 6개의 값 모두를 독립적으로 계산하여 (평균, 표준편차)의 값을 구축한다. 이 예에서는 R 맵은 (4, 1), G 맵은 (6, 1), B 맵은 (8, 1), Y 맵은 (11,1), ON 맵은 (6, 3.60), OFF 맵은 (48, 22.60)이라는 학습 자료가 만들어지게 된다.

2.3 화재 탐지 시스템

화재 탐지 시스템에서는 화재 학습 자료와, 화재를 탐지하고자 하는 탐지 영상의 현재 프레임 영상 (t), 이전 프레임영상(t-1)을 입력받아 테스트 영상의 화재 발생 여부를 판단한다. 화재 탐지 부분은 화재 의심 영역 추출, 화재 특징 추출, 화재 탐의 3가지 모듈로 이루어져 있다.

2.3.1 화재 의심 영역 추출

화재 의심 영역 추출에서는 영상 전처리, 시간 현저함 추출, 화재 움직임 특징 선택의 3가지 과정으로 화재 의심 영역을 추출한다.

첫 번째 과정에서는 테스트 영상에 대한 전처리 과정으로서 경계선 오차가 적은 영상을 획득하기 위하여 현재 프레임 영상(t)과 이전 프레임 영상(t-1)에 가우시안 필터를 통과시켜 영상의 노이즈와 고주파수 정보를 제거한다. 여기서 사용한 가우시안 필터의 크기는 10*10이고 가우시안 폭을 결정하는 δ는 1을 사용하였다.

두 번째 과정에서는 시간 현저함을 추출하여 움직임이 일어난 영역을 알아낸다. 화재가 발생하면 움직임 특징이 나타나기 때문에 시간 현저함으로 움직임이 일어난 영역을 알아낼 수 있다. 본 시스템에서는 현재 프레임 영상(t)와 이전 프레임 영상(t-1)의 블록차 영상을 구하여 시간 현저함을 구한다. 블록 차 영상은 입력 영상들의 블록 영상을 생성하여 영상간의 차를 구한 영상이며, 블록 영상은 입력 영상을 밝기 영상으로 변환하여 이를 일정 크기의 NxN 블록으로 나눈 다음 블록 별 블록 내 총합을 구한 영상이다. 제안하는 시스템에서는 10 × 10의 블록 크기를 사용 하였다. Fig. 3은 시간 현저함을 추출한 영상의 예로써, 가운데 좌측 부분에 연기가 움직이고 하단 부분에서 자동차들이 움직이는 영상이다. 실험 결과 움직임이 나타난 부분이 움직임이 없는 부분에 비해 뚜렷하게 추출되었다.

Fig. 3.Example of extracted temporal saliency map.

마지막 세 번째 과정에서는 지금까지 얻은 움직임 특징 중 화재로 여겨지는 움직임을 선택한다. 화재로 여겨지는 움직임 특징을 선택하기 위해 시간 현저도 추출에서 얻은 블록 차 영상 중 일정 한계치 값 이상의 영역을 선택하여, 이 영역과 일치하는 현재 프레임 영상(t)과 이전 프레임 영상(t-1) 영역의 움직임 방향을 SIFT[9]를 응용하여 계산한다. 이 때 상단방향으로의 움직임을 가진 영역은 화재 의심 지역으로써 선정되어 차후 화재 특징 추출에 입력된다. 움직임 방향을 계산하는 방법은, 먼저 SIFT에 선택된 블록 차 영상의 영역과 일치하는 현재 영상(t)와 이전영상(t-1)의 영역을 입력하여 SIFT 기술자(descriptor)를 추출한다. 다음으로 SIFT 매칭(matching) 과정에 추출한 기술자를 입력하여 일치하는 기술자 쌍을 얻는다. 마지막으로, 얻어진 기술자 쌍들에서 기술자가 움직인 방향을 계산하여, 가장 많이 나타난 기술자의 움직임 방향을 블록의 움직임 방향으로 결정한다. 제안하는 시스템에서는 한계치 값을 ‘한 블록의 픽셀 총합을 한 줄의 블록 개수로 나눈 값’을 주었다. 예를 들어, 영상의 크기가 400 × 800이고 한 줄의 블록개수가 20이면 한계치 값은 (20*40)/20으로 40이 된다. 그리고 제안하는 시스템에서는 상단 방향 움직임은 상단 수직 방향을 π/2로 하여, 0*π부터 1*π까지 움직임 방향을 상단 움직임 방향으로 결정하였다.

Fig. 4의 경우를 예를 들어 설명하면, 좌측의 영상은 화재 움직임 특징을 선택하기 전 화재 의심 지역의 영상이다. 좌측 상단 하늘 부분에서 화재와 관련이 없는 부분이지만 화재 의심 영역으로 나타났다.

Fig. 4.Extracted fire candidate region (a) using no fire motion feature (b) using fire motion feature.

반면에, 우측 영상은 화재 움직임 특징을 선택한 후 화재 의심 지역의 영상인데, 보이는 바와 같이 하늘 부분에서 화재와 관련이 없다고 여겨지는 몇몇 부분이 올바르게 제외된 것은 확인할 수 있다.

2.3.2 화재 탐지를 위한 특징 추출

화재 탐지에 사용되는 특징의 추출은 화재 의심영역에서 추출하며, 화재 학습 시스템에서 화재 학습 영상을 대상으로 학습 후보 특징을 추출하는 방법대로 2.2절의 1) 학습 후보 특징 추출 방법과 같이 6단계에 거쳐 화재 의심 영역을 대상으로 추출된다.

2.3.3 화재 탐지

마지막으로 화재 탐지는 화재 학습 시스템에서 만들어진 화재 학습자료와 화재 의심 영역의 화재 특징을 비교하여 최종 화재 여부를 판단한다. 화재 인식 프로세스는 다음과 같다. 첫째. 학습된 학습된 화재 자료의 평균과 표준편차로 각 특징 별 표준 편차 곡선을 그린다. 둘째. 추출한 화재 의심 영역의 특징을 각 특징 별 표준 편차 곡선에 대입하여 유사성 확률을 구한다. 마지막으로 모든 특징의 확률을 더하여 5 이상일 때 화재로 판단한다. 숫자 5는 실험적인 수치이다.

Fig. 5는 화재 탐지 결과의 한 예로, 제안하는 시스템은 화재 탐지기에 상단 영상과 같은 화재 의심 영역이 입력되면 탐지 영상에 대해 움직임 영역 중 화재가 난 부분과 화재가 나지 않은 부분으로 구분하여 화재를 탐지해낸다.

Fig. 5.Fire detection result. (a) candidate fire region (b) detected as non-fire region (b) detected as fire region.

 

3. 실험 및 결과

3.1 실험 영상

개발된 화재 학습 및 탐지 시스템의 성능 평가를 위하여 Toreyin[4]의 연구 및 이인규[7]의 연구와 성능을 비교하였다. 객관적인 평가를 위해 위 연구에서 사용한 실험영상과 동일한 영상을 사용하였는데, 그 중 획득 가능한 5개의 동영상(1번, 2번, 4번, 5번, 6번) 을 사용하였다. 그 외 자체 평가를 위해 [11] 및 유투브에서 수집한 화재 동영상을 실험에 사용하였다. 전체 실험 영상 중 에 각각 절반의 동영상으로 나누어 학습과 탐지에 사용하였는데, 이 때 학습에 사용된 영상은 불꽃 영상 118개, 연기 영상 277개로 학습으로 사용될 동영상에서 해당 부분을 잘라내어 구성하였다. Fig. 6은 학습영상의 예로, 상단에 보이는 영상이 학습에 사용된 불꽃 영상이며, 하단에 보이는 영상이 학습에 사용된 연기 영상이다. Fig. 7은 탐지 영상의 예이다.

Fig. 6.Training images used in learning process. (a) flame images (b) smoke images.

Fig. 7.Fire images used in detection process.

3.2 실험 결과

Fig. 8은 제안하는 시스템의 화재 탐지 결과 예를 보여준다. 그림 속 사각형 안의 번호는 시선처리 번호로써 시선이 움직이는 순서를 표시한 것이다.

Fig. 8.Detection results of fire images shown in Fig. 7.

Toreyin[4]의 연구 및 이인규[7]의 연구와의 비교 실험 결과는 Fig. 9, Fig. 10, Fig. 11과 같다. 보편적인 성능 평가를 위하여 적중(True Positive), 긍정오류(False Positive), 결함(Missing)이라는 3가지 척도를 사용하여 결과를 분석하였는데, 적중(True Positive)은 화재가 발생한 프레임에 대하여 화재가 난 영역을 제대로 탐지하였을 때의 프레임 수의 비율이고, 결함(Missing)은 화재가 발생한 프레임에 대하여 화재를 탐지하지 못한 프레임 수의 비율이다. 또한 긍정오류(False Positive)는 화재가 발생하지 않은 프레임에 대하여 화재가 났다고 탐지한 프레임 수의 비율이다. Fig. 9는 적중(True Positive) 결과로, y축이 화재가 난 프레임에서 화재가 난 영역을 제대로 탐지한 프레임 수의 비율이고, x축이 실험 동영상 수이다. y축의 값이 1일 경우 모든 영상 프레임에서 화제가 난 영역을 100% 제대로 탐지한 것이다. Fig. 9를 보면 비교하는 모든 영상에서 타 시스템보다 높은 성능을 보이고 있음을 알 수 있다. Fig. 10은 결함(Missing) 결과로, y축이 화재가 발생하였는데도 화재가 난 영역을 제대로 탐지하지 못한 프레임 수의 비율을 나타낸 것이다. [4]와 [7]의 연구에서는 모든 영상에서 결함(Missing)이 존재하였는데 제안하는 시스템은 6번 영상에서만 결함(Missing)이 존재하였다. 마지막으로 Fig. 11은 긍정오류(False Positive) 결과로, y축이 화재가 발생하지 않은 프레임에 대하여 화재가 났다고 탐지한 프레임 수의 비율이다. [7] 의 연구는 4번 영상에서, [4]의 연구는 1번 영상에서 긍정오류(False Positive)가 존재하였는데 제안하는 시스템에서는 긍정오류(False Positive)를 한 영상이 없었다. 제안하는 시스템은 타 시스템과 달리 긍정오류(False Positive)된 화재 영상이 없으면서 적중(True Positive)이 타 시스템과 비교해서 높게 나오고 결함(Missing)은 적게 나타났다.

Fig. 9.True Positive Results.

Fig. 10.Missing Results.

Fig. 11.False Positive Result.

 

4. 결 론

본 논문에서는 인간의 하이브리드 시각주의에 기반하여 시간 현저함으로 화재 예상 지역을 추출하고 공간 현저함으로 불꽃과 연기를 탐지하는 화재 학습 및 탐지 시스템을 제안하였다. 화재 학습 시스템에서는 화재 시 발생하는 불꽃과 연기에 대한 영상을 수집하여 학습 영상으로 구성한 후, 이 영상들을 대상으로 학습에 사용될 특징을 추출하고, 이 특징에 대하여 각 특징 별 평균과 표준편차를 계산함으로써 학습 자료를 구축한다. 화재 탐지 시스템에서는 카메라를 통해 입력되는 영상에서 화재 의심 영역을 인간 시작주의의 시간적 특징을 통해 찾아내고, 찾아낸 화재 의심영역에 대하여 상향식 시각주의 기법에 근거하여 특징들을 추출한 후, 이 특징을 미리 학습된 화재 학습 자료와 함께 화재 탐지기에 입력하여 영상내 화재 발생 여부를 결정한다. 제안하는 시스템은 기존의 연구가 고정된 한계치 값을 사용하여 유연하게 화재 탐지를 못했던 한계를 극복하였으며, SIFT를 이용하여 화재의 움직임 방향과 유사한 움직임 영역을 선택함으로써 기존의 연구에 비해 오탐지율을 낮추는 결과를 얻었다. 하지만 여전히 일부 영상에서 오탐지가 발생하는 것을 확인하였는데, 이는 불꽃과 연기에 대한 학습 자료를 더 추가하면 해결될 것으로 생각된다. 차후에는 보다 더 다양한 환경의 화재 영상에 대한 폭넓은 대응이 가능한 연구가 필요하겠다.

References

  1. T.H. Chen, C.L. Kao, and S.M. Chang, “An Intelligent Real-time Fire-detection Method based on Video Processing,” Proceeding of IEEE 37th Annual 2003 International Carnahan Conference on Security Technology, pp. 104-111, 2003.
  2. V. Cappellini, L. Mattii, and A. Mecocci, “An Intelligent System for Automatic Fire Detection in Forests,” Proceeding of Third International Conference on Image Processing and its Applications, pp. 563-570, 1989.
  3. T. Chen, Y. Yin, S. Huang, and Y. Yen, “The Smoke Detection for Early Fire-Alarming System base on Video Processing,” Proceeding of the 2006 Conference on Intelligent Information Hiding and Multimedia Signal Processing, pp. 427-430, 2006.
  4. B.U. Toreyin, Y. Dedeoglu, and A.E. Cetin, “Contour Based Smoke Detection in Video using Wavelets,” Proceeding of 14th European Signal Processing Conference of EUSIPCO, pp. 1-5, 2006.
  5. F. Yuan, “A Fast Accumulative Motion Orientation Model based on Integral Image for Video Smoke Detection,” Pattern Recognition Letter, Vol. 29, Issue 7, pp. 925-932, 2008. https://doi.org/10.1016/j.patrec.2008.01.013
  6. X. Jing and L. Chau, “An Efficient Three-step Search Algorithm for Block Motion Estimation,” IEEE Transactions on Multimedia, Vol. 6, Issue 3, pp. 435-438, 2004. https://doi.org/10.1109/TMM.2004.827517
  7. I.G. Lee, B.C. Ko, and J.Y. Nam, “Fire-Smoke Detection based on Video using Dynamic Bayesian Networks,” The Journal of Korea Information and Communication Society, Vol 34, Issue 4, pp. 388-396, 2009.
  8. B. Choi and K. Cheoi, "Development of a Biologically Inspired Real-time Spatiotemporal Visual Attention System,” Lecture Notes in Computer Science, Vol. 6591, pp. 416-424, 2011. https://doi.org/10.1007/978-3-642-20039-7_42
  9. D.G. Lowe, “Distinctive Image Features from Scale-Invariant Key Points,” International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110, 2004. https://doi.org/10.1023/B:VISI.0000029664.99615.94
  10. G.H. John and P. Langley, “Estimating Continuous Distributions in Bayesian Classifiers,” Proceeding of the Eleventh Conference on Uncertainty in Artificial Intelligence, pp. 338-345, 1995.
  11. Sample Fire and Smoke Video Clips, http://signal.ee.bilkent.edu.tr/VisiFire/Demo/SampleClips.html (accessed July, 12, 2013).
  12. K. Cho and S. Bae, “A Fire Detection Using Color and Movement of Flames,” Journal of Korea Multimedia Society, Vol.17, Issue 1, pp.8-14, 2014. https://doi.org/10.9717/kmms.2014.17.1.008

Cited by

  1. 컨볼루션 신경망을 이용한 지능형 화재 학습 및 탐지 시스템 vol.5, pp.11, 2015, https://doi.org/10.3745/ktsde.2016.5.11.607