DOI QR코드

DOI QR Code

Anomaly Event Detection Algorithm of Single-person Households Fusing Vision, Activity, and LiDAR Sensors

  • Lee, Do-Hyeon (Dept of Software, Korea National University of Transportation) ;
  • Ahn, Jun-Ho (Dept of Software, Korea National University of Transportation)
  • Received : 2022.04.19
  • Accepted : 2022.06.09
  • Published : 2022.06.30

Abstract

Due to the recent outbreak of COVID-19 and an aging population and an increase in single-person households, the amount of time that household members spend doing various activities at home has increased significantly. In this study, we propose an algorithm for detecting anomalies in members of single-person households, including the elderly, based on the results of human movement and fall detection using an image sensor algorithm through home CCTV, an activity sensor algorithm using an acceleration sensor built into a smartphone, and a 2D LiDAR sensor-based LiDAR sensor algorithm. However, each single sensor-based algorithm has a disadvantage in that it is difficult to detect anomalies in a specific situation due to the limitations of the sensor. Accordingly, rather than using only a single sensor-based algorithm, we developed a fusion method that combines each algorithm to detect anomalies in various situations. We evaluated the performance of algorithms through the data collected by each sensor, and show that even in situations where only one algorithm cannot be used to detect accurate anomaly event through certain scenarios we can complement each other to efficiently detect accurate anomaly event.

최근 코로나 19가 유행하고 더불어 고령화 시대와 1인 가구 증가로 인해 가구 구성원이 집에서 다양한 활동을 하며 머무는 시간이 매우 증가하였다. 본 연구에서는 노인을 포함한 1인 가구의 구성원들의 이상 징후를 탐지하기 위한 알고리즘을 제안한다. 홈 CCTV를 통한 영상 센서 알고리즘, 스마트폰에 내장된 가속도 센서를 이용한 활동 센서 알고리즘 및 2D LiDAR 센서 기반의 LiDAR 센서 알고리즘을 이용한 사람의 움직임 및 낙상 탐지 결과를 기반으로 이상 징후를 탐지하는 알고리즘들을 제안한다. 하지만, 각 단일 센서 기반 알고리즘은 센서가 가진 한계점으로 인해 특정 상황에서 이상징후를 탐지하기 어려운 단점을 가지고 있다. 그에 따라 단일 센서 기반 알고리즘만을 사용한 것보다 다양한 상황에서 이상 징후를 탐지하기 위해 각 알고리즘을 결합하는 융합 방식을 제안한다. 우리는 각 센서로 수집한 데이터를 통해 알고리즘들의 성능을 평가하고, 특정 시나리오들을 통하여 알고리즘 하나만 사용하여 정확한 이상 징후를 탐지할 수 없는 상황에서도 융합 방식을 통해 서로 보완하여 정확한 이상 징후를 효율적으로 탐지할 수 있음을 보여준다.

Keywords

I. Introduction

빠르게 확산한 코로나 19가 장기화함에 따라 불안감과 공포감을 느낀 사람들이 집에 머무는 시간을 증가시켰다. 1, 000명을 대상으로 벌인 조사결과[1]에 따르면 응답자의 93.6%가 코로나 이후 집에 머무는 시간이 늘었다고 답했고, 집이 휴식과 여가는 물론 다양한 경제활동을 함께 하는 장소를 뜻하는 홈 코노미(Homeconomy)와 관련된 소비가 일반적인 소비 트렌드로 떠올랐다. 해당 조사를 진행한 대한상공회의소는 홈 코노미와 관련된 이러한 소비 트렌드는 코로나 이후에도 계속될 것으로 전망했다.

통계청에서 발표한 2020년 인구주택총조사 보고서[2]에 따르면, 일반 가구의 가구원 수 규모에서 1인 가구 비율은 2000년 15.5%에서 계속 증가하여 2020년 31.7%로 가장 많았다. 나이별 1인 가구 비율은 70세 이상이 18.1%, 20 대가 19.1%로 나타났으며, 행정안전부 주민등록인구 통계자료[3]에 따르면 10월 기준 전국 1인 가구는 전체 세대 의약 40.1%로 처음으로 40%대를 돌파하여 가구 수 중 가장 많은 비율을 차지했다. 서울시50플러스재단에서 발표한 보고서[4]에서 1인 가구의 증가는 마지막 순간까지 고립되어 생을 마감하는 무연고 사망 발생으로 이어질 확률이 높다고 한다. 보건복지부 통계자료에 따르면 무연고 시신처리 건수는 지속해서 증가하여 2020년에는 2, 947건에 달했으며[5], 무연고 장례를 지원해주는 시민단체에 따르면 2020년과 2021년 8월까지 20개월간 서울시 무연고 사망자 가운데 60% 이상은 60세 이상 노인으로 나타났다[6].

빠르게 고령화 사회로 변화하고 있는 상황에서 노인에게 낙상 사고는 매우 위험하다. 고령자 안전사고의 위해 원인으로 낙상 사고가 56.4%로 가장 많았고, 발생 장소는 주택이 63.4%로 절반 이상을 차지했다[7]. 주택 내 안전사고로 인한 독거노인들의 고독사를 예방하기 위해 지자체들은 다양한 사업을 추진하고 있다[8]. 스마트 플러그 사업은 TV 등 가전제품들에 스마트 플러그를 연결하여 집안의 조도와 전기 사용량을 관찰하여 일정 시간 동안 발생하지 않으면 보호자에게 문자를 전송한다. 디지털 바이오마커기술은 스마트폰에 생리 데이터 측정 앱을 설치하면 대상자의 생리학적 데이터를 파악해 건강 및 고독사 예방 정보를 전달한다. 이처럼 최근 고독사 예방을 위하여 AI, IoT 기술을 사용한 시스템이 개발되어 활용되고 있지만, 단일센서만을 사용하여 고독사를 감지할 수 없는 예외상황이 발생하거나 고가의 센서들을 사용하기 때문에 가난한 노인들은 사용할 수 없는 문제들이 발생한다.

본 논문에서는 사람의 움직임이 없는 상황뿐만 아니라 집 내부에서 가장 많이 일어나는 사고인 낙상을 감지하면서 사람의 이상 징후를 탐지할 수 있는 알고리즘을 제안한다. 2장에서는 단일 센서와 다중센서 기반 낙상 감지 알고리즘과 융합 기반 이상 징후 탐지 알고리즘과 관련된 연구를 소개하고, 3장에서는 기존 이상 징후 탐지 연구에서 개선된 알고리즘들과 제안하는 방식에 대하여 설명한 뒤 4장에서 실험을 통해 알고리즘들에 대한 성능을 평가하고 결과를 분석할 예정이다.

II. Related works

홈 CCTV와 같은 영상 센서를 사용하여 사람의 낙상을 감지하는 연구들이 진행되고 있다. YOLOv3 알고리즘을 사용한 단순 학습으로 사람이 쓰러진 상태를 감지하는 연구[9]부터, K-NN 알고리즘을 사용하여 시간 경과에 따른 실루엣 변화를 분석하여 다양한 낙상 상황을 감지하는 연구[10]까지 낙상 감지를 위하여 영상 센서 기반 다양한 알고리즘 연구가 진행되고 있다.

스마트폰에 내장된 다양한 센서를 활용하여 해당 기기를 장착한 사람의 낙상을 감지하는 연구[11, 12, 13] 들이진행되고 있다. 스마트폰 또는 스마트워치 같은 웨어러블디바이스에 내장된 가속도, 자이로 센서 등 다양한 센서를 활용하여 사람의 낙상을 감지한다.

LiDAR 센서가 집 내부에서 수집한 데이터를 활용하여 사람을 탐지하는 다양한 연구[14, 15]들이 진행되고 있다. 딥러닝 알고리즘을 사용하여 2D LiDAR 센서로 수집한 데이터에서 사람을 인식하고, 이동하는 사람의 궤적을 추적하거나 일상생활 활동을 탐지한다.

단일 센서 기반 알고리즘들의 융합 방식을 통해 다중센서를 구현하여 사람의 이상 징후를 탐지하는 알고리즘의 연구[16, 17]를 진행하였다. 영상, 음성, 먼지 센서 등 다양한 센서들을 활용하여 사람의 이상 징후를 탐지할 수 있는 알고리즘들을 연구하였다. 여기서 이상 징후는 일정 시간 동안 사람의 움직임이 없는 사람의 도움이 필요한 상황으로 정의하고 있다. 단일 센서 기반 알고리즘은 한정된 상황에서 이상 징후를 탐지할 수 있는 한계점이 존재하기 때문에, 해당 한계점을 극복하기 위하여 융합 방식을 제안하였다. 두 가지 이상 알고리즘들을 결합하는 융합 방식을 통해 다양한 상황에서 하나의 알고리즘을 사용한 것보다 더 정확하고 효율적으로 이상 징후를 탐지할 수 있었다. 하지만 사람이 일정 시간 동안 움직임이 없는 상황은 단순히 휴식을 위해 눕는 행동과 같이 일반적인 상황에서도 쉽게 발견될 수 있어 잘못된 이상 징후 탐지를 하는 경우가 많았다. 우리는 저가의 단일 센서를 사용하여 사람의 움직임을 탐지하고, 잘못된 이상 징후 탐지를 줄이기 위해 낙상 감지 알고리즘으로 개선한 각각의 알고리즘을 연구했다. 또한, 각 알고리즘이 가진 한계점을 보완하기 위한 융합 방식을 제안한다.

III. The Proposed Algorithm

1. Vision Sensor Algorithm

영상 센서 알고리즘은 홈 CCTV와 같은 영상 센서로 수집한 영상 데이터에서 사람을 탐지하고 그 결과를 통해 이상 징후를 판단한다. 홈 CCTV는 집 내부의 특정한 장소에 고정 설치되어 일정한 장소에서 영상 데이터를 수집하지만, 높은 정확도로 사람을 탐지할 수 있다. 사람을 탐지했을 때 낙상 및 움직임 유무를 판단하여 이상 징후를 판단할 수 있다. 그림 1은 영상 센서 알고리즘의 Flow Chart 를 나타낸 그림이다.

Fig. 1. Flow Chart of Vision Sensor Algorithm

영상 센서를 통해 수집한 영상 데이터에서 객체 탐지 알고리즘을 사용하여 사람을 탐지한다. 이때 사람을 탐지했다면 사람 객체의 Bounding Box 정보를 기반으로 낙상 및 움직임을 탐지한다. 우리의 기존 연구에서는 사람의 움직임 유무만으로 이상 징후를 판단하여 가만히 앉아있는 행동과 같이 특정 행동에서 이상 징후로 탐지되는 한계점이 존재했다. 이를 보완하기 위하여 사람의 낙상을 감지할 수 있는 낙상 감지 알고리즘을 결합했다. 사람이 일정 시간 동안 움직임이 없기 전에 낙상이 감지되지 않았다면 이상 징후로 판단하지 않고, 낙상이 감지되고 그 후에 움직임이 없다고 탐지하면 이상 징후로 판단한다.

2. Activity Sensor Algorithm

활동 센서 알고리즘은 스마트폰에 내장된 가속도 센서를 활용하여 사람의 이상 징후를 탐지한다. 스마트폰의 가속도 센서를 이용하여 X, Y, Z축으로 이루어진 3축의 데이터를 수집하면 각 3축 값의 평균을 계산하여 배열에 저장한다. 평균값을 저장하는 배열은 크기가 5로 이루어진 선입선출 방식의 Queue 구조로 되어있다. 평균값을 배열에 입력했을 때, 전체 배열에서 중간값이 가장 작은 값일 경우 해당 중간값을 Low Peak로, 가장 큰 값일 경우 High Peak로 정의한다. 그리고 High Peak와 Low Peak 의 차이 값으로 정의되는 Impact를 계산하고, 해당 Impact를 통해 사람의 움직임을 탐지할 수 있다. 그림 2 는 활동 센서 알고리즘의 Flow Chart를 나타낸 그림이다.

Fig. 2. Flow Chart of Activity Sensor Algorithm

Impact 값은 사람이 움직이게 되면 값이 커지게 되며 사람의 움직임이 없을 때는 작은 값이 유지된다. Impact 값이 일정 시간 동안 작은 값을 가질 때, 이상 징후가 발생했다고 판단할 수 있다. 하지만 사람이 스마트폰을 소지하지 않거나 단순히 가만히 있는 경우에도 이상 징후로 판단될 수 있다. 이러한 오 탐지를 줄이기 위하여 사람의 움직임을 탐지하기 전에 낙상을 탐지하게 했다. 낙상이 발생하게 되면 Impact의 측정값이 크게 나타나기 때문에, 낙상 탐지 알고리즘은 Impact 값이 임계 값 이상으로 측정될 때 낙상이 발생했다고 판단한다. 낙상 발생이 탐지되고 움직임이 발생했다면 이상 징후로 판단하지 않지만, 낙상 발생으로 탐지 후 일정 시간 동안 움직임이 발생하지 않는다면 이상 징후로 판단한다.

3. LiDAR Sensor Algorithm

LiDAR 센서 알고리즘은 집 내부의 로봇 자동 청소기에 탑재된 2D LiDAR 센서를 활용하여 사람 객체를 탐지하고 탐지된 사람의 이상 징후를 탐지한다. LiDAR 센서는 빛을 발사하고, 대상물에 부딪혀 반사되는 빛을 검출할 수 있는 광센서를 통해 센서로 되돌아오기까지 시간을 측정하여 거리를 계산한다. 2D LiDAR 센서는 이러한 거리 측정 기법을 회전하면서 측정하여 각도 정보가 추가된 이차원적 정보를 수집한다. 그림 3은 LiDAR 센서 알고리즘의 Flow Chart를 나타낸 그림이다.

LiDAR 센서에서 수집한 데이터는 포인트-클라우드 데이터로 영상 센서의 이미지 데이터와 다르게 프라이버시 문제를 방지할 수 있다. 또한, LiDAR 센서 알고리즘은 단순한 움직임 탐지만 가능한 영상 센서 알고리즘보다 이차원적 정보를 통해 구체적인 위치 정보를 수집할 수 있다. 인공지능 기반 알고리즘을 통해 포인트-클라우드 데이터에서 사람을 탐지하고, 사람의 위치 정보를 저장 및 학습한 위치 패턴 변화를 통해 이상 징후를 감지한다. 하지만, 패턴 변화에 기반한 이상 징후 감지 방법으로는 다양한 상황에서 정확도가 떨어지는 한계점이 존재한다. 이를 보완하기 위해 사람을 탐지하는 알고리즘에 사람 객체의 변화를 통해 낙상을 감지하게 했다.

Fig. 3. Flow Chart of LiDAR Sensor Algorithm

4. Fusion Algorithm based on Single Sensor

본 논문에서는 각각의 알고리즘이 가지고 있는 한계점을 보완하기 위해 단일 센서 알고리즘들의 융합 방식을 제안한다. 영상 센서 알고리즘은 한 장소에 고정된 센서로 데이터를 수집하기 때문에 탐지 범위를 벗어나거나 고정된 장애물에 의해 사람을 탐지할 수 없는 경우가 발생할 수 있다. 활동 센서 알고리즘은 가속도 센서가 내장된 웨어러블 기기, 스마트폰을 사람이 지니고 있어야만 탐지가 가능한 한계점이 존재하며, 2D LiDAR 센서는 탐지 정확도가 다소 떨어지고 유리와 같이 투명하거나 매끄러운 면을 가진 특정 장애물에 큰 영향을 받는다.

그림 4는 단일 센서 알고리즘들을 융합한 방식의 구성도를 나타낸 그림이다. 각각 단일 센서 알고리즘에서 사람 및 낙상 탐지에 기반한 이상 징후를 탐지할 때, 하나의 알고리즘에서 이상 징후가 발견되면 나머지 알고리즘의 결과를 융합하여 패턴 분석을 통해 이상 징후를 판단한다. 이를 통해 각 알고리즘이 지닌 한계점을 서로 보완하여 다양한 상황에서 이상 징후를 더 정확하게 탐지할 수 있다.

Fig. 4. Flow Chart of Fusion Algorithm based on Single Sensor

IV. Experiments and Results

우리는 단일 센서를 사용한 각 낙상 감지 알고리즘의 실험을 진행하고 그에 따른 결과를 구하였다. 영상 센서 알고리즘 실험에 사용한 센서는 와이즈넷 사의 Pan&Tilt 홈 카메라로 한 장소에 고정되어 회전 기능, 소리 감지 등의 부가기능을 사용하지 않고 야간 촬영 기능만 적용하여 데이터를 수집하였으며, 일상생활뿐만 아니라 걷기, 앉기, 쓰러지기 등 다양한 상황을 가정하여 수집했다. 영상 데이터에서 사람을 탐지하기 위해 1-stage 기반 객체 탐지 알고리즘인 YOLOv4[18]를 사용했으며, 해당 알고리즘을 적용한 결과는 그림 5와 같다. 본 논문에서 제안하는 영상 센서 알고리즘은 사람의 낙상 및 움직임을 빠르게 판단하기 위해 사물을 제외하고 오직 사람 객체만 탐지하도록 설정하였다.

Fig. 5. Human Detection using the Vision Sensor Algorithm

본 연구는 사람을 탐지한 Bounding Box 결과로 낙상 및 움직임 탐지를 통해 이상 징후를 판단하는 영상 센서 알고리즘을 제안하였다. 그림 5의 왼쪽 위부터 순서대로 가만히 서 있기, 쓰러지기, 의자에 앉기, 걷는 상황에서 사람을 탐지하고 있는 결과로, 사람의 일부가 영상에서 벗어나거나 사물에 가려지는 상황에서도 정확하게 사람을 탐지할 수 있다. 탐지한 사람을 나타내는 Bounding Box의 너비와 높이를 구하고 비율을 계산하여 사람의 낙상 및 움직임을 판단할 수 있는지 그래프로 나타내었다.

그림 6, 7, 8은 각각 걷는 상황, 서 있다가 쓰러지는 상황, 의자에 앉았다가 일어나는 상황이 담긴 영상 데이터에서 탐지한 사람의 Bounding Box의 너비와 높이를 구해 비율을 계산하여 그래프로 나타낸 것이다. 그림 6의 상황은 문을 열고 영상 범위 밖의 공간까지 걸어갔다가 다시 나가는 상황에서의 비율을 계산한 것이다. 사람이 문을 열고 들어올 때와 나갈 때, 전체적인 모습만이 아닌 사람의 일부만 영상에 나온 상황에서 비율 값을 계산하여 초반과 끝에 급격하게 감소하거나 증가하도록 측정된 것을 확인할 수 있다. 하지만, 지속해서 값이 변화하면서 방을 가로지르는 사람이 움직이고 있는 점을 알 수 있다. 그림 7은 가만히 서 있다가 갑자기 쓰러지는 상황으로 낙상 사고가 발생한 상황으로 가정한 영상 데이터에서 낙상 중인 사람의 너비와 높이 비율 값을 나타낸 그래프로, 넘어진 사람은 Bounding Box의 너비가 높이보다 커지면서 비율 값이 하락한다. 사람이 낙상으로 탐지될 만큼 쓰러지는 순간에는 비율 값이 영상 데이터의 20프레임 안에 3 이상 급격하게 하락하는 것으로 사람의 낙상을 판단할 수 있으며, 이후로 비율 값은 임계 값인 2 이하에서 일정 시간 동안 크게 변화하지 않아 사람의 움직임이 일어나지 않는 것으로 이상 징후로 판단할 수 있다. 그림 8은 의자에 앉았다가 다시 일어서는 상황으로 그림 7처럼 비율 값이 급격하게 하락하는 변화가 일어나서 낙상으로 오 탐하는 경우가 발생했지만, 그 이후 비율 값이 임계 값 이상에서 변화가 일어나지 않아 이상 징후로 판단하지는 않는다.

FIg. 6. Y/X Ratio-based Walking Situation Detection

Fig. 7. Y/X Ratio-based Falling Situation Detection

Fig. 8. Y/X Ratio-based Sitting Situation Detection

활동 센서 알고리즘은 스마트폰에서 가속도 센서값을 측정하기 위해 개발한 애플리케이션을 통해 실험을 진행하였다. 안드로이드 환경에서 개발된 애플리케이션은 각 3 축의 가속도 센서값과 그 값을 통해 계산한 High Peak 값, Low Peak 값, Impact 값을 단순출력하는 애플리케이션으로, Impact 값이 발생하게 되면 시간과 계산된 값들을 저장했다가 애플리케이션을 종료할 때 엑셀 파일 형태로 내부저장소에 저장된다. 실험은 해당 애플리케이션을 설치하여 실행 중인 스마트폰을 주머니에 넣어 소지한 채로 걷기, 뛰기, 계단 걷기 등의 일상 행동과 사람이 쓰러지는 것을 가정한 상황에서 실험을 진행하였다.

그림 9, 10은 계산한 Impact 값을 그래프로 표현한 그림이다. 그림 9는 걷는 상황에서 Impact 값의 변화를 그래프로 표현한 그림으로 지속적인 패턴이 반복되는 점을 알 수 있다. 그림 10은 서 있다가 쓰러지는 상황에서 Impact 값을 그래프로 그린 것으로 쓰러지는 순간 Impact 값이 20 이상으로 급격하게 상승하는 것을 볼 수 있다. 쓰러지는 순간 전후로는 스마트폰의 움직임이 발생하지 않아서 Impact 값이 임계 값으로 설정한 5 이하로 큰 변화 없이 유지하는 것을 볼 수 있다.

Fig. 9. Walking Impact Detection

Fig. 10. Falling Impact Detection

그림 11은 LiDAR 센서 알고리즘 실험에서 사용한 센서는 YD LIDAR 사의 X4 2D LiDAR로, 6-12Hz의 스캔 주파수로 360도 회전하면서 10m 범위까지 거리를 측정할 수 있다. 2D LiDAR로 수집한 데이터는 Point Cloud 형태로 SLAM 기술을 이용하여 물체와 벽을 구분한 결과는 그림 12와 같다. LiDAR가 스캔한 데이터를 통해 SLAM 기술을 사용하여 벽으로 탐지된다면 그 안쪽은 사람이 움직일 수 있는 회색으로 채워지게 된다. 실험은 충분한 스캔을 통해 주변 환경을 측정한 다음, 사람이 서 있는 상황과 넘어진 상황에서 스캔한 결과이다. 결과를 보면 파란색 원이 사람으로 탐지되며, 사람이 서 있을 때는 떨어진 두 발이 측정되어 사람으로 탐지된다. 하지만, 사람이 넘어질 때는 해당 위치에 다른 패턴이 측정되는 것으로 낙상을 탐지할 수 있다.

Fig. 11. YDLIDAR X4 2D LiDAR

Fig. 12. Human Detection using the LiDAR Sensor Algorithm (Left : Standing, Right : Falling)

각 단일 센서 알고리즘만 사용할 경우, 각 알고리즘이 가지고 있는 한계점 때문에 정확한 이상 징후를 탐지할 수 없는 상황이 발생한다. 영상 센서 알고리즘은 영상 센서가 탐지하는 범위 밖에서 일어난 상황에서는 집 내부라도 이상 징후를 감지할 수 없다. LiDAR 센서 알고리즘은 탐지한 사람의 위치를 계산할 수 있지만, 낙상 사고가 발생하거나 사물과 같은 장애물이 존재할 때 사람으로 탐지하기 어렵다. 활동 센서 알고리즘은 스마트폰을 소지하고 있을 때는 실내뿐만 아니라 실외에서도 사람의 움직임 발생을 정확하게 탐지할 수 있지만, 소지하지 않는 상황에서는 전혀 탐지할 수 없는 한계점이 존재한다.

각 단일 센서 알고리즘 실험결과를 봤을 때 서 있기, 걷기, 쓰러지는 행동들의 인식과 움직임 탐지가 가능했지만, 센서마다 탐지할 수 없는 상황이 달랐다. 이를 기반으로, 특정 상황의 조건에 따라서 융합 방식을 통해 각 단일 센서 알고리즘이 서로 보완하여 이상 징후를 탐지할 수 있는지 확인하기 위해 실험을 진행하였다. 표 1은 각 단일 센서 알고리즘 실험에서 같은 조건과 행동으로 실험을 진행한 결과를 정리한 것이다. 실내외, 스마트폰 소지 여부에 따라서 걷기, 서 있기, 앉기, 낙상 등의 행동을 각 센서 알고리즘과 융합 방식으로 탐지할 수 있는지를 나타냈다.

Table 1. Detectability based on Conditions for Each Sensor

한 장소에 고정돼서 탐지가 가능한 범위가 제한된 영상 센서 알고리즘의 단점은 로봇청소기와 같이 이동 가능한 로봇에 내장된 LiDAR 센서 알고리즘으로 해결할 수 있다. LiDAR 센서 알고리즘의 탐지 정확도는 LiDAR 센서 성능에 영향을 받기 때문에 가구 구성원이 주로 생활하는 장소에서는 영상 센서 알고리즘을 통해 이상 징후를 정확하게 탐지할 수 있다. 실내에서는 영상, LiDAR 센서 알고리즘을 통해 걷기, 앉기, 눕기 등과 같은 구성원의 행동에 따른 움직임과 갑자기 쓰러지는 낙상 사고를 탐지하여 이상 징후를 판단할 수 있다. 실외에서는 장소 상관없이 사람의 움직임 및 낙상을 감지할 수 있는 활동 센서 알고리즘을 통해 이상 징후를 탐지할 수 있다. 하지만, 활동 센서 알고리즘은 구성원이 스마트폰을 소지하지 않았다면 실내에서조차 이상 징후를 탐지할 수 없는 단점을 가지고 있다. 각 알고리즘은 임계 값으로 낙상 탐지와 이상 징후를 판단하면서 주로 앉아있는 상황을 움직임이 없다고 판단하거나 휴식을 위해 눕는 사람을 낙상으로 탐지할 수가 있었지만, 지속적인 실험을 통해 적절한 임계 값을 설정하여 오차를 최대한 줄일 수 있었다. 우리는 영상, LiDAR, 활동 센서 알고리즘을 결합한 융합 알고리즘을 통해 실내외, 스마트폰 소지 여부와 상관없이 이상 징후를 탐지할 수 있었다.

V. Conclusions

본 논문에서는 영상, 활동, LiDAR 센서 기반 알고리즘들을 결합하여 사람의 움직임 및 낙상을 탐지를 기반으로 효율적으로 이상 징후를 탐지할 수 있는 융합 알고리즘을 제안했다. 각 알고리즘은 센서가 가진 한계점 때문에 특정 상황에서 이상 징후를 탐지할 수 없어 이를 해결하기 위해 융합 방식을 제안했다. 영상 센서와 2D LiDAR 센서는 실내공간에서 서로 보완하며 사람을 탐지하여 정확한 이상 징후를 탐지하고, 활동 센서는 실내를 벗어나 실외 환경에서도 이상 징후 탐지가 가능하다. 직접 수집한 데이터와 다양한 상황 및 조건 시나리오에서 이상 징후 탐지 실험을 통해 융합 방식을 통해 각 센서가 가진 한계점을 보완할 수 있음을 확인하였다. 추후 연구로는 다양한 센서와 낙상뿐만 아니라 다양한 사람의 행동을 탐지한 일상생활 패턴 분석을 통해 더 정확한 이상 징후 탐지 연구를 할 예정이다.

References

  1. KCCI, "Perspectives of "A survey on changes in consumption behavior and implications in the COVID-19 era," http://www.korcham.net/nCham/Service/Economy/appl/KcciReportDetail.asp?SEQ_NO_C010=20120933952&CHAM_CD=B001
  2. KOSTAT, "2020 Population and Housing Census," https://kostat.go.kr/portal/korea/kor_nw/1/2/2/index.board?bmode=read&aSeq=391020&pageNo=&rowNum=10&amSeq=&sTarget=&sTxt
  3. MOIS, "Resident registration demographics," https://jumin.mois.go.kr/
  4. Seoul 50 Plus Foundation, "A Study on the Solitary Death of Middle-aged People by Analysis of Single-person Household Cahracteristics", https://50plus.or.kr/org/detail.do?id=15001507
  5. NARS, "Problems and Improvement Tasks of Funeral for the Unrelated Death," https://www.nars.go.kr/report/view.do?cmsCode=CM0018&brdSeq=36212
  6. KBS, "A dog that protected the death of an elderly person living alone in Brazil. Shade of "Lonely Death" in Korea," https://news.kbs.co.kr/news/view.do?ncd=5314741
  7. KCA, "A press release for analyzing trends in safety accidents for the elderly," https://www.kca.go.kr/smartconsumer/sub.do?menukey=7301&mode=view&no=1002931735&page=6
  8. NBN News, "Gumi City Prevents Solitary Deaths of Single-person Households by Installing Smart Plugs," http://www.nbnnews.co.kr/news/articleView.html?idxno=667523
  9. X. Wang, and K. Jia, "Human fall detection algorithm based on YOLOv3," IEEE 5th International Conference on Image, Vision and Computing (ICIVC), pp. 50-54, 2020. DOI: https://doi.org/10.1109/ICIVC50857.2020.9177447
  10. K. De Miguel, A. Brunete, M. Hernando and E. Gambao, "Home camera-based fall detection system for the elderly," Sensors, Vol. 17, No. 12: 2864, 2017. DOI: https://doi.org/10.3390/s17122864
  11. P. Van Thanh, D. T. Tran, D. C. Nguyen, N. Duc Anh, D. Nhu Dinh, S. El-Rabaie and K. Sandrasegaran, "Development of a real-time, simple and high-accuracy fall detection system for elderly using 3-DOF accelerometers," Arabian Journal for Science and Engineering, Vol. 44, No. 4, pp. 3329-3342, 2019. DOI: https://doi.org/10.1007/s13369-018-3496-4
  12. J. S. Lee, and H. H. Tseng, "Development of an enhanced threshold-based fall detection system using smartphones with built-in accelerometers," IEEE Sensors Journal, Vol. 19, No. 18, pp. 8293-8302, 2019. DOI: https://doi.org/10.1109/JSEN.2019.2918690
  13. I. N. Figueiredo, C. Leal, L. Pinto, J. Bolito and A. Lemos, "Exploring smartphone sensors for fall detection," mUX: the journal of mobile user experience, Vol. 5, No. 1, pp. 1-17, 2016. DOI: https://doi.org/10.1186/s13678-016-0004-1
  14. H. Miawarni, T. A. Sardjono, E. Setijadi, D. Arraziqi, A. B. Gumelar and M. H. Purnomo, "Fall detection system for elderly based on 2d lidar: a preliminary study of fall incident and activities of daily living (ADL) detection," 2020 International Conference on Computer Engineering, Network, and Intelligent Multimedia (CENIM), pp. 1-5, 2020. DOI: https://doi.org/10.1109/CENIM51130.2020.9298000
  15. F. Luo, S. Poslad and E. Bodanese, "Temporal convolutional networks for multiperson activity recognition using a 2-d lidar," IEEE Internet of Things Journal, Vol. 7, No. 8, pp. 7432-7442, 2020. DOI: https://doi.org/10.1109/JIOT.2020.2984544
  16. D. H. Kim and J. H. Ahn, "Intelligent Abnormal Situation Event Detections for Smart Home Users Using Lidar, Vision, and Audio Sensors," Journal of Internet Computing and Services, Vol. 22, No. 3, pp. 17-26, 2021. DOI: https://doi.org/10.7472/jksii.2021.22.3.17
  17. J. H. Jung, D. H. Lee, S. S. Kim and J. H. Ahn, "Deep Learning-Based User Emergency Event Detection Algorithms Fusing Vision, Audio, Activity and Dust Sensors," Journal of Internet Computing and Services, Vol. 21, No. 5, pp. 109-118, 2020. DOI: https://doi.org/10.7472/jksii.2020.21.5.109
  18. A. Bochkovskiy, C. Y. Wang and H. Y. M. Liao, "Yolov4: Optimal speed and accuracy of object detection," arXiv preprint arXiv:2004.10934, 2020. DOI: https://doi.org/10.48550/arXiv.2004.10934