DOI QR코드

DOI QR Code

Development of Cloud Detection Method Considering Radiometric Characteristics of Satellite Imagery

위성영상의 방사적 특성을 고려한 구름 탐지 방법 개발

  • Won-Woo Seo (Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Hongki Kang (Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Wansang Yoon (Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Pyung-Chae Lim (Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Sooahm Rhee (Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Taejung Kim (Department of Geoinformatic Engineering, Inha University)
  • 서원우 ((주)쓰리디랩스 영상공학연구소 ) ;
  • 강홍기 ((주)쓰리디랩스 영상공학연구소) ;
  • 윤완상 ((주)쓰리디랩스 영상공학연구소) ;
  • 임평채 ((주)쓰리디랩스 영상공학연구소) ;
  • 이수암 ((주)쓰리디랩스 영상공학연구소) ;
  • 김태정 (인하대학교 공간정보공학)
  • Received : 2023.11.27
  • Accepted : 2023.12.04
  • Published : 2023.12.31

Abstract

Clouds cause many difficult problems in observing land surface phenomena using optical satellites, such as national land observation, disaster response, and change detection. In addition, the presence of clouds affects not only the image processing stage but also the final data quality, so it is necessary to identify and remove them. Therefore, in this study, we developed a new cloud detection technique that automatically performs a series of processes to search and extract the pixels closest to the spectral pattern of clouds in satellite images, select the optimal threshold, and produce a cloud mask based on the threshold. The cloud detection technique largely consists of three steps. In the first step, the process of converting the Digital Number (DN) unit image into top-of-atmosphere reflectance units was performed. In the second step, preprocessing such as Hue-Value-Saturation (HSV) transformation, triangle thresholding, and maximum likelihood classification was applied using the top of the atmosphere reflectance image, and the threshold for generating the initial cloud mask was determined for each image. In the third post-processing step, the noise included in the initial cloud mask created was removed and the cloud boundaries and interior were improved. As experimental data for cloud detection, CAS500-1 L2G images acquired in the Korean Peninsula from April to November, which show the diversity of spatial and seasonal distribution of clouds, were used. To verify the performance of the proposed method, the results generated by a simple thresholding method were compared. As a result of the experiment, compared to the existing method, the proposed method was able to detect clouds more accurately by considering the radiometric characteristics of each image through the preprocessing process. In addition, the results showed that the influence of bright objects (panel roofs, concrete roads, sand, etc.) other than cloud objects was minimized. The proposed method showed more than 30% improved results(F1-score) compared to the existing method but showed limitations in certain images containing snow.

구름은 광학위성을 이용한 국토 관측 및 재난 대응, 변화 탐지 등 지표의 현상을 관측하는데 있어 많은 어려운 문제를 야기한다. 구름의 존재는 영상 처리 단계 뿐만 아니라 최종적으로는 데이터의 품질에 영향을 미치므로 이를 반드시 식별하고 제거하는 과정이 필요하다. 따라서 본 연구에서는 위성영상 내 구름의 분광패턴에 가장 근접한 화소를 탐색 및 추출해 최적의 임계값을 선정하고 임계값을 바탕으로 구름 산출물을 제작하는 일련의 과정을 자동으로 수행하는 새로운 구름 탐지 기법을 개발하고자 하였다. 구름 탐지 기법은 크게 세 단계로 구성된다. 첫 번째 단계에서는 Digital Number (DN) 단위 영상을 대기상층 반사율 단위로 변환하는 과정을 수행한다. 두 번째 단계에서는 대기상층 반사율 영상을 이용하여 Hue-Value-Saturation (HSV) 변환 및 삼각형 임계 처리, 최대우도 분류 등의 전처리를 적용하고 각 영상별로 초기 구름 마스크 생성을 위한 임계값을 결정한다. 세번째 후처리 단계에서는 생성된 초기 구름 마스크에 포함된 노이즈를 제거하고 구름 경계 및 내부를 개선한다. 구름 탐지를 위한 실험 자료로 구름의 공간적, 계절적 분포의 다양성을 보여주는 4~11월 시기에 한반도 지역에서 촬영된 국토위성 L2G 영상을 사용하였다. 제안 방법의 성능을 검증하기 위해 단일 임계화 방법으로 생성된 결과를 비교하였다. 실험 결과, 제안 방법은 기존 방법과 비교하여 전처리 과정을 통해 각 영상의 방사학적 특성을 고려할 수 있어 보다 정확하게 구름을 검출할 수 있었다. 또한, 구름 개체를 제외한 나머지 밝은 물체(판넬식 지붕, 콘크리트 도로, 모래 등)의 영향을 최소화하는 결과를 보여주었다. 제안 방법은 기존 방법 대비 F1-score 기준으로 30% 이상의 개선된 결과를 보여주었으나 눈이 포함된 특정 영상에서 한계점이 있었다.

Keywords

1. 서론

차세대중형위성(Compact Advanced Satellite500,CAS500) 개발 사업은 우주산업 발전과 위성영상 활용수요 충족을 목적으로 정부/공공 주도하에 개발이 진행되고 있다(Kim, 2020). 차세대중형위성 1단계 사업에서는 국토이용 및 자원관리, 재난 대응, 공공부문 수요 대응, 공간정보 구축 등의 목적으로 국토관측위성 1호기와 2호기가 개발되었으며, 2단계 사업에서는 농림위성(차세대중형위성 4호)을 비롯한 차세대중형위성 3호와 수자원위성(차세대중형위성 5호)이 2025년에 개발 완료 및 발사 예정에 있다.

이 중 차세대중형위성 시리즈의 첫 번째 위성인 국토관측위성 1호는 2021년 3월 22일 성공적으로 발사되었으며, 2021년 9월부터 국토지리정보원의 국토정보플랫폼을 통해 서비스를 시작하였다. 국토위성은 약 0.5 m 공간 해상도의 전정색 영상과 약 2.0 m 공간 해상도의 blue, green, red 및 near-infrared (NIR) 대역의 다중분광영상을 제공한다. 최근 국토위성센터에서는 국토위성영상 기반의 사용자 친화형 영상 제품을 제공하기 위한 기반 기술을 개발 중에 있다. 사용자 친화형 영상 제품은 구름 마스크 산출물을 포함하여 수계 마스크, 미획득데이터, 누락데이터, 포화데이터, 표면반사율 그리고 메타데이터로 구성되어 있다.

한반도는 사계절 기후 특성으로 인해 다양한 형태의 구름을 흔하게 관측할 수 있는 지역으로 특히 장마가 시작하는 여름 시기에는 구름의 영향을 더욱 크게 받고 있다. 이러한 구름의 영향으로 광학위성을 이용한 국토 관측 및 재난 대응, 변화 탐지 등 지표의 현상을 관측하기 어려운 문제 있다. 또한 구름의 존재는 영상 처리 단계 뿐만 아니라 최종적으로는 데이터의 품질에 영향을 미치므로 이를 반드시 식별하고 제거하는 과정이 필요하다. 이러한 이유로 현재까지도 광학위성영상을 이용하여 구름을 식별하고 제거하기 위한 많은 연구가 진행되고 있다.

구름은 일반적으로 높은 반사율과 낮은 밝기 온도의 특성을 가지고 있으며, 이러한 분광특성을 이용하여 여러 가지 구름 탐지 기법들이 개발되었다(Kriebel et al., 2003; Stowe et al., 1999). 그러나 구름의 분광특성은 구름의 두께, 구성성분, 고도에 따라 다양하게 나타나기 때문에 정확한 구름 탐지는 매우 어려운 과정으로 알려져 있다(Zhu and Woodcock, 2014). 또한 해양에서의 구름 탐지 기법과 비교하여 내륙에서의 구름 탐지는 지표면에 존재하는 식물, 토양, 수면, 눈 등 다양한 피복이 혼재되어 있어 이질적 분광특성을 가진 물체들과 구별되어하므로 기존과 다른 접근 방법이 필요하다(Lee and Lee, 2015).

구름 탐지에 적합한 파장 영역으로는 열적외선(Thermal IR, TIR) 과 더불어 단파적외선(Short Wave IR, SWIR)으로 알려져 있으나(Qiu et al., 2019), 국토위성의 광학 센서로는 단파적외선과 열적외선 영역을 감지할 수 없기 때문에 구름 탐지에 있어서 기본적인 한계가 존재한다. 가시광선~근적외선 영역을 감지할 수 있는 광학위성을 이용하여 구름의 분광 특성을 이용한 구름 탐지 기법은 단일 임계값을 사용하는 방법과 다중시기 영상을 사용하는 방법, 기계학습 모델을 사용하는 방법으로 구분할 수 있다.

첫 번째 방법은 특정 반사율 혹은 반사율 밴드 비에 단일 임계값을 적용하여 구름을 탐지하는 방법으로 Senitnel-2, MODIS, GK-2A 등 많은 광학위성에서 구름 산출물을 생성하기 위해 채택하고 있는 기법이다(Kim and Eun, 2021; Zhong et al., 2017). 이 방법은 간단하고 빠르게 적용할 수 있으나 시기와 지역, 환경 조건에 따라 구름 분광특성에 변이가 존재하기 때문에 적용 과정에서 정확도 저하를 야기할 수 있는 문제가 있다.

두 번째 방법은 관측주기가 빠른 위성에서 수집된 다중시기영상을 이용하여 구름을 탐지 및 예측하는 방법이다(Du et al., 2019; Han et al., 2014; Lee and Choi, 2021). 이 방법은 기본적으로 지표면의 반사율이 단시간 내에 변하지 않는다고 가정하고, 기준영상 대비 대상영상에서 반사율이 급격하게 증가하는 화소를 구름 화소로 간주한다. 그러나 이 방법은 기준영상도 구름이 영향이 매우 적어야 하며, 무엇보다 국토위성과 같이 재방문 주기가 상대적으로 긴 위성에는 대기 및 지표 상태 변화의 문제로 적용하기 어려운 실정이다.

세 번째 방법은 기계학습(Machine Learning, ML) 모델을 이용하여 구름 탐지하는 방법이다. 대표적으로 Support Vector Machine (SVM), Random Foret (RF) 기반 기계학습 모델과 Convolutional Neural Network (CNN) 기반 딥러닝 모델을 통해 구름 탐지가 수행되었다(Hasan et al., 2022; Kang et al., 2021; Park et al., 2023; Zhang et al., 2023). 제안된 여러 기법 중 가장 높은 정확도를 기대할 수 있으나 학습 모델의 종류, 훈련자료의 품질, 특성에 따라 탐지 성능과 결과가 달라질 수 있는 점을 고려해야 한다(Cracknell and Reading, 2014). 특히 국토위성과 같이 비교적 최근에 발사되는 위성영상의 경우 신뢰성이 높은 대량의 훈련자료를 확보하는 데 어려움이 존재한다.

결론적으로 국토위성영상에 적용할 수 있는 구름 탐지 기법은 가시광선 및 근적외선 밴드의 반사율에 단일 임계값을 적용하는 방법으로 시작된다. 그러나 앞서 서술하였듯이 단일 임계값 방법은 시기와 지역, 태양 및 조도 각도 조건에 따라 영상의 방사학적 특성에서 비롯하여 구름의 분광특성이 달라진다. 이러한 변형은 최종 탐지 결과에 심각한 오류를 야기할 수 있기 때문에 보완하는 과정이 필요하다. 따라서 본 연구에서는 위성영상 내 구름의 분광패턴에 가장 근접한 화소를 탐색 및 추출해 최적의 임계값을 선정하고 임계값을 바탕으로 구름 산출물을 제작하는 일련의 과정을 자동으로 수행하는 구름 탐지 기법을 개발하고자 한다.

2. 연구방법 및 자료

2.1. 연구 방법

본 연구에서 제안하는 구름 탐지 방법은 크게 전처리와 후처리로 구분할 수 있으며, 6 단계로 나누어 수행된다(Fig. 1).구름 탐지의 첫 번째 단계는 Top of Atmosphere (TOA) 반사율 변환이다. 해당 단계에서는 상대적인 밝기 값인 Digital Number (DN)를 물리적인 의미로 갖는 대기상층 반사율로 변환하는 과정을 수행한다. 두 번째 단계는 전처리 단계의 도입부로 구름 후보 개체 추출에 필요한 Value 이미지를 획득하기 위해 RGB에서 Hue-Value-Saturation (HSV) 색 공간으로 변환한다. 세 번째 단계에서는 Value 이미지로부터 밝은 개체 후보를 추출하기 위해 삼각형 임계 처리를 적용한다. 네 번째 단계에서는 구름 개체 후보와 그 외 나머지 밝은 개체 후보를 구별하기 위해 최대우도 분류를 수행한다. 다섯 번째 단계에서는 구름 개체 후보로부터 획득한 임계값을 통해 구름 마스크를 생성하고 전처리 결과와 비교하여 초기 구름 마스크를 결정한다. 마지막 여섯 번째 단계는 후처리 단계로 초기 구름 마스크에서 여전히 존재하는 오류를 제거하고 일부 구름의 빈공간을 채우기 위해 형태학적 연산을 적용한다. 최종 생성되는 구름 산출물은 이진(맑음: 0, 구름: 1) 마스크 형태로 생성된다.

OGCSBN_2023_v39n6_1_1211_f0001.png 이미지

Fig. 1. Flow chart of the proposed method.

2.1.1. 대기상층 반사도

대기상층 반사도(TOA Reflectance)는 지구 대기보다 더 높은 고도에 위치한 위성 센서에서 관측된 반사율이다. 대기상층 반사도는 구름과 대기 에어로졸 및 가스 등 여전히 지표물의 특성을 나타내는 순수한 신호로 사용하기 어렵지만 중간값으로서 충분한 역할을 담당한다(Lee, 2019). 본 연구에서는 구름과 지표면에 위치한 물체와의 절대값 차이를 명확히 하기 위해 초기 영상신호인 DN을 대기상층 반사도로 변환하는 방법을 적용하였다(Lee and Kim, 2019). DN을 대기상층 반사도로 변환하는 과정은 아래 식(1), (2)와 같다.

Lλ = DN × Gain + Offset       (1)

\(\begin{aligned}\rho_{\lambda}=\frac{\pi \times L_{\lambda} \times d^{2}}{E S U N_{\lambda} \times \cos \theta_{s}}\end{aligned}\)       (2)

여기서, Lλ와 ρλ는 각각 대기상층 복사휘도와 반사도를 의미하며, d는 지구와 태양 간 천문단위(Astronomical Unit, AU) 거리, ESUNλ은 태양 복사조도, θs는 태양 천정 각도를 의미한다.

2.1.2. HSV 색 공간

HSV 색 공간은 다양한 색 공간 중 하나로 색상(Hue), 채도(Saturation), 명도(Value)를 기준으로 색상을 배열하는 원통형 좌표계이다. HSV는 RGB 색 공간과 달리 색상을 직관적으로 나타내기 때문에 영상처리 및 컴퓨터 비전에서 자주 사용된다. 또한, 명도는 색의 밝기를 나타내는 지표로 명도가 높을수록 밝게 나타나고, 명도가 낮을수록 어두워지는 특징이 있어 명도(밝기)에 대한 특정 범위를 결정하는 프로세스를 단순화 할 수 있다.

구름은 위성영상 내에서 상대적으로 밝은 신호값을 나타내고 있으며, 이러한 신호값을 나타내는 화소를 식별하기 위해 국토위성영상의 RGB 밴드를 HSV 색 공간으로 변환하였다(Fig. 2). 이를 통해 RGB 각각에 대한 임계값을 결정하는 대신 HSV 중 밝기에 대한 임계값만을 결정하여 위성영상 내에 존재하는 구름을 포함하여 밝기값이 상대적으로 높은 화소를 식별하고자 하였다.

OGCSBN_2023_v39n6_1_1211_f0002.png 이미지

Fig. 2. Example of value channel image using true composite image of CAS500-1.

2.1.3. 삼각형 임계 처리

삼각형 임계(Triangle thresholding) 처리 방법은 하나의 주요 배경에서 최대 주파수 피크(Peak)가 있는 영상의 임계값을 결정하는 데 널리 사용되는 접근 방식이다(Zack et al., 1977). 먼저 히스토그램의 피크와 피크에서 가장 멀리 있는 0이 아닌 엔드(End)를 연결하는 선분(or 베이스라인)을 계산한다. 이후 탐색(피크~엔드) 구간내 각 지점에서 기준선 간의 거리를 반복 계산을 수행하고, 구간 내에서 거리(d)가 최대가 되는 지점을 탐색한다. 거리가 최대가 되는 지점을 초기 임계값으로 결정하고 Offset을 통해 임계값을 조정하는 과정을 거쳐 최종 임계값을 결정한다. 이 방법은 HSV 변환이 완료된 이후 밝기 채널 영상으로부터 밝은 개체 후보와 어두운 개체 후보를 구분하는 데 사용하였으며, Offset은 -5로 지정하였다(Fig. 3).

OGCSBN_2023_v39n6_1_1211_f0003.png 이미지

Fig. 3. Example of applying the triangle thresholding method.

2.1.4. 최대우도 분류

최대우도(Maximum likelihood) 분류는 원격탐사 분야에서 가장 보편적으로 사용되고 있는 분류 방법으로 영상 내 모든 화소를 대상으로 클래스에 속할 확률을 아래 식(3)을 통해 계산하고 최대 확률을 갖는 특정 클래스로 할당하는 방법이다. 이 때 클래스에 포함된 영상 화소들이 정규분포를 가진다는 가정을 하에 분류를 수행하기 때문에 가우시안(Gaussian) 최대우도 분류라고도 한다(Lee, 2021). 이는 밴드별 평균과 밴드 간 공분산 특성을 고려하여 클래스 크기가 동일하지 않은 이봉 분포에서 자동 임계값 선택에 일반적으로 사용되는 오츠(Otsu)의 방법에 비해 더 강력한 접근 방식으로 알려져 있다. 이 방법을 실험에 적용하기 위해 삼각형 임계처리 방법으로 추출된 밝은 개체 후보에 구름 개체 후보 클래스와 나머지 밝은 개체 후보 클래스 이두개 클래스가 존재한다고 가정하였다. 그리고 평균 화소값 벡터가 높은 화소와 평균 화소값 벡터가 낮은 화소를 사전에 정의하고 최대우도 분류를 수행하였다. 이를 통해 모든 밴드에 걸쳐 반사도가 높게 형성된 구름 개체 후보와 특정 밴드 혹은 모든 밴드에서 반사도가 낮게 형성된 나머지 밝은 개체 후보를 분리하였다.

\(\begin{aligned}P\left(X \mid w_{i}\right)=\frac{1}{(2 \pi)^{\frac{n}{2}}\left|V_{i}\right|^{\frac{1}{2}}} \exp \left[-\frac{1}{2}\left(X-M_{i}\right)^{T} V_{i}^{-1}\left(X-M_{i}\right)\right]\end{aligned}\)       (3)

여기서, P(X|wi)는 화소 X가 클래스 wi에 포함될 확률을 의미하며, X는 분류할 화소값의 벡터를 의미한다. 또한 Vi와 Mi는 각각 클래스의 분산 공분산 행렬과 평균벡터를 의미한다.

2.1.5. 초기 구름마스크 생성

최대우도 분류가 적용된 시점에서 두 가지 방법을 사용하여 초기 구름 마스크의 임계값을 결정하였다. 첫 번째 방법은 구름 후보 개체의 평균과 표준편차를 이용한 방법으로 반복적인 실험을 통해 밴드별로 최적의 표준 편차 계수를 도출하였고, 이 중에서 구름 탐지에 적합한 blue, NIR 밴드, red/blue ratio로부터 산출된 계수를 사용하였다. 두 번째 방법은 누적분포함수(Cumulative Distribution Function, CDF)를 이용한 방법으로 이전 방법과 동일한 blue, NIR 밴드, red/blue ratio에 대한 누적 분포함수를 사용하였다. CDF의 x축은 구름 후보 개체에 대한 대기상층 반사율을 나타내고 y축은 누적 확률을 의미한다(Fig. 4). Blue, NIR 밴드는 그래프 전반부에서 나타난 변곡점을 임계값으로 결정하고, red/blue ratio는 그래프 후반부에서 나타난 변곡점을 임계값으로 결정하였다. 이 방법은 주로 낮은 반사도에서 변곡점(blue, red 밴드)이 형성되어 광량이 높은 여름시기보다 광량이 낮은 겨울시기 영상에 적합한 것으로 확인되었다. 두 방법 중 전처리를 통해 추출된 구름 후보 개체와 두 방법으로 생성한 구름 마스크와 비교하여 공간적 분포 특성이 가장 유사한 구름 마스크를 초기 구름 마스크로 결정하였다.

OGCSBN_2023_v39n6_1_1211_f0004.png 이미지

Fig. 4. Example of threshold estimation method using CDF.

2.1.6. 후처리 및 최종 구름 마스크 생성

앞서 초기 구름 마스크를 개선하기 위해 후처리 단계에서 두 가지 방법을 적용하였다. 먼저 초기 구름 마스크에 여전히 남아있는 작은 노이즈를 제거하기 위해 구름으로 추출된 각 화소 영역의 경계선을 찾아 객체 면적(Area)을 산출하고 해당 면적이 125 화소(500 m2)보다 작은 객체는 삭제하였다. 면적이 500 m2 이하의 화소는 구름이 아닌 대부분 노이즈로 확인되어 기준을 다음과 같이 선정하였다. 이후 형태학적 연산(Morphological operation) 중 팽창(Dilatation) 연산을 적용하여 구름의 외부(경계) 영역을 확장하고 구름 내부의 빈 공간을 채워 최종 구름 마스크를 생성하였다.

2.1.7. 정확도 검증

최종 구름 마스크의 정확도 검증을 위해 정성적 평가와 정량적 평가를 수행하였다. 정성적 평가는 구름 마스크과 이에 상응하는 참값 자료를 겹쳐서 차이가 발생하는 영역에 대해서 비교를 수행하였다. 정량적 평가는 각 영상별로 재현율, 정밀도, F1-score 지수를 활용하여 평가하였으며, 해당 지수는 오차평균(Confusion matrix)의 정탐지(True Positive, TP), 오탐지(Fasle Positive, FP), 미탐지(False Negetive, FN)를 통해 산출하였다. 재현율(Recall)은 참값이 True (1)인 것 중에서 예측결과가 True인 비율로 식(4)와 같이 정의할 수 있으며, 정밀도(Precision)는 예측 결과가 True인 것 중에서 실제 True인 비율로 식(5)와 같이 정의할 수 있다. F1-score는 식(6)과 같이 정밀도와 재현율의 조화평균(Harmonic mean)으로 계산된다.

\(\begin{aligned}\text {Recall}=\frac{\text { True Positive }}{\text { True Positive }+ \text { False Negative }}\end{aligned}\)       (4)

\(\begin{aligned}\text {Precision}=\frac{\text { True Positive }}{\text { True Positive }+ \text { False Positive }}\end{aligned}\)       (5)

\(\begin{aligned}\text {F1-score}=\frac {2{\times} \text { Precision} {\times {Recall}}}{\text { Precision }+ \text { Recall }}\end{aligned}\)       (6)

2.2. 연구 자료

본 연구에서는 국토위성의 주 촬영 대상지인 한반도 지역을 연구 대상으로 하였다(Fig. 5). 한반도는 지리적으로 중위도 온대성 기후대에 위치하여 봄, 여름, 가을, 겨울의 사계절 특성이 뚜렷하게 나타난다. 봄과 가을은 대륙성 열대기단의 영향으로 따뜻하고 건조하고 여름에는 고온 다습한 북태평양 고기압의 영향으로 무더운 날씨를 보이며, 겨울에는 한랭 건조한 시베리아 기단의 영향을 받아 춥고 건조하다. 이러한 기후 특성은 구름의 공간적 계절적 분포에 다양성을 보여 연구 지역으로서 적합하다.

OGCSBN_2023_v39n6_1_1211_f0005.png 이미지

Fig. 5. Study area overview.

OGCSBN_2023_v39n6_1_1211_f0006.png 이미지

Fig. 6. True color CAS500-1 images in 10 study areas.

국토지리정보원 국토위성센터에서는 2021년 9월부터 국토정보플랫폼을 통해 정밀기하 및 정사보정 처리가 완료된 국토위성 Level2G (L2G) 영상을 제공하고 있으며, 본 연구에서 실험 자료로 사용하였다. 국토위성영상은 2 m의 공간해상도를 갖고 있으며, blue, green, red, NIR 밴드 4개를 포함한다. 대상 시기는 구름 분포의 공간적, 시간적 특성을 고려하여 2022년 4월부터 2022년 12월에 걸쳐 한반도 지역에서 촬영된 국토위성영상 10장을 선정하였으며, Table 1은 연구에 사용한 국토위성영상의 목록과 정보를 보여준다.

Table 1. Summary of CAS500-1 images used in this study

OGCSBN_2023_v39n6_1_1211_t0001.png 이미지

참값 자료는 오픈소스 지리정보 시스템 소프트웨어인 Quantum GIS (QGIS)에서제공하는 디지타이징(Digitizing) 기능을 이용하여 영상 내 구름을 직접 판별하고 구름 영역을 포함하면서 데이터를 획득하였다. 이 과정에서 구름 외곽에 위치한 얇은 구름을 제외한 배경(지표면 형태)이 식별될 정도로 전체적으로 얕은 구름은 참값에서 제외하였다. 참값 자료는 이진(Binary) 마스크 형태로 제작하였으며, 구름의 경우는 1 구름이 아닐 경우 0으로 표현하였다. 구름 탐지 결과 영상과 비교 대조하기 위하여 좌표계는 평면직각좌표계인 UTM-K (EPSG:5179)로 정의하였다. 각 영상별 운량은 참값으로부터 산출하였으며, 다양한 구름 분포 특성을 고려하기 위해 운량이 약 1%부터 16%까지 분포하고 있는 영상으로 사용하였다.

3. 연구결과 및 토의

3.1. 정성적 검증

본 연구에서 제안 방법과 기존 단일 임계값 방법 간의 차이를 비교 분석하기 위해 실험 자료인 10장의 국토위성영상과 참값 자료를 이용하여 각 영상으로부터 구름의 평균 대기상층 반사도를 취득하였다. 이 중에서 blue, NIR, red/blue ratio의 평균 대기상층 반사도를 이용하여 단일 임계값으로 결정하고 모든 영상에 동일하게 적용하여 단일 임계값 결과를 산출하였다.

제안 방법은 단일 임계값 결과와 비교하여 많은 개선점이 확인되었다. 기존 방법으로 탐지된 결과 Fig. 7(b)를 보면 원본영상 (a)와 비교하여 구름 뿐만 아니라 오탐지 요소도 포함되어 검출된 것을 확인할 수 있다. 오탐지 요소는 주로 지표물 중에서도 높은 반사율을 가지는 콘크리트 도로, 비닐하우스, 판넬식 지붕 등을 대상으로 검출되었으며, 대기 및 광량, 촬영 조건 등에 의해 일시적으로 반사율이 높은 지표물에서도 오탐지가 확인되었다(Fig. 8). 특히 한반도는 여름 시기에 근접할수록 지표에 도달하는 광량이 높아지기 때문에 지표물의 반사율도 높아져 다른 시기보다 더 많은 오탐지를 유발하는 경향을 보이고 있었다. 반면 제안 방법으로 탐지된 결과 Fig. 7(c)를 보면 각 영상에서 추출된 구름 후보 개체로부터 도출된 화소 통계값을 활용하여 구름의 분광패턴을 고려하기 기존 방법보다 효과적으로 구름 개체를 탐지하는 결과를 보이고 있었다.

OGCSBN_2023_v39n6_1_1211_f0007.png 이미지

Fig. 7. Comparison of results of simple thresholding method and proposed method: (a) original image, (b) simple thresholding method, and (c) proposed method.

OGCSBN_2023_v39n6_1_1211_f0008.png 이미지

Fig. 8. Comparison of results of simple thresholding method and proposed method.

OGCSBN_2023_v39n6_1_1211_f0009.png 이미지

Fig. 9. Spectral pattern analysis of clouds and snow for Scene#10.

적운, 적란운, 하층운과 같이 두꺼운 구름의 경우 다른 피복들과 뚜렷한 분광패턴 차이를 보이고 있기 때문에 대부분의 영상에서 정상 검출된 것을 확인할 수 있다. 권운, 권적운과 같이 얇은 구름의 경우 구름의 분광특성과 구름 아래 육지의 분광 특성이 혼재되어 두꺼운 구름과 비교하여 다소 낮은 검출률을 보이고 있다. 얇은 구름에 대한 미탐율을 줄이기 위해 전처리 과정에서 구름 후보 개체를 늘릴 수 있지만, 오탐율도 기하급수적으로 증가하기 때문에 현재 결과를 유지하였다.

#10번 영상의 경우 구름 뿐만 아니라 지표면에서 많은 오탐지가 발생하였는데, 주로 눈에서 오류가 검출된 것을 확인할 수 있다. #7번도 동일하게 눈이 포함되어 있는 영상이지만 눈이 검출되지 않은 이유는 시기적으로도 4월에 해당하고 반사율도 상대적으로 낮은 것으로 보아 눈이 녹는 시기로 판단된다. 반면 #10번 영상은 12월에 촬영된 영상으로 눈이 쌓이고 얼고 있는 시기에 해당하여 높은 반사율을 나타내고 있었으며 구름과 눈의 분광패턴이 매우 유사한 것을 확인할 수 있었다. 이러한 높은 유사성으로 인해 두 분류 방법에서도 눈이 제거되지 않았으며, 결과적으로 가시광선~근적외선 센서를 이용하여 분광학적인 접근 방법으로 두 물체를 구분하기에 한계가 있음을 확인할 수 있었다.

제안 방법의 결과와 참값을 비교한 결과, 두꺼운 구름 영역은 대부분 유사하게 중첩하고 있었으며, 팽창 연산을 통해 두꺼운 구름 사이 빈 공간 영역에 대해서도 구름으로 일치하는 것을 확인할 수 있다. 얇은 구름 영역도 상호 일치하는 영역이 다수 존재하였으나, 두꺼운 구름 영역보다 많은 불일치성을 보이고 있었다. 이러한 불일치성은 구름의 분광 특성과 구름 아래 존재하는 지표물의 분광특성이 혼재된 경우에서 흔하게 관측되었다(Fig. 10). 정성적 검증 결과에서 제안 방법은 기존 방법보다 향상된 구름 탐지 성능을 보여주었으며, 참값과도 매우 유사한 결과를 보여주었다. 다만 제안 방법은 오탐율보다 미탐율이 높은 경향을 보이고 있었으며, 대부분의 미탐지 요소는 한 화소 영역 안에서 분광특성의 혼합이 발생한 얇은 구름에서 주로 발생하고 있음을 확인할 수 있었다.

OGCSBN_2023_v39n6_1_1211_f0010.png 이미지

Fig. 10. Comparison of proposed method results and ground truth.

3.2. 정량적 검증

기존 방법과 제안 방법에 대한 정량적 분석결과는 Table 2와 같다. 기존 방법의 평균 재현율, 정밀도, F1-score가 각각 56.5, 74.7, 53.5를 보이고 있으며, 제안 방법의 평균 재현율, 정밀도, F1-score는 83.8, 86.7, 82.7로 재현율과 F1-score는 약 30%p에 가까운 증가폭을 보였으며, 정밀도는 약 12%p가 증가되며 높은 정확도 차이를 보이고 있다. 기존 방법의 결과 중 영상 #10번을 제외한 정확도가 떨어지는 #5, #7번 영상의 구름 평균 대기상층 반사율을 보면 모든 영상에 공통적으로 정의한 임계값에 미치지 못한 것을 볼 수 있다(Fig. 11). 또한 #8번의 경우는 사전에 정의된 임계값이 일부 지표물의 평균 대기상층 반사율 보다 낮아 오탐지가 과다하게 나타난 것으로 확인되었다.

Table 2. The accuracy assessment results for simple thresholding and proposed method

OGCSBN_2023_v39n6_1_1211_t0002.png 이미지

OGCSBN_2023_v39n6_1_1211_f0011.png 이미지

Fig. 11. Average TOA reflectance of clouds for each image.

다양한 조건에 따라 구름의 분광특성에 변이가 발생하기 때문에 단일 임계값 방법으로 구름을 탐지하는 것이 한계가 있음을 직접적으로 보여준다. 눈이 포함된 #10번 결과의 경우 제안 방법의 재현율이 대폭 향상되면서 F1-score도 10%p 이상의 차이를 보여주고 있다. 눈과 구름의 분광특성은 많은 유사성을 보이기 때문에 이전 정성적 결증에서도 #10번 영상의 기존 방법과 제안 방법의 결과에 공통적으로 구름과 눈이 같이 검출된 것을 확인할 수 있었다. 하지만 제안 방법은 영상 내 구름과 눈이 혼재되어 있어도 구름에 대한 정탐지가 증가하고 미탐지는 감소하여 재현율이 증가하는 결과를 보여 주었다. 다만 두 방법으로 탐지한 대부분의 구름 화소 중에 눈이 포함되어 있어 정밀도 측면에서는 큰 차이가 없는 것으로 나타났다.

기존 방법과 비교하여 제안 방법은 최적의 임계값을 도출하는 과정에서 연산량이 증가하였기 때문에 처리 시간(Processing time, Proc_time)에 대한 비교도 수행하였다. 기존 방법은 최소 1.78초에서 최대 2.14초로 대부분 1~2초에서 끝나는 반면, 제안 방법은 최소 4.81초에서 최대 8.08초까지 영상 크기 및 특성에 따라 차이가 나타났다. 제안 방법은 기존 방법에 비해 연산량이 늘어나 상대적인 시간은 약 3~4배 증가하였으나, 절대적 시간 관점에서 보면 하나의 Scene 당 10초 내로 처리되는 점에 있어서 어느 정도의 신속성도 확보되었다고 할 수 있다.

4. 결론

본 논문에서는 기존의 구름 탐지 기법 중 가장 보편적으로 사용되는 단일 임계값의 문제를 보완한 구름 탐지 방법을 제안하였다. 제안 방법은 사전에 정해진 임계값을 모든 영상에 적용하는 것이 아닌 전처리를 통해 영상 내 구름 개체 후보를 자동으로 탐색하고 개체에 포함된 화소의 통계값 및 누적분포함수를 통해 최적의 임계값을 적용하였다. 제안방법의 구름 탐지 성능을 알아보기 위해 한반도 지역에서 다양한 구름 종류가 관측 가능한 4월부터 11월까지의 국토위성영상을 사용하여 단일 임계값 방법과 비교를 수행하였다.

제안 방법은 기존 방법과 비교하여 구름의 분광특성과 유사한 밝은 개체를 전처리 과정에서 제거함으로써 오탐지를 대폭 감소시키는 결과를 보여주었다. 후처리 과정에서 일부 규모가 매우 작은 구름이 제거되었으나, 지표면에 존재하는 오류도 그 이상 충분히 제거할 수 있었으며 팽창 연산을 통해 구름의 빈 공간을 충분히 채워 줌으로서 탐지 성능을 향상시킬 수 있었다. 오탐지 요소뿐만 아니라 일부 영상에서는 미탐지 요소를 감소시킨 결과를 보여주면서 오탐지, 미탐지 요소에 대한 탐지 성능이 모두 향상된 것을 확인할 수 있다.

시기별로 구름의 분광특성 변이가 존재하고 있음에도 전체적으로 탐지 정확도가 향상된 것으로 보아 전처리 과정을 통해 다양한 조건에서 발생된 변이가 고려되고 있음을 확인할 수 있었다. 단일 임계값 방법의 문제점은 특정 조건의 구름의 반사율이 사전에 결정된 임계값보다 낮을 경우 현저하게 높은 오류를 야기하였고, 이를 통해 영상별로 임계값에 보정치가 반드시 적용되어야 하는 것을 확인할 수 있었다.

다만 제안방법도 몇몇 한계점을 보이고 있었는데, 그 중 첫 번째는 상대적으로 재현율보다 정밀도가 높은 양상을 보이는 문제가 존재한다. 다시 말해 영상 내에 정확한 구름 화소만을 탐지하려는 특성이 있어, 얇은 구름의 경우와 같이 구름과 지표면의 분광특성과 혼합이 발생되는 영역에서 다소 저조한 탐지 성능을 나타내고 있었다. 얇은 구름은 전처리 결과와 높은 상관성을 가지고 있기 때문에 전처리 과정에서 Offset 조정 등을 통해 개선할 수 있는 여지가 남아있다. 두 번째는 센서 분광대역의 한계로 눈이 포함된 위성영상에서는 여전히 낮은 탐지 정확도를 보이는 한계가 있었다. 세 번째는 운량이 20% 이상인 영상에 대한 적용 사례가 부족하다는 점이 있었다. 국토위성영상은 정밀기하보정 처리 과정에서 영상에 구름이 일정 기준치 이상 포함되어 있는 경우 처리에서 제외되기 때문에 자료 확보에 한계가 있었고, 타 위성자료에 적용할 필요가 있음을 확인하였다. 향후 이러한 한계점을 보완하기 위해 전처리 및 자동 임계값 도출 과정을 안정화하고 부가자료를 이용하여 겨울철 눈의 영향을 고려할 수 있는 방안을 모색할 예정이다.

사사

본 연구는 국토지리정보원 국토위성센터의 “국토위성 표면반사율 영상 및 부가정보 패키지 생산 SW 개발” 사업 및 농촌진흥청 국립농업과학원 농업과학기술 연구개발사업(과제번호: PJ0162342023)의 지원으로 수행되었습니다.

Conflict of Interest

No potential conflict of interest relevant to this article was reported.

References

  1. Cracknell, M. J., and Reading, A. M., 2014. Geological mapping using remote sensing data: A comparison of five machine learning algorithms, their response to variations in the spatial distribution of training data and the use of explicit spatial information. Computers & Geosciences, 63, 22-33. https://doi.org/10.1016/j.cageo.2013.10.008
  2. Du, W., Qin, Z., Fan, J., Gao, M., Wang, F., and Abbasi, B., 2019. An efficient approach to remove thick cloud in VNIR bands of multi-temporal remote sensing images. Remote Sensing, 11(11), 1284. https://doi.org/10.3390/rs11111284
  3. Han, Y., Kim, B., Kim, Y., and Lee, W. H., 2014. Automatic cloud detection for high spatial resolution multi-temporal images. Remote Sensing Letters, 5(7), 601-608. https://doi.org/10.1080/2150704X.2014.942921
  4. Hasan, A., Witharana, C., Udawalpola, M. R., and Liljedahl, A. K., 2022. Detection of clouds in medium-resolution satellite imagery using deep convolutional neural nets. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 46, 103-109. https://doi.org/10.5194/isprs-archives-XLVI-M-2-2022-103-2022
  5. Kang, J., Kim, G., Jeong, Y., Kim, S., Youn, Y., Cho, S., and Lee, Y., 2021. U-net cloud detection for the SPARCS cloud dataset from Landsat 8 images. Korean Journal of Remote Sensing, 37(5-1), 1149-1161. https://doi.org/10.7780/kjrs.2021.37.5.1.25
  6. Kim, S. H., and Eun, J., 2021. Development of cloud and shadow detection algorithm for periodic composite of Sentinel-2A/B satellite images. Korean Journal of Remote Sensing, 37(5-1), 989-998. https://doi.org/10.7780/kjrs.2021.37.5.1.13
  7. Kim, T., 2020. Current research and development status for CAS 500-1/2 image processing and utilization technology. Korean Journal of Remote Sensing, 36(5-2), 861-866. https://doi.org/10.7780/kjrs.2020.36.5.2.1
  8. Kriebel, K., Gesell, G., Kastner, M., and Mannstein, H., 2003. The cloud analysis tool APOLLO: Improvements and validations. International Journal of Remote Sensing, 24(12), 2389-2408. https://doi.org/10.1080/01431160210163065
  9. Lee, H. S., and Lee, K. S., 2015. Development of cloud detection method with Geostationary Ocean Color Imagery for land applications. Korean Journal of Remote Sensing, 31(5), 371-384. https://doi.org/10.7780/kjrs.2015.31.5.2
  10. Lee, K., and Kim, K., 2019. An experiment for surface reflectance image generation of KOMPSAT 3A image data by open source implementation. Korean Journal of Remote Sensing, 35(6-4), 1327-1339. https://doi.org/10.7780/kjrs.2019.35.6.4.3
  11. Lee, K. S., 2019. Atmospheric correction issues of optical imagery in land remote sensing. Korean Journal of Remote Sensing, 35(6-3), 1299-1312. https://doi.org/10.7780/kjrs.2019.35.6.3.12
  12. Lee, K. S., 2021. Remote sensing principles and methods. CIR.
  13. Lee, S., and Choi, J., 2021. Daytime cloud detection algorithm based on a multitemporal dataset for GK-2A imagery. Remote Sensing, 13(16), 3215. https://doi.org/10.3390/rs13163215
  14. Park, S., Kwak, G.-H., Ahn, H.-Y., and Park, N.-W., 2023. Performance evaluation of machine learning algorithms for cloud removal of optical imagery: A case study in cropland. Korean Journal of Remote Sensing, 39(5-1), 507-519. https://doi.org/10.7780/KJRS.2023.39.5.1.4
  15. Qiu, S., Zhu, Z., and He, B., 2019. Fmask 4.0: Improved cloud and cloud shadow detection in Landsats 4-8 and Sentinel-2 imagery. Remote Sensing of Environment, 231, 111205. https://doi.org/10.1016/j.rse.2019.05.024
  16. Stowe, L. L., Davis, P. A., and McClain, E. P., 1999. Scientific basis and initial evaluation of the CLAVR-1 global clear/cloud classification algorithm for the Advanced Very High Resolution Radiometer. Journal of Atmospheric and Oceanic Technology, 16(6), 656-681. https://doi.org/10.1175/1520-0426(1999)016<0656:SBAIEO>2.0.CO;2
  17. Zack, G. W., Rogers, W. E., and Latt, S. A., 1977. Automatic measurement of sister chromatid exchange frequency. Journal of Histochemistry & Cytochemistry, 25(7), 741-753. https://doi.org/10.1177/25.7.70454
  18. Zhang, C., Weng, L., Ding, L., Xia, M., and Lin, H., 2023. CRSNet: Cloud and cloud shadow refinement segmentation networks for remote sensing imagery. Remote Sensing, 15(6), 1664. https://doi.org/10.3390/rs15061664
  19. Zhong, B., Chen, W., Wu, S., Hu, L., Luo, X., and Liu, Q., 2017. A cloud detection method based on relationship between objects of cloud and cloud-shadow for Chinese moderate to high resolution satellite imagery. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 10(11), 4898-4908. https://doi.org/10.1109/JSTARS.2017.2734912
  20. Zhu, Z., and Woodcock, C. E., 2014. Automated cloud, cloud shadow, and snow detection in multitemporal Landsat data: An algorithm designed specifically for monitoring land cover change. Remote Sensing of Environment, 152, 217-234. https://doi.org/10.1016/j.rse.2014.06.012