I. Introduction
의료영상에서 CT(Computed Tomography, 컴퓨터 단층촬영)는 X-선이 환자 신체 일부를 흡수 혹은 투과하여 인체 내부 장기, 뼈 등에 대한 정밀한 영상을 촬영하고 이를 분석해 환자의 질병을 진단하는 매우 유용한 첨단 의료장비이다. 하지만 이를 획득 및 전송 또는 외부 요인으로 인해 생성된 잡음은 영상의 품질을 저하시켜 의료영상 분석의 방해요소로 작용한다. 특히, 저선량 CT 영상인 경우 방사선량을 줄이면 상대적으로 안전하지만, 잡음이 증가하고 정확도가 떨어진다. 따라서 CT 영상에서 정확한 영상 판독을 위해 효과적인 잡음제거는 영상 복원 분야에서 매우 불가결한 요구조건이다[1].
영상에 흔히 존재하는 잡음에는 가우시안 잡음 , 임펄스 잡음 그리고 포아송 잡음 등이 대표적이다[2-3]. 영상처리 분야에서 이러한 잡음을 제거하기 위한 다양한 방법들이 제안되었으나 대부분 특정 공간 도메인에서 정의된 방법들이다. 전통적인 방법인 Mean 필터, Median 필터 외에도 이를 개선한 Bilateral 필터[4], NL-means 방법[5-6] 등이 여기에 속한다. 이 방법들은 특정한 잡음제거만을 위해 설계된 필터들이다. 따라서 필터의 특성과 잡음분포의 특성이 일치하지 않을 경우 잡음제거하는데 효과적이지 못하다.
최근 몇 년간 딥러닝 중 CNN (convolutional neural network) 모형과 AE (autoencoder) 모형 등이 잡음제거에 주로 사용되었으며, 정성적이고 정량적인 측면에서 우수한 성능을 보였다[7-9]. 원래 CNN 모형은 영상인식에 특화된 모형으로 다수의 컨볼루션 층과 풀링 층을 거쳐 차원을 줄여나가며, 이를 통해 영상이 가진 특징들을 추출하여 잡음을 제거하였고, AE 모형은 인코더-디코더 구조를 갖고 입력값과 같은 출력값을 비지도 학습에 의해 재구성 한다. CAE (convolutional autoencoder) 모형은 CNN 모형과 AE 모형의 결합 형태로서 AE 모형에서 완전 연결층을 CNN 모형의 컨볼루션 층으로 대체하여 얻어진 모형으로 기존 CNN 모형보다 뛰어난 잡음 제거력을 갖고 있고, 최근에는 잡음제거를 위해 CAE 모형으로부터 변형된 모형들이 많이 개발되고 있다[7][10-11].
본 논문에서는 기존 CAE 모형에 deformable 컨볼루션 연산을 적용한 DeCAE (deformable convolutional autoencoder) 모형을 통해 잡음 제거 성능을 향상시키고자 한다. CAE 모형은 인코더와 디코더 모두 컨볼루션 층으로 구성된 AE 구조인 반면에 DeCAE 모형의 인코더는 deformable 컨볼루션 층으로 구성되고, 디코더는 기존 컨볼루션 층으로 구성된 AE 구조이다. 여기서, deformable 컨볼루션 연산은 추가적인 2D 오프셋 연산을 통해 기존 컨볼루션 층 보다 유연한 형태 변형을 통해 다양한 특징추출이 가능한 컨볼루션 연산이다[12-15]. 최근 딥러닝 모형에 deformable 컨볼루션 연산 사용으로 기존 컨볼루션 연산보다 많은 이점으로 인해 객체 탐지, 영상 분할 등에 사용되고 있다[16].
본 논문에서는 제안된 DeCAE 모형의 성능을 평가하기 위해 다양한 잡음, 즉, 가우시안 잡음, 임펄스 잡음 그리고 포아송 잡음하에서 전통적인 공간 필터인 Mean 필터, Median 필터와 기존의 딥러닝의 CAE 모형과 비교하였다. 성능실험에서 비교척도로서 직접 눈으로 평가하는 정성적인 비교와 PSNR (Peak Signal-to-Noise Ratio), MAE (Mean Absolute Error)와 SSIM(Structural Similarity Index Measure)을 통한 정량적인 비교를 수행한다[17-18].
본 논문은 다음과 같이 구성되어 있다. 제 II 장에서는 관련 연구로서 잡음 모형과 딥러닝의 CAE 모형에 대해 논의하고, 제 III 장에서는 DeCAE 모형을 이용한 잡음제거 방법에 대해 논의한다. 제 IV 장에서는 영상 실험을 통해 정성적이고, PSNR, MAE, SSIM 척도에 의한 정량적인 비교를 수행하고 제 V 장에서 결론을 맺는다.
II. Preliminaries
1. Noise Models
X∈Rm × n 와 Y∈Rm × n을 각각 원영상과 잡음영상이라 할 때 잡음 정도가 α인 가우시안 잡음 모형은 식 (2.1)과 같다.
Y = X + α × Z , (2.1)
여기서 Z는 평균이 0이고 표준편차가 1인 표준정규분포를 갖는 확률변수를 나타낸다.
잡음 비율 p인 임펄스 잡음 모형은 식 (2.2)와 같다.
\(\begin{aligned}Y=\left\{\begin{array}{l}X: \text { with probability } 1-p \\ \eta: \text { with probability } p\end{array}\right.\end{aligned}\) (2.2)
여기서 η은 픽셀값이 0 또는 255(혹은 1)인 잡음을 나타낸다.
잡음 정도가 α인 포아송 잡음 모형은 식 (2.3)과 같다.
Y = X + α × P(λ), (2.3)
여기서 P(λ)는 평균 λ인 포아송 분포를 갖는 확률 변수를 나타낸다.
2. CAE Model
잡음 제거를 위한 CAE 모형은 Fig. 2.1과 같이 인코더-디코더 구조를 갖고 있고 DNN(deep neural network)의 완전 연결 층 대신 CNN의 컨볼루션 층을 갖는 모형이다. 다시 말하면, CAE 모형은 AE 모형의 인코더에는 컨볼루션 층과 풀링 층으로 구성되며, 디코더에는 컨볼루션 층과 업샘플링 층을 사용하여 얻어진 모형으로 AE 모형에 비해 영상처리에 적합하다[19-21].
Fig. 2.1 CAE architecture for image denoising
Fig. 2.1에서 CAE의 구조를 살펴보면, 인코더에서 세번의 컨볼루션 층과 두 번의 맥스풀링 층을 통해 크기를 줄여나가며 영상의 의미 있는 특징들을 추출하며, 디코더에서 세 번의 컨볼루션 층과 두 번의 업샘플링 층들을 통해 잡음제거 영상을 출력한다. 학습은 재구성 오차에 의해 얻어진 손실 함수가 최소가 되도록 비지도 학습에 의해 이루어진다.
III. The Proposed DeCAE model forImage Denoising
1. Deformable Convolution
먼저 일반적인 3×3 컨볼루션을 생각해보자. 그러면 컨볼루션 커널의 각 위치를 식 (3.1)과 같이 표현할 수 있다.
R = {(-1, -1), (-1, 0), ...,(0, 1), (1, 1)} (3.1)
각 위치 pn∈R의 커널값을 w(pn)라 표시하고, 특징맵에서 임의의 위치 p0∈R의 픽셀값을 x(p0)라 표시할 때, 임의의 위치 p0에서의 일반적인 컨볼루션 연산은 식 (3.2)와 같다.
\(\begin{aligned}y\left(p_{0}\right)=\sum_{p_{n} \in R} w\left(p_{n}\right) x\left(p_{0}+p_{n}\right)\end{aligned}\) (3.2)
deformable 컨볼루션은 식 (3.2)에서 픽셀값 x(p0 + pn)에 오프셋 ∆pn을 더함으로서 식 (3.3)과 같이 얻어진다.
\(\begin{aligned}y\left(p_{0}\right)=\sum_{p_{n} \in R} w\left(p_{n}\right) x\left(p_{0}+p_{n}+\triangle p_{n}\right)\end{aligned}\) (3.3)
식 (3.3)에서 x(p0 + pn + ∆pn)은 유연한 형태의 수용영역을 나타낸다. 여기서 ∆pn는 정수가 아닌 유리수임으로 x(p0 + pn + ∆pn)의 값은 양선형 보간법에 의해 도출한다 [12].
Fig. 3.1은 일반적인 컨볼루션과 deformable 컨볼루션에서의 그리드를 보여주고 있다.
Fig. 3.1 Illustration of sampling grids in 3 × 3 standard and deformable convolutions: (a) regular sampling grid of standard convolution, (b),(c),(d) deformed sampling locations with augmented offsets in deformable convolution
Fig. 3.1에서 보면 (a)는 기존 컨볼루션 연산의 3 × 3필터이다. 이 경우 필터 내 고정된 수용 영역에서만 특징을 추출하게 된다. (b),(c),(d)는 deformable 컨볼루션 연산이 특징을 추출하는 영역이고, (a) 영역보다 유연한 영역에서 다양한 패턴의 특징을 추출할 수 있다.
Fig. 3.2는 3 × 3 deformable 컨볼루션 연산을 나타내고 있다.
Fig. 3.2 Architecture of 3 × 3 deformable convolution
Fig. 3.2의 구조처럼 deformable 컨볼루션 연산에는 입력 특징 맵에서 기존 컨볼루션 연산뿐만 아니라 추가적인 2D 오프셋이 존재하며, 오프셋 영역을 학습하는 컨볼루션 연산의 정보를 받아 출력 특징 맵을 생성한다.
2. Proposed DeCAE Model
우리는 잡음제거를 위해 CAE 모형을 개선한 DeCAE 모형을 제안하고자 한다. Fig. 3.3은 제안된 DeCAE 모형의 구조를 나타내고 있다.
Fig. 3.3 DeCAE architecture for image denoising
Fig. 3.3에서 보는 것처럼, DeCAE 모형의 가장 큰 특징은 인코더에서 일반적인 컨볼루션 층 대신 deformable 컨볼루션 층을 사용한다. 여기서 각 층 아래 숫자는 영상에 적용된 필터의 크기를 나타낸다.
DeCAE 모형은 입력으로 잡음 영상을 취하고 목표 영상으로 원본 영상을 설정한 다음 지도 학습에 의해 출력 영상과 목표 영상과의 픽셀 값의 차이가 최소가 되도록 학습을 통해 잡음이 제거된 영상을 얻는다.
학습 데이터 (X, Y)을 가지고 이들 과정을 설명하고자 한다. 여기서 X는 잡음 없는 영상, Y는 잡음 영상이다. 먼저, 인코더에서는 잡음 영상 Y을 잠재 표현 H로 매핑한다. 이를 매핑함수 f을 사용하여 수식으로 표현하면 식 (3.4)와 같다.
H = f(W* Y + b), (3.4)
여기서 *는 deformable 컨볼루션 연산자이고 W는 입력층과 잠재 표현 사이 가중치 행렬 그리고 b은 바이어스이다.
디코더에서 각 디코더 과정은 잠재 표현 H로부터 입력차원과 같은 형태로 재구성된다. 이를 매핑함수 g을 사용하여 수식으로 표현하면 식 (3.5)와 같다.
\(\begin{aligned}\widehat{X}=g\left(V^{*} H+c\right)\end{aligned}\) (3.5)
여기서 *는 컨볼루션 연산자이고, V는 디코더에서 잠재 표현과 출력층 사이 가중치 행렬 그리고 c은 바이어스이다.
DeCAE 모형은 식 (3.6)에 주어진 오차 제곱이 최소가 되도록 학습이 진행된다.
\(\begin{aligned}L(X, \hat{X})=\|X-\hat{X}\|^{2}\end{aligned}\) (3.6)
본 논문에서 최적화 알고리즘으로 Adam을 사용한다[22][23][24]. 여기서 Adam 알고리즘을 사용하는 이유는 잡음 데이터에 뛰어난 적응력과 처리 속도를 개선하기 위해서이다.
IV. Experiment and Results
1. Performance experiment
본 논문에서 제안된 DeCAE 모형의 잡음제거 성능을 평가하기 위해 전통적 잡음제거 방법인 Mean 필터, Median 필터와 이를 개선한 Bilateral 필터와 NL-Means 방법, 기존 딥러닝 모형인 CAE 모형과 비교하고자 한다. 여기서 Mean 필터, Median 필터는 3 × 3 크기의 필터를 사용하였다. 그리고 CAE 모형은 Fig. 2.1에서 보는 것처럼 인코더와 디코더가 각각 3개의 층으로 구성되어 있다. 본 실험에서는 최적화 알고리즘으로 Adam을 사용하였으며 반복수는 100으로 설정하였다.
성능실험에서 사용된 영상은 Kaggle의 COVID-19 방사선 데이터셋을 사용하였다[25-26]. 우리는 데이터 셋에서 3616장의 COVID-19 CT 영상을 사용하여 실험하였다. 모형 학습을 위해 훈련 영상, 검증 영상과 테스트 영상의 비율을 60% (2169장): 20% (723장): 20% (724장)로 분할하였다.
실험에 사용된 잡음영상은 II.1절의 잡음모형에서 여러 잡음비율에 따라 얻어진다. Fig. 4.1은 실험 데이터 셋에서 원영상에 대한 대표적인 잡음영상들을 나타낸다.
Fig. 4.1 Original image and noisy images from COVID-19 Radiography Dataset
Fig. 4.1(a)은 원 영상, Fig. 4.1(b)는 식 (2.1)에서 α = 0.10인 경우 얻어진 가우시안 잡음영상, Fig. 4.1(b)는 식 (2.2)에서 p = 0.05인 경우 얻어진 임펄스 잡음영상, Fig. 4.1(c) 는 식 (2.3)에서 α = 0.10, λ = 1인 경우 얻어진 포아송 잡음영상을 나타낸다.
제안된 DeCAE 모형의 학습 과정을 그래프를 통해 확인하고자 한다. 여기서는 학습 반복수가 증가함에 따라 손실함수의 변화추이를 살펴보았다. Fig. 4.2는 COVID-19 방사선 데이터셋에서 고려되는 3가지 잡음영상에 대해 학습 반복수에 따른 DeCAE 모형의 수렴상태를 보여주고 있다. 여기서 train 과 validation는 각각 훈련 데이터와 검증 데이터에서 모형의 손실함수를 나타낸다.
Fig. 4.2 DeCAE model convergence for noisy images from COVID-19 Radiography Dataset
Fig. 4.2로부터 훈련 데이터와 검증 데이터에서 모든 잡음에서의 그래프가 비슷한 수렴 형태를 보였다. 학습이 진행됨에 따라 손실함수가 0.001 근처로 수렴하고 있음을 알 수 있다. 특히, Fig. 4.2 (b)의 임펄스 잡음에서는 손실함수 값이 0.001 이하로 수렴하는 것을 확인할 수 있다. 이는 DeCAE 모형이 안정적인 학습을 바탕으로 뛰어난 잡음 제거능력을 갖고 있음을 의미한다.
2. Comparison of Results
2.1 Qualitative Comparison
Fig. 4.3은 COVID-19 방사선 데이터셋에서 여러 잡음 제거 방법들을 Fig. 4.1(b)의 가우시안 잡음영상에 적용하여 얻은 실험 결과이다.
Fig. 4.3 Experiment results for Gaussian noisy image in Figure 4.1(b)
Fig. 4.3에서 보면, Mean 필터, Median 필터, Bilateral 필터는 모두 심하게 흐릿한 영상 결과를 보였고. NL-Means 방법은 이들 필터보다는 더 흐릿한 영상 결과를 보였으나, 딥러닝 모형과 비교해서는 흐릿한 영상 결과를 보였다. DeCAE 모형은 CAE 모형과 비교하여 비슷한 결과를 보였으며 위의 전통적인 필터들보다 좋은 화질의 영상을 보였다.
Fig. 4.4는 COVID-19 방사선 데이터셋에서 여러 잡음 제거 방법들을 Fig. 4.1(c)의 임펄스 잡음영상에 적용하여 얻은 실험 결과이다.
Fig. 4.4 Experiment results for impulse noisy image in Figure 4.1 (c)
Fig. 4.4에서 보면, 기대한 바와 같이 Median 필터는 Mean 필터보다 좋은 잡음제거 결과를 보였다. 이는 전통적인 필터가 특정 잡음제거만을 위해 설계되었음을 알 수 있다. 여기서 Mean 필터는 임펄스 잡음을 거의 제거하지 못함을 알 수 있으며, Bilateral 필터와 NL-Means 방법 또한 임펄스 잡음이 일부 존재함을 알 수 있다. DeCAE 모형은 CAE 모형과 함께 좋은 잡음 제거 결과를 보였다.
Fig. 4.5는 COVID-19 방사선 데이터셋에서 여러 잡음 제거 방법들을 Fig. 4.1(d)의 포아송 잡음영상에 적용하여 얻은 실험 결과이다.
Fig. 4.5 Experiment results for Poisson noisy image in Figure 4.1(d)
Fig. 4.5 에서 보면, DeCAE 모형은 CAE 모형과 함께 Fig. 4.1(a)의 원 영상과 가까운 영상을 얻었고, 전통적인 방법에서는 Bilateral 필터와 NL-Means 방법이 Mean 필터와 Median 필터보다 잡음제거력이 좋은 것처럼 보였다.
2.2 Quantitative Comparison
모형의 성능 평가를 육안으로 비교하는 정성적인 평가는 한계점이 존재한다. 본 실험에서 모형의 정량적인 성능 평가를 위한 대표적인 척도로서 PSNR, MAE와 SSIM을 사용하였다[16][17].
X∈Rm × n을 원 영상, Ŷ∈Rm × n을 복원영상이라 할 때 PSNR는 식 (4.1)과 같이 정의된다.
\(\begin{aligned}P S N R=20 \times \log _{10}\left(\frac{M A X}{\sqrt{M S E}}\right)\end{aligned}\), (4.1)
여기서 MAX는 영상의 최대 픽셀값(1 또는 255)을 나타내고 MSE는 식 (4.2)와 같다.
\(\begin{aligned}M S E=\frac{1}{m n} \sum_{i \in m \times n}\left\{X_{i}-\hat{Y}_{i}\right\}^{2}\end{aligned}\), (4.2)
PSNR값이 클수록 화질이 우수하다고 말할 수 있다. MAE는 식 (4.3)과 같다.
\(\begin{aligned}M A E=\frac{1}{m n} \sum_{i \in m \times n}\left|X_{i}-\widehat{Y}_{i}\right|\end{aligned}\), (4.3)
MAE 값은 0에 가까울수록 원영상과 유사하며 따라서 이 작을수록 잡음제거 방법이 성능이 뛰어나다는 것을 의미한다.
SSIM은 위의 평가 척도와는 달리 잡음영상 Y과 복원 영상 Ŷ사이의 구조적 유사도를 측정한 척도로 식 (4.4)와 같이 정의된다.
SSIM(Y, Ŷ) = l(Y, Ŷ)·c(Y, Ŷ)·s(Y, Ŷ). (4.4)
여기서 l(luminance, 휘도), c(contrast, 대조), s(structure, 구조)이며, 이들은 각각 식 (4.5), 식 (4.6), 식 (4.7)과 같다.
\(\begin{aligned}l(Y, \hat{Y})=\frac{2 \mu_{Y} \mu_{\hat{Y}}+C_{1}}{\mu_{Y}^{2}+\mu_{\hat{Y}}^{2}+C_{1}}\end{aligned}\), (4.5)
\(\begin{aligned}c(Y, \hat{Y})=\frac{2 \sigma_{Y} \sigma_{\hat{Y}}+C_{2}}{\sigma_{Y}^{2}+\sigma_{\hat{Y}}^{2}+C_{2}}\end{aligned}\), (4.6)
\(\begin{aligned}s(Y, \hat{Y})=\frac{\sigma_{Y \hat{Y}}+C_{3}}{\sigma_{Y} \sigma_{\hat{Y}}+C_{3}}\end{aligned}\). (4.7)
여기서 μY는 Y의 평균, μŶ는 Ŷ의 평균, σYŶ는 Y,Ŷ의 공분산 그리고 C1, C2, C3는 분모가 0이 되는 것을 방지하기 위한 안정화 변수이다. SSIM값이 1에 가까울수록 원영상과 완전한 구조적 유사도를 가진다고 할 수 있다. 따라서 SSIM 값이 클수록 잡음 제거 영상이 원영상과 가깝다고 할 수 있다.
본 실험에서는 각각의 모형에 대해 테스트 데이터에서 10회 반복 실험하여 도출된 성능 수치, 즉, MAE, PSNR, SSIM의 평균값으로 나타내었다.
Table 4.1은 Fig. 4.1(b)의 가우시안 잡음영상에서 여러 방법들을 적용하여 얻은 성능 수치이다.
Table 4.1 Performance comparison of denoising methods for Gaussian noisy images in Fig. 4.1(b)
Table 4.1로부터 DeCAE 모형이 모든 척도 하에서 가장 뛰어난 수치를 보였고, 다음으로 CAE 모형 순으로 나타났다. 두 모형 즉, DeCAE 모형과 CAE 모형 간의 성능 수치는 잡음 정도 (α = 0.10)와 CT 영상에 영향을 받는다. 따라서 많은 잡음이 포함된 복잡한 영상일수록 DeCAE 모형의 deformable 컨볼루션 연산 사용으로 인해 성능 수치 차이는 커질 수 있다[27]. 전통적인 방법에서는 NL-Means 방법, Bilateral 필터 순으로 나타났다.
Table 4.2는 Fig. 4.1(c)의 임펄스 잡음영상에서 여러 방법들을 적용하여 얻은 성능 수치이다.
Table 4.2 Performance comparison of denoising methods for impulse noisy images in Fig. 4.1 (c)
Table 4.2로부터 PSNR 관점에서 보면, DeCAE 모형이 가장 좋은 성능을 보였고, MAE와 SSIM 관점에서는 Median 필터, DeCAE 모형 순으로 나타났다. 여기서 DeCAE 모형과 Median 필터의 SSIM 수치를 비교해 보면, 각각 0.9806과 0.9831로 큰 차이가 나지 않는 것을 알 수 있다.
Table 4.3은 Fig. 4.1(d)의 포아송 잡음영상에서 여러 방법들을 적용하여 얻은 성능 수치이다.
Table 4.3 Performance comparison of denoising methods for Poisson noisy images in Fig. 4.1(d)
Table 4.3의 결과를 보면, DeCAE 모형은 모든 척도에 대해 성능이 가장 뛰어남을 알 수 있고, 그 다음으로 CAE 모형 순으로 좋은 성능을 보이는 것을 확인할 수 있다. 이들 간의 성능 차이는 DeCAE 모형의 deformable 컨볼루션 연산 사용에 기인한다.
V. Conclusions
CT 영상과 같은 디지털 방사선 영상은 획득 및 처리과정에서 생성된 잡음을 효과적으로 제거하는 일은 의료영상 분석에서 매우 중요한 일이다.
지금까지 영상처리 분야에서 잡음을 제거하기 위한 많은 방법들이 제안되었으나 주로 공간 도메인에서 정의된 잡음제거 방법이고, 이 방법들은 특정 잡음만을 제거하기 위해 설계하였다. 그러나 실제 영상에서 사전에 잡음의 특성을 파악하는 일은 번거로운 작업일 뿐 만 아니라 결코 쉬운 일이 아니다. 따라서 잡음 정보를 만족하지 못하는 경우 성능이 현저히 떨어지는 경향이 있다.
오늘날 딥러닝 모형은 잡음제거와 같은 영상처리 분야에서도 우수한 성능을 보이고 있다. 특히, 딥러닝 모형 중 CNN 모형과 AE 모형이 주로 잡음제거 하는데 사용되었다.
본 논문에서는 CT 영상에서 잡음제거를 위해 기존 CAE 모형의 변형인 DeCAE 모형을 제안하였다. DeCAE 모형은 기존 CAE 모형과 같이 인코더-디코더 구조를 갖고 있으며, 인코더의 일반적인 컨볼루션 층을 deformable 컨볼루션 층으로 대체하여 효과적인 잡음제거 영상을 얻는 구조이다. 여기서 deformable 컨볼루션은 기존 컨볼루션보다 추가적인 2D 오프셋 연산을 통해 유연한 영역에서 영상의 특징들을 추출을 통해 잡음제거 성능향상을 꾀하였다.
본 논문에서는 제안된 DeCAE 모형의 성능을 전통적인 방법인 Mean 필터, Median 필터, 이를 개선한 Bilateral 필터, NL-Means 방법과 기존의 딥러닝 모형인 CAE 모형과 비교하였다. 성능 실험은 다양한 잡음에 의해 훼손된 CT 영상을 통해 정성적 성능 평가와 MAE, PSNR 그리고 SSIM 척도를 통한 정량적 성능 평가로 이루어졌다. 성능실험 결과, 정성적인 비교에서 보면 DeCAE 모형은 기존의 CAE 모형과는 유사한 잡음제거 결과를 보였고 전통적인 방법보다는 원영상과 가까운 선명한 영상 결과를 얻었다. 정량적인 비교에서 보면, DeCAE 모형은 모든 잡음 영상에서 모든 척도 하에서 CAE 모형보다 좋은 수치를 보였고, 전통적인 방법들과의 비교에서도 임펄스 잡음 영상에서 MAE와 SSIM 척도 하에서 Median 필터를 제외하고 좋은 수치를 보였다.
본 논문에서는 제안된 DeCAE 모형을 평가하기 위해 COVID-19 CT 영상에 극한하여 실험하였다. 향후 연구에서는 다양하고 독특한 수 많은 패턴의 잡음을 갖는 복잡한 영상에서 여러 딥러닝 모형과의 성능 비교의 필요성이 있다고 사료된다.
ACKNOWLEDGEMENT
This work was supported by the National Research Foundation of Korea(NRF) grant funded by the Korea government(MSIT) (No. NRF-2022R1A2C1011140).
References
- M. Ameen, and S. A. Ahmed, "An Extensive Review of Medical Image Denoising Techniques," Global Journal of Medical Research: D, Vol. 16, No. 2, pp. 1-6, 2016. https://medicalresear chjournal.org/index.php/GJMR/article/view/1201/1111.
- R. N. Kumar, and U. J. Kumar, "A Spatial Mean and Median Filter for Noise Removal in Digital Images," International Journal of Advanced Research in Electrical, Electronics and Instrumentation Engineering, Vol. 4, No. 1, pp. 246-253, January 2015. DOI:10.15662/ijareeie.2015.0401037.
- P, Saxena, and R. S. Kumar, "Restoration of CT Images Corrupted With Fixed Valued Impulse Noise Using an Optimum Decision-Based Filter," Intelligent Multidimensional Data and Image Processing, pp. 220-239, January 2018. DOI: 10.4018/978-1-5225-5246-8.ch008.
- C. Tomasi and R. Manduchi, "Bilateral filtering for gray and color images. " Proc Int Conf Computer Vision, pp. 839-846, 1998. DOI: 10.1109/ICCV.1998.710815
- A. Buades, B. Coll, and J. M. Morel, "A review of image denoising algorithms, with a new one," Multiscale Modeling and Simulation (SIAM Interdisciplinary Journal), Vol. 4, No. 2, pp 490-530, 2005. DOI:10.1137/040616024.
- B. K. Shreyamsha Kumar, "Image denoising based on non-local means filter and its method noise thresholding", Signal Image and Video Processing Vol.7, No. 6, pp.1211-1227, 2013. DOI:10.1007/s11760-012-0389-y
- J. J. Song, J. H.Kim, and D. H. Lim, "Image Restoration using Convolutional Denoising Autoencoder in Images," Journal of the Korean Data & Information Science Society, Vol. 31, No. 1, pp. 25-40, 2020. DOI: 10.7465/jkdi.2020.31.1.25.
- J. H. Kim, J. H. Song, and D. H. Lim, "CT image Denoising using Inception Model," Journal of the Korean Data & Information Science Society, Vol. 31, No. 3, pp. 487-501, 2020. DOI : 10.7465/jkdi.2020.31.3.487.
- W. H. Lee, M. Ozger, U. Challita, and K. W. Sung. "Noise Learning-Based Denoising Autoencoder," IEEE Communications Letters, Vol. 25, No. 9, pp. 2983 - 2987, September 2021. DOI:10.1109/LCOMM.2021.3091800.
- E. S. Seong, J. H. Heo, S. H. Han, and D. H. Lim, "Medical image denoising using convolutional dual-decoder autoencoder", Journal of the Korean Data & Information Science Society, Vol. 33, No. 6, pp. 1065-1083, 2022. DOI: 10.7465/jkdi.2022.33.6.1065.
- E. Solovyeva, and A. Abdullah, "Dual Autoencoder Network with Separable Convolutional Layers for Denoising and Deblurring Images" Journal of Imaging Vol. 8, No.9, September 2022. DOI: 10.3390/jimaging8090250.
- J. Dai, H. Qi, Y. Xiong, Y. Li, G. Zhang, H. Hu, and Y. Wei, "Deformable Convolutional Networks," IEEE International Conference on Computer Vision (ICCV), Vol. 5, pp. 764-773, March 2017. DOI: 10.48550/arXiv.1703.06211.
- D. Wang and J. Lan, "A Deformable Convolutional Neural Network with Spatial-Channel Attention for Remote Sensing Scene Classification," Remote Sens. Vol. 13, No. 24, 5076 2021, DOI:10.3390/rs13245076.
- J. P. Allam, S. Samantray, S. P. Sahoo, and S. Ari, "A deformable CNN architecture for predicting clinical acceptability of ECG signal", Biocybernetics and Biomedical Engineering, Volume 43, Issue 1, pp. 335-351, January-March 2023. DOI : 10.1016/j.bbe.2023.01.006.
- C. Lee, Y. Yiwamoto, L. Lin, H. Hu, and Y. W. Chen, " Improved Mask R-CNN with Deformable Convolutions for Accurate Liver Lesion Detection in Multiphase CT Images", Smart Innovation, Systems and Technologies Vol. 308, pp.141-148, July 2022. DOI:10.1007/978-981-19-3440-7_13
- M. J. Kim, Y. S. Lee, and C. W. Lim, "Deformable Convolutional Networks based Mask R-CNN," Journal of the Korean Data & Information Science Society, Vol. 31, No. 6, pp. 993-1008, 2020. DOI: 10.7465/jkdi.2020.31.6.993.
- Z. Wang, A. C. Bovik, H. R. Sheikh, and E. P. Simoncelli, "Image Quality Assessment: From Error Visibility to Structural Similarity," IEEE Transactions on Image Processing, Vol. 13, No. 4, pp. 600-612, 2004. DOI: 10.1109/TIP.2003.819861.
- U. Sara, M. Akter, and M. Uddin, "Image Quality Assessment through FSIM, SSIM, MSE and PSNR-A Comparative Study," Journal of Computer and Communications, Vol. 7, No. 3, pp. 8-18, 2019. DOI:10.4236/jcc.2019.73002.
- L. Gondara, "Medical Image Denoising using Convolutional Denoising Autoencoders," IEEE 16th International Conference on Data Mining Workshops. pp. 1-6, August 2016. DOI:10.1109/ICDMW.2016.0041.
- E. Pintelas, I. E. Livieris, and P. E. Pintelas, " A Convolutional Autoencoder Topology for Classification in High-Dimensional Noisy Image Datasets", Sensors. Vol. 21, No. 7731, November 2021. DOI: 10.3390/s21227731
- P. Venkataraman "Image Denoising Using Convolutional Autoencoder", Computer Vision and Pattern Recognition, Vol. 24, July 2022. DOI: 10.48550/arXiv.2207.11771.
- D. Soydaner, "A Comparison of Optimization Algorithms for Deep Learning," International Journal of Pattern Recognition and Artificial Intelligence, 34. pp. 1-26, 2020. July DOI: 10.48550/arXiv.2007.14166.
- Y. Wang, Z. Xiao, G. Cao " A convolutional neural network method based on Adam optimizer with power-exponential learning rate for bearing fault diagnosis", Journal of Vibroengineering, Vol. 24, No. 4, March 2022. DOI: 10.21595/jve.2022.22271.
- S. P. Kmar Gudla, and S. Kumar Bhoi " A Study on Effect of Learning Rates Using Adam Optimizer in LSTM Deep Intelligent Model for Detection of DDoS Attack to Support Fog Based IoT Systems", Communications in Computer and Information Science, Vol 1729, January 2023. DOI: 10.1007/978-3-031-21750-0_3.
- T. Rahman, A. Khandakar, Y. Qiblawey, A. Tahir, S. Kiranyaz, S.B.A., Kashem, M.T. Islam, S.A. Maadeed, S.M. Zughaier, M.S. Khan, and M.E. Chowdhury, " Exploring the Effect of Image Enhancement Techniques on COVID-19 Detection using Chest X-ray Images," Computers in Biology and Medicine, Vol. 132, pp. 1- 16, May 2021. DOI:10.1016/j.compbiomed.2021.104319.
- COVID-19 Radiography Database, https://www.kaggle.com/datasets/tawsifurrahman/covid19-radiography-database.
- Q. Zhang, J. Xiao, C. Tian, J.C.W. Lin, S. Zhang, " A robust deformed convolutional neural network (CNN) for image denoising", CAAI Transactions on Intelligence Technology, pp. 1-12, June 2022. DOI: /10.1049/cit2.12110.