DOI QR코드

DOI QR Code

Detecting Foreign Objects in Chest X-Ray Images using Artificial Intelligence

인공 지능을 이용한 흉부 엑스레이 이미지에서의 이물질 검출

  • 한창화 (동신대학교 방사선학과)
  • Received : 2023.11.14
  • Accepted : 2023.11.30
  • Published : 2023.11.30

Abstract

This study explored the use of artificial intelligence(AI) to detect foreign bodies in chest X-ray images. Medical imaging, especially chest X-rays, plays a crucial role in diagnosing diseases such as pneumonia and lung cancer. With the increase in imaging tests, AI has become an important tool for efficient and fast diagnosis. However, images can contain foreign objects, including everyday jewelry like buttons and bra wires, which can interfere with accurate readings. In this study, we developed an AI algorithm that accurately identifies these foreign objects and processed the National Institutes of Health chest X-ray dataset based on the YOLOv8 model. The results showed high detection performance with accuracy, precision, recall, and F1-score all close to 0.91. Despite the excellent performance of AI, the study solved the problem that foreign objects in the image can distort the reading results, emphasizing the innovative role of AI in radiology and its reliability based on accuracy, which is essential for clinical implementation.

본 연구는 인공지능(AI)을 사용하여 흉부 엑스레이 이미지에서 이물질을 탐지하는 방법을 탐구하였다. 의료영상학, 특히 흉부 엑스레이는 폐렴이나 폐암과 같은 질병을 진단하는 데 매우 중요한 역할을 한다. 영상의학 검사가 증가함에 따라 AI는 효율적이고 빠른 진단을 위한 중요한 도구가 되었다. 하지만 이미지에는 단추나 브래지어 와이어와 같은 일상적인 장신구를 포함한 이물질이 포함될 수 있어 정확한 판독을 방해할 수 있다. 본 연구에서는 이러한 이물질을 정확하게 식별하는 AI 알고리즘을 개발하였고, 미국 국립보건원 흉부 엑스레이 데이터셋을 가공하여 YOLOv8 모델을 기반으로 처리하였다. 그 결과 정확도, 정밀도, 리콜, F1-score가 모두 0.91에 가까울 정도로 높은 탐지 성능을 보였다. 이번 연구는 AI의 뛰어난 성능에도 불구하고 이미지 내 이물질로 인해 판독 결과가 왜곡될 수 있는 문제점을 해결함으로써 영상의학 분야에서 AI의 혁신적인 역할과 함께, 임상 구현에 필수적인 정확성에 기반하여 신뢰성을 강조하였다.

Keywords

Ⅰ. INTRODUCTION

의료영상 판독은 X-ray, CT (Computed Tomography; 전산화단층촬영), MRI (Magnetic Resonance Imaging; 자기공명영상촬영) 등 다양한 영상 진단 방법을 통해 질병의 유무나 이상을 파악하는 영상의학 분야의 핵심 업무이다. 이와 같은 영상 판독은 의사의 전문적인 눈높이와 경험을 필요로 하는 매우 중요한 분야로, 영상의 품질과 그 영상을 통한 정확한 판독이 환자의 치료 방향과 그 효과에 큰 영향을 준다[1].

최근에는 인공지능의 발전과 그 적용 기술이 의료영상 판독 분야에서도 주목받고 있다[2]. 특히, 의료영상 분야는 이미 DICOM (Digital Imaging and Communications in Medicine;의료용 디지털 영상 및 통신 표준) 및 PACS (Picture Archiving and Communication System;의료영상저장 전송시스템)과 같은 디지털 워크플로우가 확립되어 있고, 영상 저장 방식이 표준화되어 있어, 인공지능의 적용이 비교적 수월하다는 장점이 있다[3].

더욱이, 현대 의료 서비스에서 인공지능은 그 획기적인 기술 적용 가능성으로 인하여 혁신적인 기술로 간주되고 있다[2]. 컴퓨터를 활용한 진단 접근법, 특히 인공지능 기술의 활용은 임상 진료의 품질 향상에 큰 기여를 하며, 실제 임상 치료에서 중요한 역할을 담당하고 있다[4].

전통적인 방법에 의존한 영상 판독과는 달리, 인공지능 모델은 단순한 영상 해석뿐만 아니라, 환자의 예후 예측, 질병의 선별, 그리고 합병증의 예측과 같은 다양한 분야에서 활용된다. 특히, 인공지능을 통해 발굴된 영상 생체표지자(Image Biomarker)를 활용하면, 더욱 정밀하고 효과적인 진단이 가능해진다[1,2].

영상의학 분야에서는 다양한 진단 방법 중 흉부 엑스레이가 폐렴, 폐암과 같은 질병뿐만 아니라 병변, 골절 등의 다양한 이상 질병을 간편하게, 그리고 경제적으로 진단할 수 있는 방법으로 널리 이용되고 있다[5]. 최근 방사선 검사 건수가 지속적으로 증가하고, 이로 인해 영상의학과 전문의들의 업무량이 상당히 증가하고 있다. 그중에서도 흉부 엑스레이는 전 세계적으로 매년 약 36억 건의 영상 검사 중 약 40%를 차지하고 있다는 연구가 있다[6].

이렇게 방대한 양의 영상 자료를 효과적으로 분석하고 진단하는 데 있어, 인공지능의 적용은 매우 큰 의미가 있다[7]. 인공지능은 흉부 방사선 사진을 빠르고 정확하게 분석하여, 전통적인 방법보다 훨씬 효율적인 진단을 가능케 한다[8].

그러나, 응급 환자의 경우 등 예상치 못한 상황에서의 촬영으로 인해 이물질이 섞인 화질이 좋지 않은 영상이 발생하기도 한다[9]. 특히 환자가 착용한 장신구나 의복 등의 이물질은 영상의 판독 성능을 저하시키는 큰 장애물이 될 수 있다[10,11].

이와 같은 상황에서, 인공지능은 잘못된 정보를 제공하거나, 실제 질환과 유사하게 보이는 폐 이상과 혼동할 위험이 있다[12,13]. 이러한 경우 이물질 존재를 감지하는 기능의 사용으로 보다 상세하고, 신뢰할 수 있는 진단을 내릴 수 있다[14].

이러한 문제를 해결하기 위해 본 연구에서는 인공지능을 활용하여 흉부 엑스레이 이미지에서의 이물질을 정확하게 판별하는 방법 중 단추, 브래지어 클립 및 와이어와 같은 일상생활에서 흔하게 착용하는 장신구들의 감지에 중점을 두어 연구를 진행하였다.

Ⅱ. MATERIAL AND METHODS

1. 인공지능 의료영상 분석 및 YOLOv8 모델

인공지능 의료영상 분석은 기본적으로 다음 Fig. 1과 같은 프로세스를 거치며, 의료 시스템에서는 대량의 데이터가 처리되므로 딥러닝 또는 머신러닝을 사용하여 활용할 수 있는 성공적인 인공지능 알고리즘을 개발할 수 있다.

BSSHB5_2023_v17n6_873_f0001.png 이미지

Fig. 1. Steps of medical image analysis.

데이터 전처리는 잘못된 예측이나 잘못된 결과를 줄이고 데이터 처리 속도를 높이며, 궁극적으로 전반적인 데이터 품질을 개선하기 위한 첫 번째이자 필수적인 단계이다. 데이터 전처리 후에는 이미지 분류를 위해 선택한 인공지능 모델에 따라 중요한 특징을 추출하고 구현한다. 특징 선택은 차원을 줄이고, 알고리즘 성능을 향상시키며, 정확한 의사 결정과 합리적인 분류 또는 예측을 위해 데이터 처리를 통해 선택한 알고리즘을 기반으로 모델 학습 및 파라미터 조정 또한 수행된다.

그중에서도 YOLO는 객체 탐지 모델 중 많이 활용되는 간단한 단일 탐지 알고리즘이다. 단일 컨볼루션 네트워크가 여러 바운딩 박스와 해당 클래스 확률을 동시에 예측한다. YOLO는 완전한 이미지로 학습하고, 객체를 인지하는 성능을 직접 최적화한다[15].

YOLO 모델은 기존의 물체 인식 방식에 비해 다음과 같은 장점이 있다. YOLO는 다른 실시간 시스템보다 평균 2배 이상 정확도가 높으며 매우 빠르며, 슬라이딩 윈도우 및 영역 제안 기반 기법과 달리 YOLO는 클래스와 그 모양에 대한 컨텍스트 정보를 암시적으로 인코딩하여 훈련/테스트 모두에서 큰 그림을 볼 수 있다. 또한, 고속 RCNN과 달리 YOLO는 배경 오류의 절반 이하를 발생시킨다[16].

이러한 장점으로 본 연구에서 이물질을 검출하기 위하여 이전 버전에 비해 속도와 정확도 등이 향상된 Fig. 2와 같은 아키텍처를 이루고 있는 최신의 YOLOv8 모델을 채택하여 본 연구에 이용하였으며, YOLOv8 모델은 단일 컨볼루션 네트워크를 사용하여 전체 이미지에서 직접 객체 경계와 클래스 확률을 예측한다[17].

BSSHB5_2023_v17n6_873_f0002.png 이미지

Fig. 2. YOLOv8 Architecture[17]

2. 인공지능 이물질 검출 모델 연구

2.1. 연구 재료

학습은 Google Colab 아키텍처를 사용하여 단일 Nvidia 4090 GPU에서 수행하였다. 모델은 훈련 속도 0.01, 배치 크기 64의 확률적 경사 하강(SGD) 옵티마이저를 사용하였으며, 훈련 프로세스는 유효성 검사 손실이 정체되는 100회 이후에 중단하였다. 또한, 훈련 데이터 세트의 다양성을 높이기 위해 데이터 증강을 사용했으며, 여기에는 무작위 수평 뒤집기, 무작위 스케일링, 무작위 프레이밍이 포함되어 있다.

모델은 파이토치에서 구현되었으며, 전이 학습을 사용하여 울트라틱스 YOLOv8 라이브러리를 사용하여 훈련하였다.

2.2. 데이터 세트

본 연구에서는 미국 국립보건원(NIH) 흉부 엑스레이 공개 데이터 세트를 사용하였다. 이 데이터 세트에는 30,805명의 개인을 촬영한 112,120개의 엑스레이 이미지이며, 단추, 브래지어 등 이미지 내에 환자 장신구를 포함한 데이터로 구성되어 있다.

모델 훈련 및 평가에 사용된 데이터 세트는 흉부 엑스레이 후전방향 촬영 이미지 중, 단추(Fig. 3)와 브래지어 와이어 및 클립(Fig. 4) 등 환자 장신구가 1개 이상 포함된 512×512 픽셀 이미지 200개로 구성하였다. 그리고 데이터는 80:20 분할 사용하여 훈련용 데이터(160개) 및 검증용 데이터(40개)로 분할하여 연구에 활용하였다.

BSSHB5_2023_v17n6_873_f0003.png 이미지

Fig. 3. Button label.

BSSHB5_2023_v17n6_873_f0004.png 이미지

Fig. 4. Brassiere Wire and Clip label.

또한, 인공지능 모델의 훈련 및 평가에 이용되지 않은 추가 이미지 20장을 이용하여 인공지능 모델의 성능을 시각적으로 확인하고자 탐지된 이물질을 바운딩 박스 처리되게 하였다.

Ⅲ. RESULT

1. 인공지능 이물질 검출 모델 평가

제안한 인공지능 모델의 성능 측정을 위하여 정확도(Accuracy), 정밀도(Precision), 회수율(Recall) 및 F1-Score를 측정하였다.

\(\begin{aligned}정확도(\mathrm{ACC})=\frac{T P+T N}{T P+F P+T N+F N}\end{aligned}\)       (1)

\(\begin{aligned}정밀도(\mathrm{PRE})=\frac{T P}{T P+F P}\end{aligned}\)       (2)

\(\begin{aligned}회수율(\mathrm{REC})=\frac{T P}{T P+F N}\end{aligned}\)       (3)

\(\begin{aligned}F1-score=2 \times\left(\frac{P R E \times R E C}{P R E+R E C}\right)\end{aligned}\)       (4)

정확도(Accuracy), 정밀도(Precision), 회수율(Recall) 및 F1-Score 값의 계산 수식은 E q. (1) ~ E q. (4)와 같이 계산식을 가지며, 여기에서 TP, FP, TN 및 FN은 각각 True Positive, False Positive, True Negative, False Negative를 나타낸다.

모델 성능 측정을 위하여 테스트한 결과는 Table 1과 같이 정확도 0.90, 정밀도 0.91 회수율 0.93, F1-score 0.92의 값을 나타내었다.

Table 1. Results: Accuracy, Precision, Recall, and F1-score

BSSHB5_2023_v17n6_873_t0001.png 이미지

또한, 인공지능 모델의 훈련 및 평가에 이용되지 않은 추가 이미지 20장을 이용하여 탐지된 이물질을 바운딩 박스된 결과로 보고자 한 테스트 결과, Fig. 5와 같이 단추, 브래지어 와이어 및 클립 등 이물질의 종류와 위치를 정확하게 표시해 주었다.

BSSHB5_2023_v17n6_873_f0005.png 이미지

Fig. 5. Output Samples.

Ⅳ. DISCUSSION

인공지능 기술은 의료분야에서 위험한 질환과 질병에 대한 더 정확한 지식을 얻기 위해 점점 더 사용되고 있다[1,4,7]. 특히, 의료 커뮤니티에서 이미지 데이터와 상호 작용하는 능력 덕분에 질병의 진단과 예측에 인공지능이 더욱 활용되고 있으며[1], 의료 기기에서 파생된 학습 알고리즘과 빅 데이터는 의료 시스템에서 인공지능 방법을 효율적으로 구현할 수 있게 한다[3].

의료분야 중에서도 영상의학 분야에서 X-ray, CT (Computed Tomography; 전산화단층촬영), MRI (Magnetic Resonance Imaging; 자기공명영상촬영) 등 의료 이미지 자료가 인공지능 기술을 이용한 환자 정보 진단에 가장 널리 사용되는 도구 중 하나로 인공지능을 통한 의료 이미지 자동 진단은 업무의 시간 효용성과, 업무 과중에 따른 피로에 의한 진단 오류의 문제를 효과적으로 해결하였다[3,5].

그러나 인공지능 알고리즘으로 개발된 의료영상 판독 보조 시스템은 100% 완벽하지 않다. 이미지 내에 존재하는 단추, 브래지어 와이어와 같은 이물질로 인해 의료영상 판독을 잘못할 수 있는 한계를 가지고 있다[9-11]. 이러한 이물질들은 인공지능 알고리즘에 의해 잘못된 진단의 원인으로 간주될 수 있으므로[12,13], 실제 임상 환경에서는 이러한 요소를 고려한 추가적인 검증과 인공지능 시스템 사용 시 주의가 필요하다.

이러한 이유로 본 연구에서는 흉부 엑스레이 이미지에서 단추와 브래지어 와이어 및 클립 등의 이물질을 검출하는 알고리즘을 개발하였으며, 연구를 통하여 개발된 알고리즘은 0.90의 정확도, 0.91의 정밀도, 0.93의 재현율, 0.92의 F1 Score라는 높은 성능을 보였다. 0.92라는 F1 Score를 보았을 때, 정밀도와 재현율 어느 한쪽의 성능에 치우치지 않고 조화로운 성능을 보인다고 말할 수 있다. 이러한 연구의 결과로 이물질에 의한 잘못된 정보를 제공하여 임상에서 오진단 할 수 있는 문제점 해결과 이물질 식별에 소모되는 시간을 절약하여 질병을 분석하고, 진단하는데 사용되는 업무 유용성 향상에 시사하는게 크다[10-13].

국내 의료기관에서 촬영되는 엑스레이 이미지에 이물질이 포함된 데이터가 많이 부족하여 미국 국립보건원(NIH) 데이터를 이용하였고, 국내 의료기관 데이터의 수집과 활용에서의 제한사항이 있었으며, 단추와 브래지어 부착물 이외의 의료영상 판독에 영향을 인체삽입 튜브와 머리부위 촬영 시 함께 나타날 수 있는 귀걸이와 인공치아 등 다양한 이물질을 포함한 연구가 필요하여 현재 추가 연구 중이다.

또한, 이물질의 크기 및 밀도를 다르게 적용한 연구와 임상에서 이물질 식별 및 설명에 절약된 시간을 분석하여서 판독 업무에서 업무의 효용성이 얼마나 향상되는지에 대한 잠재력 확인에 관한 연구의 확장도 필요해 보인다.

Ⅴ. CONCLUSION

본 연구는 흉부 엑스레이 이미지 내의 단추와 같은 이물질로 인해 발생하는 오진단을 해결하고자 인공지능을 기반으로 한 의료영상 판독 보조 시스템의 이물질 검출 알고리즘을 개발하였다. 그 결과, 개발된 인공지능 알고리즘이 높은 정확도와 신뢰성을 보였다.

이물질이 포함된 많은 양의 이미지를 이용하여 학습하지 못한 한계점과 임상 적용 부분에 사용자의 요구사항 충족 등 향후 발전시켜야 할 연구가 필요하지만, 이번 연구의 결과로 영상의학 분야에서 인공지능 기술의 잠재력을 확인함으로써 질병 진단과 예측 분야에서 인공지능 기술이 중요한 역할을 할 수 있음을 확인할 수 있었다. 동시에 인공 지능이 진단의 정확도를 향상시키고, 질병의 판단을 객관적이고 신뢰성 있게 지원한다는 것을 보여줌으로써 이를 통해 영상의학 분야에서 인공지능의 활용성과 중요성이 더욱 기대된다.

References

  1. P. Rajpurkar, M. P. Lungren, "The Current and Future State of AI Interpretation of Medical Images", New England Journal of Medicine, Vol. 388, No. 21, pp. 1981-1990, 2023. https://doi.org/10.1056/nejmra2301725 
  2. E. J. Gong, C. S. Bang, "Interpretation of Medical Images Using Artificial Intelligence: Current Status and Future Perspectives", The Korean journal of gastroenterology, Vol. 82, No. 1, pp. 43-45, 2023. https://doi.org/10.4166/kjg.2023.071 
  3. C. S. Bang, J. J. Lee, G. H. Baik, "Computer-aided diagnosis of esophageal cancer and neoplasms in endoscopic images: a systematic review and meta-analysis of diagnostic test accuracy", Gastrointestinal Endoscopy, Vol. 93, No. 5, pp. 1006-1015, 2021. https://doi.org/10.1016/j.gie.2020.11.025 
  4. A. Cahan, J. J. Cimino, "A Learning Health Care System Using Computer-Aided Diagnosis", Journal of Medical Internet Research, Vol. 19, No. 3, pp. e54, 2017. https://doi.org/10.2196/jmir.6663 
  5. S. Raoof, D. Feigin, A. Sung, S. Raoof, L. Irugulpati, E. C. Rosenow III, "Interpretation of Plain Chest Roentgenogram", Chest Journal, Vol. 141, No. 2. Elsevier BV, pp. 545-558, 2012. https://doi.org/10.1378/chest.10-1302 
  6. K. Murphy, The Global Innovation Index 2019, World Intellectual Property Organization, Geneva, pp. 129-132, 2019.
  7. A. S. Pillai, "Multi-Label Chest X-Ray Classification via Deep Learning", Journal of Intelligent Learning Systems and Applications, Vol. 14, No. 04, pp. 43-56, 2022. https://doi.org/10.4236/jilsa.2022.144004 
  8. S. Jaeger, A. Karargyris, S. Candemir, L. Folio, J. Siegelman, F. Callaghan et al., "Automatic Tuberculosis Screening Using Chest Radiographs", IEEE Transactions on Medical Imaging, Vol. 33, No. 2, pp. 233-245, 2014. https://doi.org/10.1109/tmi.2013.2284099 
  9. M. Weinreich, J. J. Chudow, B. Weinreich, T. Krumerman, T. Nag, K. Rahgozar, E. Shulman, J. Fisher, K. J. Ferrick. et al., "Development of an Artificially Intelligent Mobile Phone Application to Identify Cardiac Devices on Chest Radiography", JACC: Clinical Electrophysiology, Vol. 5, No. 9, pp. 1094-1095, 2019. https://doi.org/10.1016/j.jacep.2019.05.013 
  10. H. X. Le, P. D. Nguyen, T. H. Nguyen, K. N. Q. Le, T. T. Nguyen, "A novel approach to remove foreign objects from chest X-ray images", Computer Vision and Pattern Recognition, 2020. https://doi.org/10.48550/arXiv.2008.06828 
  11. F. T. Zohora, K. C. Santosh, "Circular foreign object detection in chest X-ray images", Recent Trends in Image Processing and Pattern Recognition, Vol. 709, pp. 391-401, 2017. https://doi.org/10.1007/978-981-10-4859-3 
  12. I. M. Baltruschat, H. Nickisch, M. Grass, T. Knopp, A. Saalbach, "Comparison of Deep Learning Approaches for Multi-Label Chest X-Ray Classification", Scientific Reports, Vol. 9, No. 1, pp. 6381-6390, 2019. https://doi.org/10.1038/s41598-019-42294-8 
  13. M. T. Freedman, S.-C. B. Lo, J. C. Seibel, C. M. Bromley, "Lung Nodules: Improved Detection with Software That Suppresses the Rib and Clavicle on Chest Radiographs", Radiology, Vol. 260, No. 1, pp. 265-273, 2011. https://doi.org/10.1148/radiol.11100153 
  14. K. C. Santosh, M. K. Dhar, R. Rajbhandari, A. Neupane, "Deep Neural Network for Foreign Object Detection in Chest X-rays", Institute of Electrical and Electronics Engineers, 2020 IEEE 33rd International Symposium, pp. 538-541, 2020. https://doi.org/10.1109/CBMS49503.2020.00107 
  15. A. Bochkovskiy, C. Y. Wang, H. Y. Mark, "YOLOv4: Optimal Speed and Accuracy of Object Detection", Computer Vision and Pattern Recognition, 2020. https://doi.org/10.48550/arXiv.2004.10934 
  16. J. Redmon, S. Divvala, R. Girshick, A. Farhadi, "You Only Look Once: Unified, Real-Time Object Detection", Institute of Electrical and Electronics Engineers, 2016 IEEE Conference, pp. 779-788, 2016. https://doi.org/10.48550/arXiv.1506.02640 
  17. Brief summary of YOLOv8 model structure #189, From URL; https://github.com/ultralytics/ultralytics/issues/189