• 제목/요약/키워드: inception-V3

검색결과 77건 처리시간 0.025초

심장비대증 환자의 흉부 X선 영상에 대한 Inception V3 알고리즘의 분류 성능평가 (Evaluation of Classification Performance of Inception V3 Algorithm for Chest X-ray Images of Patients with Cardiomegaly)

  • 정우연;김정훈;박지은;김민정;이종민
    • 한국방사선학회논문지
    • /
    • 제15권4호
    • /
    • pp.455-461
    • /
    • 2021
  • 심장비대증은 흉부 X선 영상에서 흔히 보이는 질병 중 하나이지만 조기에 발견을 하지 못하면 심각한 합병증을 유발할 수도 있다. 이러한 점을 고려하여 최근에는 여러 과학기술 분야의 발전으로 인공지능을 이용한 딥러닝 알고리즘을 의료에 접목시키는 영상 분석 연구들이 많이 진행되고 있다. 본 논문에서는 Inception V3 딥러닝 모델을 흉부 X선 영상을 이용하여 심장비대증의 분류에 유용한 모델인지 평가하고자 한다. 사용된 영상의 경우 총 1026장의 경북대학교병원 내 정상 심장 진단을 받은 환자와 심장비대증 진단을 받은 환자의 흉부 X선 영상을 사용하였다. 실험결과 Inception V3 딥러닝 모델의 심장비대증 유무에 따른 분류 정확도와 손실도 결과값은 각각 96.0%, 0.22%의 결과값을 나타내었다. 연구결과를 통해 Inception V3 딥러닝 모델은 흉부 영상 데이터의 특징 추출 및 분류에 있어 우수한 딥러닝 모델인 것을 알 수 있었다. Inception V3 딥러닝 모델의 경우 흉부 질환의 분류에 있어 유용한 딥러닝 모델이 될 것으로 판단되며 조금 더 다양한 의료 영상 데이터를 이용한 연구를 진행하여 이와 같은 우수한 연구결과를 얻게 된다면 향후 임상의의 진단 시 많은 도움을 줄 수 있을 것으로 사료된다.

군 폐쇄망 환경에서의 모의 네트워크 데이터 셋 평가 방법 연구 (A study on evaluation method of NIDS datasets in closed military network)

  • 박용빈;신성욱;이인섭
    • 인터넷정보학회논문지
    • /
    • 제21권2호
    • /
    • pp.121-130
    • /
    • 2020
  • 이 논문은 Generative Adversarial Network (GAN) 을 이용하여 증진된 이미지 데이터를 평가방식인 Inception Score (IS) 와 Frechet Inception Distance (FID) 계산시 inceptionV3 모델을 활용 하는 방식을 응용하여, 군 폐쇄망 네트워크 데이터를 이미지 형태로 평가하는 방법을 제안한다. 기존 존재하는 이미지 분류 모델들에 레이어를 추가하여 IncetptionV3 모델을 대체하고, 네트워크 데이터를 이미지로 변환 및 학습 하는 방법에 변화를 주어 다양한 시뮬레이션을 진행하였다. 실험 결과, atan을 이용해 8 * 8 이미지로 변환한 데이터에 대해 1개의 덴스 레이어 (Dense Layer)를 추가한 Densenet121를 학습시킨 모델이 네트워크 데이터셋 평가 모델로서 가장 적합하다는 결과를 도출하였다.

InceptionV3 기반의 심장비대증 분류 정확도 향상 연구 (A Study on the Improvement of Accuracy of Cardiomegaly Classification Based on InceptionV3)

  • 정우연;김정훈
    • 대한의용생체공학회:의공학회지
    • /
    • 제43권1호
    • /
    • pp.45-51
    • /
    • 2022
  • The purpose of this study is to improve the classification accuracy compared to the existing InceptionV3 model by proposing a new model modified with the fully connected hierarchical structure of InceptionV3, which showed excellent performance in medical image classification. The data used for model training were trained after data augmentation on a total of 1026 chest X-ray images of patients diagnosed with normal heart and Cardiomegaly at Kyungpook National University Hospital. As a result of the experiment, the learning classification accuracy and loss of the InceptionV3 model were 99.57% and 1.42, and the accuracy and loss of the proposed model were 99.81% and 0.92. As a result of the classification performance evaluation for precision, recall, and F1 score of Inception V3, the precision of the normal heart was 78%, the recall rate was 100%, and the F1 score was 88. The classification accuracy for Cardiomegaly was 100%, the recall rate was 78%, and the F1 score was 88. On the other hand, in the case of the proposed model, the accuracy for a normal heart was 100%, the recall rate was 92%, and the F1 score was 96. The classification accuracy for Cardiomegaly was 95%, the recall rate was 100%, and the F1 score was 97. If the chest X-ray image for normal heart and Cardiomegaly can be classified using the model proposed based on the study results, better classification will be possible and the reliability of classification performance will gradually increase.

Deep Convolutional Neural Network(DCNN)을 이용한 계층적 농작물의 종류와 질병 분류 기법 (A Hierarchical Deep Convolutional Neural Network for Crop Species and Diseases Classification)

  • ;나형철;류관희
    • 한국멀티미디어학회논문지
    • /
    • 제25권11호
    • /
    • pp.1653-1671
    • /
    • 2022
  • Crop diseases affect crop production, more than 30 billion USD globally. We proposed a classification study of crop species and diseases using deep learning algorithms for corn, cucumber, pepper, and strawberry. Our study has three steps of species classification, disease detection, and disease classification, which is noteworthy for using captured images without additional processes. We designed deep learning approach of deep learning convolutional neural networks based on Mask R-CNN model to classify crop species. Inception and Resnet models were presented for disease detection and classification sequentially. For classification, we trained Mask R-CNN network and achieved loss value of 0.72 for crop species classification and segmentation. For disease detection, InceptionV3 and ResNet101-V2 models were trained for nodes of crop species on 1,500 images of normal and diseased labels, resulting in the accuracies of 0.984, 0.969, 0.956, and 0.962 for corn, cucumber, pepper, and strawberry by InceptionV3 model with higher accuracy and AUC. For disease classification, InceptionV3 and ResNet 101-V2 models were trained for nodes of crop species on 1,500 images of diseased label, resulting in the accuracies of 0.995 and 0.992 for corn and cucumber by ResNet101 with higher accuracy and AUC whereas 0.940 and 0.988 for pepper and strawberry by Inception.

딥러닝을 이용한 인스타그램 이미지 분류 (Instagram image classification with Deep Learning)

  • 정노권;조수선
    • 인터넷정보학회논문지
    • /
    • 제18권5호
    • /
    • pp.61-67
    • /
    • 2017
  • 본 논문에서는 딥러닝의 회선신경망을 이용한 실제 소셜 네트워크 상의 이미지 분류가 얼마나 효과적인지 알아보기 위한 실험을 수행하고, 그 결과와 그를 통해 알게 된 교훈에 대해 소개한다. 이를 위해 ImageNet Large Scale Visual Recognition Challenge(ILSVRC)의 2012년 대회와 2015년 대회에서 각각 우승을 차지한 AlexNet 모델과 ResNet 모델을 이용하였다. 평가를 위한 테스트 셋으로 인스타그램에서 수집한 이미지를 사용하였으며, 12개의 카테고리, 총 240개의 이미지로 구성되어 있다. 또한, Inception V3모델을 이용하여 fine-tuning을 실시하고, 그 결과를 비교하였다. AlexNet과 ResNet, Inception V3, fine-tuned Inception V3 이 네 가지 모델에 대한 Top-1 error rate들은 각각 49.58%, 40.42%, 30.42% 그리고 5.00%로 나타났으며, Top-5 error rate들은 각각 35.42%, 25.00%, 20.83% 그리고 0.00%로 나타났다.

Inception V3를 이용한 뇌 실질 MRI 영상 분류의 정확도 평가 (Accuracy Evaluation of Brain Parenchymal MRI Image Classification Using Inception V3)

  • 김지율;예수영
    • 융합신호처리학회논문지
    • /
    • 제20권3호
    • /
    • pp.132-137
    • /
    • 2019
  • 의료영상으로 생성된 데이터의 양은 전문적인 시각적 분석 한계를 점점 초과하여, 자동화된 의료영상 분석의 필요성이 증가되고 있는 실정이다. 이러한 이유 등으로 인하여 본 논문에서는 정상소견과 종양소견을 보이는 각각의 뇌 실질 MRI 의료영상을 이용하여 Inception V3 딥러닝 모델을 이용한 종양 유무에 따른 분류 및 정확도를 평가하였다. 연구 결과, 딥러닝 모델의 정확도 평가는 학습 데이터 세트의 경우 90%, 검증 데이터 세트의 경우 86%의 정확도를 나타내었다. 손실률 평가에서는 학습 데이터 세트의 경우 0.56, 검증 데이터 세트의 경우 1.28의 손실률을 나타내었다. 향 후 연구에서는 딥러닝 모델의 성능 향상 및 평가의 신뢰성 확보를 위하여 공개된 의료영상의 데이터를 충분히 확보하고, 라벨링 분류 작업을 통한 라벨링의 정확도를 개선하여 모델링을 구현해 볼 필요가 있다고 사료된다.

Inception V3를 이용한 흉부촬영 X선 영상의 폐렴 진단 분류 (Diagnostic Classification of Chest X-ray Pneumonia using Inception V3 Modeling)

  • 김지율;예수영
    • 한국방사선학회논문지
    • /
    • 제14권6호
    • /
    • pp.773-780
    • /
    • 2020
  • 4차 산업의 발전으로 의학·보건·바이오 등 여러 과학기술 분야에서는 질병을 예방하고 질병에 대한 피해를 줄이기 위한 연구가 이루어지고 있으며, 최근에는 ICT 기술의 발전과 더불어 인공지능 기술이 급부상하고 그 효용성이 입증되면서 영상의학 검사의 영상 분석에 인공지능 기술이 도입되어 연구되고 있다. 본 논문에서는 흉부 X선 영상을 이용하여 폐렴의 분류와 검출에 대한 딥러닝 모델을 직접 적용해보고 실제로 Inception 계열의 딥러닝 모델이 폐렴 검출에 있어 유용한 모델인지 평가하고자 한다. 실험재료는 캐글(Kaggle)에서 무료로 제공 및 공유하는 흉부 X선 영상 데이터 세트를 사용하였으며 전체 3,470개의 흉부 X선 영상 데이터 중 학습 데이터 세트 1,870개, 검증 데이터 세트 1,100개, 테스트 데이터 세트 500개로 분류하였다. 실험결과 Inception V3 딥러닝 모델의 Metric 평가에 대한 결과값은 정확도는 94.80%, 정밀도는 97.24%, 재현율은 94.00%, F1 스코어는 95.59의 결과값을 나타내었다. 그리고 흉부 X선 영상의 페렴 검출 및 분류에 대하여 Inception V3 딥러닝 모델링에 대한 최종 에포크의 정확도는 학습 모델링의 경우 94.91%, 검증 모델링은 89.68%의 정확도를 나타내었다. 손실함수 값의 평가는 학습 모델링은 1.127%, 검증 모델링은 4.603%의 손실함수 값을 나타내었다. 이러한 결과로 Inception V3 딥러닝 모델은 흉부영상 데이터의 특징 추출 및 분류에 있어 매우 우수한 딥러닝 모델이며 학습상태 또한 매우 우수하다고 평가하였다. 테스트 모델링에 대한 매트릭스 정확도 평가 결과 정상 흉부 X선 영상 데이터의 경우 96%, 폐렴 흉부 X선 영상데이터의 경우 97%의 정확도가 입증되었다. Inception 계열의 딥러닝 모델의 경우 흉부 질환의 분류에 있어 유용한 딥러닝 모델이 될 것이라고 판단되며 인력의 보조적인 역할 또한 수행할 수 있을 것이라고 기대되어 부족한 의료인력 문제에도 해결점이 될 것이라고 사료된다. 향후 딥러닝을 이용한 폐렴의 진단에 대한 유사 연구 시 본 연구는 유사 연구의 기초자료로 제시될 것이라고 기대된다.

국방 데이터를 활용한 인셉션 네트워크 파생 이미지 분류 AI의 설명 가능성 연구 (A Study on the Explainability of Inception Network-Derived Image Classification AI Using National Defense Data)

  • 조강운
    • 한국군사과학기술학회지
    • /
    • 제27권2호
    • /
    • pp.256-264
    • /
    • 2024
  • In the last 10 years, AI has made rapid progress, and image classification, in particular, are showing excellent performance based on deep learning. Nevertheless, due to the nature of deep learning represented by a black box, it is difficult to actually use it in critical decision-making situations such as national defense, autonomous driving, medical care, and finance due to the lack of explainability of judgement results. In order to overcome these limitations, in this study, a model description algorithm capable of local interpretation was applied to the inception network-derived AI to analyze what grounds they made when classifying national defense data. Specifically, we conduct a comparative analysis of explainability based on confidence values by performing LIME analysis from the Inception v2_resnet model and verify the similarity between human interpretations and LIME explanations. Furthermore, by comparing the LIME explanation results through the Top1 output results for Inception v3, Inception v2_resnet, and Xception models, we confirm the feasibility of comparing the efficiency and availability of deep learning networks using XAI.

머신 러닝을 사용한 이미지 클러스터링: K-means 방법을 사용한 InceptionV3 연구 (Image Clustering Using Machine Learning : Study of InceptionV3 with K-means Methods.)

  • 닌담 솜사우트;이효종
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.681-684
    • /
    • 2021
  • In this paper, we study image clustering without labeling using machine learning techniques. We proposed an unsupervised machine learning technique to design an image clustering model that automatically categorizes images into groups. Our experiment focused on inception convolutional neural networks (inception V3) with k-mean methods to cluster images. For this, we collect the public datasets containing Food-K5, Flowers, Handwritten Digit, Cats-dogs, and our dataset Rice Germination, and the owner dataset Palm print. Our experiment can expand into three-part; First, format all the images to un-label and move to whole datasets. Second, load dataset into the inception V3 extraction image features and transferred to the k-mean cluster group hold on six classes. Lastly, evaluate modeling accuracy using the confusion matrix base on precision, recall, F1 to analyze. In this our methods, we can get the results as 1) Handwritten Digit (precision = 1.000, recall = 1.000, F1 = 1.00), 2) Food-K5 (precision = 0.975, recall = 0.945, F1 = 0.96), 3) Palm print (precision = 1.000, recall = 0.999, F1 = 1.00), 4) Cats-dogs (precision = 0.997, recall = 0.475, F1 = 0.64), 5) Flowers (precision = 0.610, recall = 0.982, F1 = 0.75), and our dataset 6) Rice Germination (precision = 0.997, recall = 0.943, F1 = 0.97). Our experiment showed that modeling could get an accuracy rate of 0.8908; the outcomes state that the proposed model is strongest enough to differentiate the different images and classify them into clusters.

합성곱 신경망을 이용한 '미황' 복숭아 과실의 성숙도 분류 (Grading of Harvested 'Mihwang' Peach Maturity with Convolutional Neural Network)

  • 신미희;장경은;이슬기;조정건;송상준;김진국
    • 생물환경조절학회지
    • /
    • 제31권4호
    • /
    • pp.270-278
    • /
    • 2022
  • 본 연구는 무대재배 복숭아 '미황'을 대상으로 성숙기간 중 RGB 영상을 취득한 후 다양한 품질 지표를 측정하고 이를 딥러닝 기술에 적용하여 복숭아 과실 숙도 분류의 가능성을 탐색하고자 실시하였다. 취득 영상 730개의 데이터를 training과 validation에 사용하였고, 170개는 최종테스트 이미지로 사용하였다. 본 연구에서는 딥러닝을 활용한 성숙도 자동 분류를 위하여 조사된 품질 지표 중 경도, Hue 값, a*값을 최종 선발하여 이미지를 수동으로 미성숙(immature), 성숙(mature), 과숙(over mature)으로 분류하였다. 이미지 자동 분류는 CNN(Convolutional Neural Networks, 컨볼루션 신경망) 모델 중에서 이미지 분류 및 탐지에서 우수한 성능을 보이고 있는 VGG16, GoogLeNet의 InceptionV3 두종류의 모델을 사용하여 복숭아 품질 지표 값의 분류 이미지별 성능을 측정하였다. 딥러닝을 통한 성숙도 이미지 분석 결과, VGG16과 InceptionV3 모델에서 Hue_left 특성이 각각 87.1%, 83.6%의 성능(F1 기준)을 나타냈고, 그에 비해 Firmness 특성이 각각 72.2%, 76.9%를 나타냈고, Loss율이 각각 54.3%, 62.1%로 Firmness를 기준으로 한 성숙도 분류는 적용성이 낮음을 확인하였다. 추후에 더 많은 종류의 이미지와 다양한 품질 지표를 가지고 학습이 진행된다면 이전 연구보다 향상된 정확도와 세밀한 성숙도 판별이 가능할 것으로 판단되었다.