DOI QR코드

DOI QR Code

Improving Few-Shot Learning through Self-Distillation

Self-Distillation을 활용한 Few-Shot 학습 개선

  • Kim, Tae-Hun (Dept. of Computer Engineering, Korea University) ;
  • Choo, Jae-Gul (Dept. of Computer Engineering, Korea University)
  • 김태훈 (고려대학교 컴퓨터학과) ;
  • 주재걸 (고려대학교 컴퓨터학과)
  • Published : 2018.10.31

Abstract

딥러닝 기술에 있어서 대량의 학습 데이터가 필요하다는 한계점을 극복하기 위한 시도로서, 적은 데이터 만으로도 좋은 성능을 낼 수 있는 few-shot 학습 모델이 꾸준히 발전하고 있다. 하지만 few-shot 학습 모델의 가장 큰 단점인 적은 데이터로 인한 과적합 문제는 여전히 어려운 숙제로 남아있다. 본 논문에서는 모델 압축에 사용되는 distillation 기법을 사용하여 few-shot 학습 모델의 학습 문제를 개선하고자 한다. 이를 위해 대표적인 few-shot 모델인 Siamese Networks, Prototypical Networks, Matching Networks에 각각 distillation을 적용하였다. 본 논문의 실험결과로써 단순히 결과값에 대한 참/거짓 뿐만 아니라, 참/거짓에 대한 신뢰도까지 같이 학습함으로써 few-shot 모델의 학습 문제 개선에 도움이 된다는 것을 실험적으로 증명하였다.

Keywords