Proceedings of the Korea Information Processing Society Conference (한국정보처리학회:학술대회논문집)
- 2018.10a
- /
- Pages.617-620
- /
- 2018
- /
- 2005-0011(pISSN)
- /
- 2671-7298(eISSN)
DOI QR Code
Improving Few-Shot Learning through Self-Distillation
Self-Distillation을 활용한 Few-Shot 학습 개선
- Kim, Tae-Hun (Dept. of Computer Engineering, Korea University) ;
- Choo, Jae-Gul (Dept. of Computer Engineering, Korea University)
- Published : 2018.10.31
Abstract
딥러닝 기술에 있어서 대량의 학습 데이터가 필요하다는 한계점을 극복하기 위한 시도로서, 적은 데이터 만으로도 좋은 성능을 낼 수 있는 few-shot 학습 모델이 꾸준히 발전하고 있다. 하지만 few-shot 학습 모델의 가장 큰 단점인 적은 데이터로 인한 과적합 문제는 여전히 어려운 숙제로 남아있다. 본 논문에서는 모델 압축에 사용되는 distillation 기법을 사용하여 few-shot 학습 모델의 학습 문제를 개선하고자 한다. 이를 위해 대표적인 few-shot 모델인 Siamese Networks, Prototypical Networks, Matching Networks에 각각 distillation을 적용하였다. 본 논문의 실험결과로써 단순히 결과값에 대한 참/거짓 뿐만 아니라, 참/거짓에 대한 신뢰도까지 같이 학습함으로써 few-shot 모델의 학습 문제 개선에 도움이 된다는 것을 실험적으로 증명하였다.
Keywords