Utilizing Large Language Models for Non-trained Binary Sentiment Classification

거대 언어 모델(LLM)을 이용한 비훈련 이진 감정 분류

  • Hyungjin Ahn (The Division of Computer Convergence, Chungnam National University) ;
  • Taewook Hwang (The Division of Computer Convergence, Chungnam National University) ;
  • Sangkeun Jung (The Division of Computer Convergence, Chungnam National University)
  • 안형진 (충남대학교 컴퓨터융합학부) ;
  • 황태욱 (충남대학교 컴퓨터융합학부) ;
  • 정상근 (충남대학교 컴퓨터융합학부)
  • Published : 2023.10.12

Abstract

ChatGPT가 등장한 이후 다양한 거대 언어 모델(Large Language Model, LLM)이 등장하였고, 이러한 LLM을 목적에 맞게 파인튜닝하여 사용할 수 있게 되었다. 하지만 LLM을 새로 학습하는 것은 물론이고, 단순 튜닝만 하더라도 일반인은 시도하기 어려울 정도의 많은 컴퓨팅 자원이 필요하다. 본 연구에서는 공개된 LLM을 별도의 학습 없이 사용하여 zero-shot 프롬프팅으로 이진 분류 태스크에 대한 성능을 확인하고자 했다. 학습이나 추가적인 튜닝 없이도 기존 선학습 언어 모델들에 준하는 이진 분류 성능을 확인할 수 있었고, 성능이 좋은 LLM의 경우 분류 실패율이 낮고 일관적인 성능을 보여 상당히 높은 활용성을 확인하였다.

Keywords

Acknowledgement

이 논문은 2022년도 정부(교육부)의 재원으로 한국연구재단의 지원을 받아 수행된 기초연구사업임(2022R1F1A1071047)