• 제목/요약/키워드: KE-T5

검색결과 79건 처리시간 0.025초

VL-KE-T5: 한국어와 영어로 구성된 영상-언어 병렬 데이터를 이용한 대조학습 기반 사전학습모델 구축 (VL-KE-T5: A contrastive learning-based pre-trained model using image-language parallel data composed of Korean and English)

  • 김산;신사임
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2022년도 제34회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.337-342
    • /
    • 2022
  • 본 논문은 한국어-영어 기반 영상-언어 모델인 VL-KE-T5를 소개한다. VL-KE-T5는 영상-텍스트 쌍으로 구성된 한국어와 영어 데이터 약 2천 3백만개를 이용하여 영상-언어 모델의 임베딩 벡터들을 정렬시킨 사전학습모델이며, 미세조정을 통하여 여러 영상-언어 작업에 활용할 할 수 있다. VL-KE-T5는 텍스트 기반 영상 검색 작업에서 높은 성능을 보였으나, 세세한 속성을 가진 여러 객체들의 나열이나 객체 간 관계를 포함한 텍스트 기반 영상 검색에서는 비교적 낮은 성능을 보였다.

  • PDF

Long-KE-T5: 긴 맥락 파악이 가능한 한국어-영어 언어 모델 구축 (Long-KE-T5: Korean-English Language model for Long Sequences)

  • 김산;장진예;정민영;신사임
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.168-170
    • /
    • 2023
  • 이 논문에서는 7,400만개의 한국어, 영어 문서를 활용하여 최대 4,096개의 토큰을 입력으로하고 최대 1,024개의 토큰을 생성할 수 있도록 학습한 언어모델인 Long-KE-T5를 소개한다. Long-KE-T5는 문서에서 대표성이 높은 문장을 생성하도록 학습되었으며, 학습에 사용한 문서의 길이가 길기 때문에 긴 문맥이 필요한 태스크에 활용할 수 있다. Long-KE-T5는 다양한 한국어 벤치마크에서 높은 성능을 보였으며, 사전학습 모델링 방법이 텍스트 요약과 유사하기 때문에 문서 요약 태스크에서 기존 모델 대비 높은 성능을 보였다.

  • PDF

KE-T5: 한국어-영어 대용량 텍스트를 활용한 이중언어 사전학습기반 대형 언어모델 구축 (Construction of bilingually pre-trained language model from large-scaled Korean and English corpus)

  • 신사임;김산;서현태
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.419-422
    • /
    • 2021
  • 본 논문은 한국어와 영어 코퍼스 93GB를 활용하여 구축한 대형 사전학습기반 언어모델인 KE-T5를 소개한다. KE-T5는 한국어와 영어 어휘 64,000개를 포함하는 대규모의 언어모델로 다양한 한국어처리와 한국어와 영어를 모두 포함하는 번역 등의 복합언어 태스크에서도 높은 성능을 기대할 수 있다. KE-T5의 활용은 대규모의 언어모델을 기반으로 영어 수준의 복잡한 언어처리 태스크에 대한 연구들을 본격적으로 시작할 수 있는 기반을 마련하였다.

  • PDF

한국어 사전학습 모델 KE-T5 기반 동형이의어 구별 (Homonym Identification Using Korean Pre-trained Model KE-T5)

  • 문선아;서현태;신사임;김산
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.507-508
    • /
    • 2021
  • 최근 한국어 자연어처리 과제에서 대형 언어 모델을 통해 다양한 언어처리 작업에 대한 연구가 활발히 이루어지고 있다. 특히 동형이의어를 구분하는 작업은 문장의 문법성을 정확히 판단하고 비교해야 되기 때문에 어려운 작업이다. KE-T5는 큰 규모의 한국어를 통해 학습된 한국어 대형 언어 모델로 대부분의 자연어처리 과제에서 활용할 수 있으며 복잡한 언어처리 작업에서 높은 성능을 기대할 수 있다. 본 논문에서는 큰 규모의 한국어를 통해 학습된 KE-T5를 활용하여 동형이의어 구별 문제를 수행하고 평가한다.

  • PDF

한국어 사전학습 모델 KE-T5 기반 자동 논문 요약 (Korean Pre-trained Model KE-T5-based Automatic Paper Summarization)

  • 서현태;신사임;김산
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.505-506
    • /
    • 2021
  • 최근 인터넷에서 기하급수적으로 증가하는 방대한 양의 텍스트를 자동으로 요약하려는 연구가 활발하게 이루어지고 있다. 자동 텍스트 요약 작업은 다양한 사전학습 모델의 등장으로 인해 많은 발전을 이루었다. 특히 T5(Text-to-Text Transfer Transformer) 기반의 모델은 자동 텍스트 요약 작업에서 매우 우수한 성능을 보이며, 해당 분야의 SOTA(State of the Art)를 달성하고 있다. 본 논문에서는 방대한 양의 한국어를 학습시킨 사전학습 모델 KE-T5를 활용하여 자동 논문 요약을 수행하고 평가한다.

  • PDF

KE-T5 기반 한국어 대화 문장 감정 분류 (KE-T5-Based Text Emotion Classification in Korean Conversations)

  • 임영범;김산;장진예;신사임;정민영
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.496-497
    • /
    • 2021
  • 감정 분류는 사람의 사고방식이나 행동양식을 구분하기 위한 중요한 열쇠로, 지난 수십 년간 감정 분석과 관련된 다양한 연구가 진행되었다. 감정 분류의 품질과 정확도를 높이기 위한 방법 중 하나로 단일 레이블링 대신 다중 레이블링된 데이터 세트를 감정 분석에 활용하는 연구가 제안되었고, 본 논문에서는 T5 모델을 한국어와 영어 코퍼스로 학습한 KE-T5 모델을 기반으로 한국어 발화 데이터를 단일 레이블링한 경우와 다중 레이블링한 경우의 감정 분류 성능을 비교한 결과 다중 레이블 데이터 세트가 단일 레이블 데이터 세트보다 23.3% 더 높은 정확도를 보임을 확인했다.

  • PDF

한국어 토큰-프리 사전학습 언어모델 KeByT5를 이용한 한국어 생성 기반 대화 상태 추적 (Korean Generation-based Dialogue State Tracking using Korean Token-Free Pre-trained Language Model KeByT5)

  • 이기영;신종훈;임수종;권오욱
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.644-647
    • /
    • 2023
  • 대화 시스템에서 대화 상태 추적은 사용자와의 대화를 진행하면서 사용자의 의도를 파악하여 시스템 응답을 결정하는데 있어서 중요한 역할을 수행한다. 특히 목적지향(task-oriented) 대화에서 사용자 목표(goal)를 만족시키기 위해서 대화 상태 추적은 필수적이다. 최근 다양한 자연어처리 다운스트림 태스크들이 사전학습 언어모델을 백본 네트워크로 사용하고 그 위에서 해당 도메인 태스크를 미세조정하는 방식으로 좋은 성능을 내고 있다. 본 논문에서는 한국어 토큰-프리(token-free) 사전학습 언어모델인 KeByT5B 사용하고 종단형(end-to-end) seq2seq 방식으로 미세조정을 수행한 한국어 생성 기반 대화 상태 추적 모델을 소개하고 관련하여 수행한 실험 결과를 설명한다.

  • PDF

X-RAY PROPERTIES OF THE PULSAR PSR J0205+6449 IN 3C 58

  • Kim, Minjun;An, Hongjun
    • 천문학회지
    • /
    • 제54권1호
    • /
    • pp.1-8
    • /
    • 2021
  • We report X-ray timing and spectral properties of the pulsar PSR J0205+6449 measured using NuSTAR and Chandra observatories. We measure the pulsar's rotation frequency ν = 15.20102357(9) s-1 and its derivative $\dot{\nu}=-4.5(1){\times}10^{-11}\;s^{-2}$ during the observation period, and model the 2-30 keV on-pulse spectrum of the pulsar with a power law having a photon index Γpsr = 1.07 ± 0.16 and a 2-30 keV flux F2-30 keV = 7.3±0.6 × 10-13 erg cm-2 s-1. The Chandra 0.5-10 keV data are analyzed for an investigation of the pulsar's thermal emission properties. We use thermal and non-thermal emission models to fit the Chandra spectra and infer the surface temperature T∞ and luminosity Lth of the neutron star to be T∞ = 0.5 - 0.8 MK and Lth = 1 - 5 × 1032 erg s-1. This agrees with previous results which indicated that PSR J0205+6449 has a low surface temperature and luminosity for its age of 800-5600 yrs.

언어 번역 모델을 통한 한국어 지시 학습 데이터 세트 구축 (Korean Instruction Tuning Dataset)

  • 임영서;추현창;김산;장진예;정민영;신사임
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.591-595
    • /
    • 2023
  • 최근 지시 학습을 통해 미세 조정한 자연어 처리 모델들이 큰 성능 향상을 보이고 있다. 하지만 한국어로 학습된 자연어 처리 모델에 대해 지시 학습을 진행할 수 있는 데이터 세트는 공개되어 있지 않아 관련 연구에 큰 어려움을 겪고 있다. 본 논문에서는 T5 기반 한국어 자연어 처리 모델인 Long KE-T5로 영어 데이터 세트를 번역하여 한국어 지시 학습 데이터 세트를 구축한다. 또한 구축한 데이터 세트로 한국어로 사전 학습된 Long KE-T5 모델을 미세 조정한 후 성능을 확인한다.

  • PDF

효율을 적용한 마리넬리 비이커에서 HPGe 감마선 분광분석법의 동시합성보정 (Coincidence Summing Corrections in HPGe Gamma Ray Spectrometry in Marinelli-beakers with Efficiency)

  • 장은성;이효영
    • 한국방사선학회논문지
    • /
    • 제12권5호
    • /
    • pp.557-563
    • /
    • 2018
  • 동시 합성 보정 효과는 검출기의 효율이 향상할 때 그리고 선원과 검출기 사이의 거리가 가까울수록 크게 나타나는 것으로 알려져 있다. 점 선원($^{60}Co$)을 사용하여 검출기 중심축 방향 및 방사상 방향에서 거리에 따른 변화를 주어 P/T 비를 구하여 동시합성 보정을 하였다. 따라서 본 연구에서는 중심축 및 방사상 방향에서 동시합성 보정한 값들을 혼합부피선원(450 mL CRM source)에 적용하여 P/T에 따른 전체 피크효율 변화를 Geant4과 비교하였다. 또한 검출기와 시료가 아주 밀착된 상태에서 맵핑법에서 구한 효율을 환경시료 중에서 해양 시료인 미역에 적용하여 P/T 비의 적합성을 평가하고자 한다. 500 keV 이상의 효율의 영향을 받는 에너지 영역에 1,836 keV로 보정한 효율을 적용한 결과 측정값과 보정값의 상대오차는 3.2 % peak 효율이 보정되어 잘 일치하였다. 450 mL CRM source처럼 부피가 커질수록 P/T 비는 ${\pm}5%$까지 감소하였다. 이것은 검출기로부터 선원이 멀어짐에 따라 방출된 감마선의 산란이 많아지기 때문이며, 이처럼 P/T 변화는 동시합성 보정 피크 효율에 영향을 줌을 확인하였다.