• Title/Summary/Keyword: KE-T5

Search Result 79, Processing Time 0.024 seconds

VL-KE-T5: A contrastive learning-based pre-trained model using image-language parallel data composed of Korean and English (VL-KE-T5: 한국어와 영어로 구성된 영상-언어 병렬 데이터를 이용한 대조학습 기반 사전학습모델 구축)

  • San Kim;Saim, Shin
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.337-342
    • /
    • 2022
  • 본 논문은 한국어-영어 기반 영상-언어 모델인 VL-KE-T5를 소개한다. VL-KE-T5는 영상-텍스트 쌍으로 구성된 한국어와 영어 데이터 약 2천 3백만개를 이용하여 영상-언어 모델의 임베딩 벡터들을 정렬시킨 사전학습모델이며, 미세조정을 통하여 여러 영상-언어 작업에 활용할 할 수 있다. VL-KE-T5는 텍스트 기반 영상 검색 작업에서 높은 성능을 보였으나, 세세한 속성을 가진 여러 객체들의 나열이나 객체 간 관계를 포함한 텍스트 기반 영상 검색에서는 비교적 낮은 성능을 보였다.

  • PDF

Long-KE-T5: Korean-English Language model for Long Sequences (Long-KE-T5: 긴 맥락 파악이 가능한 한국어-영어 언어 모델 구축)

  • San Kim;Jinyea Jang;Minyoung Jeung;Saim Shin
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.168-170
    • /
    • 2023
  • 이 논문에서는 7,400만개의 한국어, 영어 문서를 활용하여 최대 4,096개의 토큰을 입력으로하고 최대 1,024개의 토큰을 생성할 수 있도록 학습한 언어모델인 Long-KE-T5를 소개한다. Long-KE-T5는 문서에서 대표성이 높은 문장을 생성하도록 학습되었으며, 학습에 사용한 문서의 길이가 길기 때문에 긴 문맥이 필요한 태스크에 활용할 수 있다. Long-KE-T5는 다양한 한국어 벤치마크에서 높은 성능을 보였으며, 사전학습 모델링 방법이 텍스트 요약과 유사하기 때문에 문서 요약 태스크에서 기존 모델 대비 높은 성능을 보였다.

  • PDF

Construction of bilingually pre-trained language model from large-scaled Korean and English corpus (KE-T5: 한국어-영어 대용량 텍스트를 활용한 이중언어 사전학습기반 대형 언어모델 구축)

  • Shin, Saim;Kim, San;Seo, Hyeon-Tae
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.419-422
    • /
    • 2021
  • 본 논문은 한국어와 영어 코퍼스 93GB를 활용하여 구축한 대형 사전학습기반 언어모델인 KE-T5를 소개한다. KE-T5는 한국어와 영어 어휘 64,000개를 포함하는 대규모의 언어모델로 다양한 한국어처리와 한국어와 영어를 모두 포함하는 번역 등의 복합언어 태스크에서도 높은 성능을 기대할 수 있다. KE-T5의 활용은 대규모의 언어모델을 기반으로 영어 수준의 복잡한 언어처리 태스크에 대한 연구들을 본격적으로 시작할 수 있는 기반을 마련하였다.

  • PDF

Homonym Identification Using Korean Pre-trained Model KE-T5 (한국어 사전학습 모델 KE-T5 기반 동형이의어 구별)

  • Moon, Seona;Seo, Hyeon-Tae;Shin, Saim;Kim, San
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.507-508
    • /
    • 2021
  • 최근 한국어 자연어처리 과제에서 대형 언어 모델을 통해 다양한 언어처리 작업에 대한 연구가 활발히 이루어지고 있다. 특히 동형이의어를 구분하는 작업은 문장의 문법성을 정확히 판단하고 비교해야 되기 때문에 어려운 작업이다. KE-T5는 큰 규모의 한국어를 통해 학습된 한국어 대형 언어 모델로 대부분의 자연어처리 과제에서 활용할 수 있으며 복잡한 언어처리 작업에서 높은 성능을 기대할 수 있다. 본 논문에서는 큰 규모의 한국어를 통해 학습된 KE-T5를 활용하여 동형이의어 구별 문제를 수행하고 평가한다.

  • PDF

Korean Pre-trained Model KE-T5-based Automatic Paper Summarization (한국어 사전학습 모델 KE-T5 기반 자동 논문 요약)

  • Seo, Hyeon-Tae;Shin, Saim;Kim, San
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.505-506
    • /
    • 2021
  • 최근 인터넷에서 기하급수적으로 증가하는 방대한 양의 텍스트를 자동으로 요약하려는 연구가 활발하게 이루어지고 있다. 자동 텍스트 요약 작업은 다양한 사전학습 모델의 등장으로 인해 많은 발전을 이루었다. 특히 T5(Text-to-Text Transfer Transformer) 기반의 모델은 자동 텍스트 요약 작업에서 매우 우수한 성능을 보이며, 해당 분야의 SOTA(State of the Art)를 달성하고 있다. 본 논문에서는 방대한 양의 한국어를 학습시킨 사전학습 모델 KE-T5를 활용하여 자동 논문 요약을 수행하고 평가한다.

  • PDF

KE-T5-Based Text Emotion Classification in Korean Conversations (KE-T5 기반 한국어 대화 문장 감정 분류)

  • Lim, Yeongbeom;Kim, San;Jang, Jin Yea;Shin, Saim;Jung, Minyoung
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.496-497
    • /
    • 2021
  • 감정 분류는 사람의 사고방식이나 행동양식을 구분하기 위한 중요한 열쇠로, 지난 수십 년간 감정 분석과 관련된 다양한 연구가 진행되었다. 감정 분류의 품질과 정확도를 높이기 위한 방법 중 하나로 단일 레이블링 대신 다중 레이블링된 데이터 세트를 감정 분석에 활용하는 연구가 제안되었고, 본 논문에서는 T5 모델을 한국어와 영어 코퍼스로 학습한 KE-T5 모델을 기반으로 한국어 발화 데이터를 단일 레이블링한 경우와 다중 레이블링한 경우의 감정 분류 성능을 비교한 결과 다중 레이블 데이터 세트가 단일 레이블 데이터 세트보다 23.3% 더 높은 정확도를 보임을 확인했다.

  • PDF

Korean Generation-based Dialogue State Tracking using Korean Token-Free Pre-trained Language Model KeByT5 (한국어 토큰-프리 사전학습 언어모델 KeByT5를 이용한 한국어 생성 기반 대화 상태 추적)

  • Kiyoung Lee;Jonghun Shin;Soojong Lim;Ohwoog Kwon
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.644-647
    • /
    • 2023
  • 대화 시스템에서 대화 상태 추적은 사용자와의 대화를 진행하면서 사용자의 의도를 파악하여 시스템 응답을 결정하는데 있어서 중요한 역할을 수행한다. 특히 목적지향(task-oriented) 대화에서 사용자 목표(goal)를 만족시키기 위해서 대화 상태 추적은 필수적이다. 최근 다양한 자연어처리 다운스트림 태스크들이 사전학습 언어모델을 백본 네트워크로 사용하고 그 위에서 해당 도메인 태스크를 미세조정하는 방식으로 좋은 성능을 내고 있다. 본 논문에서는 한국어 토큰-프리(token-free) 사전학습 언어모델인 KeByT5B 사용하고 종단형(end-to-end) seq2seq 방식으로 미세조정을 수행한 한국어 생성 기반 대화 상태 추적 모델을 소개하고 관련하여 수행한 실험 결과를 설명한다.

  • PDF

X-RAY PROPERTIES OF THE PULSAR PSR J0205+6449 IN 3C 58

  • Kim, Minjun;An, Hongjun
    • Journal of The Korean Astronomical Society
    • /
    • v.54 no.1
    • /
    • pp.1-8
    • /
    • 2021
  • We report X-ray timing and spectral properties of the pulsar PSR J0205+6449 measured using NuSTAR and Chandra observatories. We measure the pulsar's rotation frequency ν = 15.20102357(9) s-1 and its derivative $\dot{\nu}=-4.5(1){\times}10^{-11}\;s^{-2}$ during the observation period, and model the 2-30 keV on-pulse spectrum of the pulsar with a power law having a photon index Γpsr = 1.07 ± 0.16 and a 2-30 keV flux F2-30 keV = 7.3±0.6 × 10-13 erg cm-2 s-1. The Chandra 0.5-10 keV data are analyzed for an investigation of the pulsar's thermal emission properties. We use thermal and non-thermal emission models to fit the Chandra spectra and infer the surface temperature T∞ and luminosity Lth of the neutron star to be T∞ = 0.5 - 0.8 MK and Lth = 1 - 5 × 1032 erg s-1. This agrees with previous results which indicated that PSR J0205+6449 has a low surface temperature and luminosity for its age of 800-5600 yrs.

Korean Instruction Tuning Dataset (언어 번역 모델을 통한 한국어 지시 학습 데이터 세트 구축)

  • Yeongseo Lim;HyeonChang Chu;San Kim;Jin Yea Jang;Minyoung Jung;Saim Shin
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.591-595
    • /
    • 2023
  • 최근 지시 학습을 통해 미세 조정한 자연어 처리 모델들이 큰 성능 향상을 보이고 있다. 하지만 한국어로 학습된 자연어 처리 모델에 대해 지시 학습을 진행할 수 있는 데이터 세트는 공개되어 있지 않아 관련 연구에 큰 어려움을 겪고 있다. 본 논문에서는 T5 기반 한국어 자연어 처리 모델인 Long KE-T5로 영어 데이터 세트를 번역하여 한국어 지시 학습 데이터 세트를 구축한다. 또한 구축한 데이터 세트로 한국어로 사전 학습된 Long KE-T5 모델을 미세 조정한 후 성능을 확인한다.

  • PDF

Coincidence Summing Corrections in HPGe Gamma Ray Spectrometry in Marinelli-beakers with Efficiency (효율을 적용한 마리넬리 비이커에서 HPGe 감마선 분광분석법의 동시합성보정)

  • Jang, Eun-Sung;Lee, Hyo-Yeong
    • Journal of the Korean Society of Radiology
    • /
    • v.12 no.5
    • /
    • pp.557-563
    • /
    • 2018
  • Coincidence summing correction effects are known to be greater as the efficiency of the detector increases and as the distance between the source and the detector increases. A point source($^{60}Co$) was used to vary the distance in the direction of the detector's center axis and in the radial direction to obtain the P/T ratio for Coincidence summing correction calibration. In this study, values for coincidence summing corrected calibration of the values in the central and radial directions were applied to the mixed volume source(450 ml CRM source) to compare the overall peak efficiency change according to P/T with Geant4. In addition, the efficiency obtained from the mapping method is applied to the seaweed, a marine sample, and the compatibility of the P/T ratio with the detector and sample very dose together. The efficiency corrected to 1,836 keV was applied to the energy zone affected by the efficiency of 500 keV and the relative error of the measured and corrected values was well matcched by the 3.2 % peak efficiency correction. As with 450 mL CRM source, the larger the volume, the lower the P/T ratio was by ${\pm}5%$. This is due to the increased scattering of gamma-rays emitted as the source becomes farther away from the detector, and this change in P/T has been confirmed to affect the Coincidence summing corrected peak efficiency.