Abstract
This thesis presents an emotion-based contents player platform that can change its visual and aural components as user's emotions. It analyzes the emotion as pleasant, unpleasant, aroused, and relaxed based on the physiological signals and the user's active response. Accordingly. the system reorganizes graphical and aural stimuli, such as, light, color, sound, in real-time. It can be used to develop and show the emotional contents and also be applied for the systematic analysis to find out how the components would affect the emotion. This paper describes overall the system architecture and the implementations of the sub-systems, as well as the actual contents built on top of the platform.
본 논문은 인식한 사용자의 감성에 따라 콘텐츠의 시청각적 요소를 변화시키는 감성 반응형 콘텐츠 플레이어 플랫폼에 관해 기술한다. 본 플랫폼은 사용자의 생체 신호 또는 능동적 참여를 통해 감성을 쾌, 불쾌, 각성, 이완 등의 상태로 분류하고, 그에 따라 조명, 배색, 사운드 등과 같은 시청각적 자극을 실시간으로 재구성하여 감성을 가속, 유지, 경감시킬 수 있다. 본 플랫폼은 감성 콘텐츠의 개발 및 활용에 사용될 수 있으며, 다양한 멀티미디어 요소들이 감성에 미치는 영향을 체계적으로 분석하는데 적용 가능하다. 본문에서는 개발한 플랫폼의 시스템 구조와 각 모듈의 구현 내용 및 플랫폼 기반 감성 콘텐츠에 대해서 설명한다.