DOI QR코드

DOI QR Code

적외선 영상센서를 이용한 스마트 터치 프로젝터 시스템 기술 연구

A Study on Smart Touch Projector System Technology Using Infrared (IR) Imaging Sensor

  • 이국선 (선문대학교 컴퓨터공학과) ;
  • 오상헌 (선문대학교 컴퓨터공학과) ;
  • 전국휘 (선문대학교 컴퓨터공학과) ;
  • 강성수 (선문대학교 컴퓨터공학과) ;
  • 유동희 (선문대학교 컴퓨터공학과) ;
  • 김병규 (선문대학교 컴퓨터공학과)
  • 투고 : 2012.02.28
  • 심사 : 2012.06.08
  • 발행 : 2012.07.31

초록

최근의 많은 컴퓨터 기술의 발전과 센서 기술의 발전의 결합으로 매우 다양한 형태의 사용자 경험에 기반한 사용자 인터페이스(User interface) 기술들이 출현하고 있다. 본 연구에서는 적외선 영상을 이용한 스마트 터치 프로젝터 시스템 기술에 관한 연구와 그 결과를 소개한다. 제안된 시스템에서는 사용자가 빔 프로젝터를 사용할 때 적외선 펜을 이용하여 이벤트를 발생시키면 적외선 영상센서를 통하여 그 이벤트를 인식하여 마우스 이벤트를 발생시키는 기법을 제안한다. 입력되는 펜의 움직임 추출과 추적을 기반으로 움직임 이벤트 패턴을 설계하였으며, 입력 영상 화면과 실제 사용하는 하드웨어의 해상도에 차이가 있기 때문에 이 오차를 최소화 하기 위해서 화면 좌표보정 알고리즘을 제안한다. 이러한 기술은 빔 프로젝터에 간단한 프로세서만 장착이 된다면 다른 이동식 노트북 등이 필요 없이 언제든지 회의나 발표 등을 진행할 수 있는 차세대 휴먼-컴퓨터 상호작용(Human-Computer Interaction) 기술이다.

Recently, very rapid development of computer and sensor technologies induces various kinds of user interface (UI) technologies based on user experience (UX). In this study, we investigate and develop a smart touch projector system technology on the basis of IR sensor and image processing. In the proposed system, a user can control computer by understanding the control events based on gesture of IR pen as an input device. In the IR image, we extract the movement (or gesture) of the devised pen and track it for recognizing gesture pattern. Also, to correct the error between the coordinate of input image sensor and display device (projector), we propose a coordinate correction algorithm to improve the accuracy of operation. Through this system technology as the next generation human-computer interaction, we can control the events of the equipped computer on the projected image screen without manipulating the computer directly.

키워드

참고문헌

  1. Sang Hyuck Bae, Integrating Multi-Touch Function with a Large-Sized LCD, SID Symposium Digest of Technical Papers, Vol. 37, No.1, pp. 178-181, May, 2008.
  2. 김효성, 정현기, 김병규, "적외선 카메라를 이용한 에어 인터페이스 시스템 (AIS) 연구," 한국정보처리학회 논문지 B, 제18-B권, 3호, 2011. https://doi.org/10.3745/KIPSTB.2011.18B.3.109
  3. Asanterabi Malima, "A Fast Algorithm for Vision-based Hand Gesture Recognition for Robot Control," Signal Processing and Communications Applications, Vol.1, No.1, pp. 1-4, 2006.
  4. Michael Donoser and Horst Bischof, "Real Time Appearance Based Hand Tracking," IEEE International Conference on Pattern Recognition, pp. 1-4, 2008.
  5. 김동근, Open CV programming - 개정판, 가메출판사, 대한민국 서울, 2011.
  6. Angry Birds Rio, http://fg.gameangel.com/102000000000021184, 2012.
  7. R.C. Gonzalez and R.E. Woods, Digital Image Processing, The 3rd Edition, Pearson, New Jersey USA, 2010.
  8. Wei Liu, Qing He, Ning Wei, Chenxi Wang, Tingfang Yan, Chao Hu, and Meng, M.Q.-H., "The Design of Infrared Touch Screen Based on MCU," IEEE International Conference on Information and Automation (ICIA), pp. 485-489, 2011.
  9. A.K.B. Mahmood and S. Sulaiman, "Design and Implementation of Multi-Touch System using FTIR Technique for Optimization of Finger Touch Detection," International Symposium in Information Technology, Vol. 1, pp. 1-7, 2010.
  10. 이성일, 민현석, 신호철, 임을균, 황대환, 노용만, "인접 프레임의 시간적 상관 관계를 이용한 회전에 강인한 손 모양 인식," 멀티미디어학회 논문지 제13권, 제11호, pp. 1630-1642, 2010.
  11. E-Series Infrared Touchscreen, http://www.irtouch.com/info/2008213/2008213121241.shtml, 2012.

피인용 문헌

  1. A new study on hand gesture recognition algorithm using leap motion system vol.17, pp.11, 2014, https://doi.org/10.9717/kmms.2014.17.11.1263
  2. A Technique of Applying Embedded Sensors to Intuitive Adjustment of Image Filtering Effect in Smart Phone vol.18, pp.8, 2015, https://doi.org/10.9717/kmms.2015.18.8.960
  3. 물리적인 힘과 스코어 캐릭터를 반영한 립모션 체험형 가상현실 게임개발 vol.16, pp.4, 2012, https://doi.org/10.7583/jkgs.2016.16.4.69
  4. 립모션 기반의 윈도우즈 애플리케이션 제어 모델에 관한 연구 vol.10, pp.11, 2012, https://doi.org/10.15207/jkcs.2019.10.11.111