DOI QR코드

DOI QR Code

비디오 객체 정의에 의한 동적 증강 정보 저작

Authoring of Dynamic Information in Augmented Reality Using Video Object Definition

  • 남양희 (이화여자대학교 디지털미디어학부) ;
  • 이서진 (이화여자대학교 디지털미디어학부)
  • 투고 : 2013.04.29
  • 심사 : 2013.05.08
  • 발행 : 2013.06.28

초록

증강현실에서 움직이는 가상 모델을 증강물로 활용하려면 대개 별도의 모델링이나 애니메이션 도구 사용이 필요하며 이는 매우 전문적이고 복잡한 작업이다. 본 논문에서는 그러한 과정 없이 동적 가상 객체를 증강 환경에 삽입할 수 있는 방법으로 비디오 객체 기반 저작 방법을 제시한다. 그랩컷과 그로컷을 통합 적용하여 대상물의 초기 영역을 분리한 후, 스냅컷을 이용해 프레임간 경계선 변화를 자동 추적하여 동작이 담긴 연속 프레임을 실사 비디오에 증강하는 방식이다. 실험결과로, 몇 단계의 메뉴 선택과 경계선 오류 정정 스케치만으로 특정 비디오 객체 컷아웃 및 증강 객체 저작이 가능함을 보였다.

It is generally required to use modeling or animation tools for inserting dynamic objects into augmented reality, and this process demands high expertise and complexity. This paper proposes a video object based authoring method that enables augmentation with dynamic video objects without such process. Integrated grab-cut and grow-cut method strips initial area of video target off the existing video clips, and snap-cut method is then applied to track objects' boundaries over frames so as to augment real world with continuous motion frames. Experiment shows video cut-out and authoring results achieved by only a few menu selections and simple correcting sketch.

키워드

참고문헌

  1. http://www.hitl.washington.edu/artoolkit/
  2. http://www.artoolworks.com/community/osgart/
  3. J. Jung, J. Hong, S. Park, and H. S. Yang, "Smart phone as an Augmented Reality Authoring Tool via Multi-touch based 3D Interaction Method," VRCAI'12, pp.17-20, 2012.
  4. 이정규, 이종원, "모바일 환경 증강현실 콘텐츠 현장 저작 인터페이스", 한국콘텐츠학회논문지, 제10권, 제7호, pp.1-9, 2010. https://doi.org/10.5392/JKCA.2010.10.7.001
  5. G. Klein and D. Murray, "Parallel Tracking and Mapping for Small AR Workspaces," ISMAR'07, pp.225-234, 2007.
  6. R. A. Newcombe and A. J. Davison, "Live dense reconstruction with a single moving camera," CVPR, pp.1498-1505, 2010.
  7. N. Braun, "Storytelling in Collaborative Augmented Reality Environment," WSCG Short papers proceedings, 2003.
  8. M. G. Choi, K. H. Lee, and J. H. Lee, "Motion Patches," Journal of KISS: Computer Systems and Theory, Vol.33, No.1_2, pp.119-127, 2006.
  9. N. Saforrudin, H. B. Zaman, and A. Ahmad, "Technical Skills in Developing Augmented Reality Application: Teachers' Readiness," Visual Informatics: Sustaining Research and Innovations-LNCS, Vol.7067, pp.360-370, 2011.
  10. X. Bai and G. Sapiro, "A geodesic framework for fast interactive image and video segmentation and matting," Proc. of IEEE ICCV, pp.1-8, 2007.
  11. C. J. Armstrong, B. L. Price, and W. A. Barrett, "Interactive segmentation of image volumes with live surface," Computers and Graphics, Vol.31, No.2, pp.212-229, 2007. https://doi.org/10.1016/j.cag.2006.11.015
  12. A. van den Hangel, R. Hill, B. Ward, and A. Dick, "In Situ Image-based Modeling," ISMAR 2009, pp.107-110, 2009.
  13. C. Rother, V. Kolmogorov, and A. Blake, "Grabcut - interactive foreground extraction using iterated graph cut," Proceedings of ACM SIGGRAPH, pp.309-314, 2004.
  14. V. Vezhnevets and V. Konouchine, "GrowCut: Interactive Multi-Label N-D Image Segmentation By Cellular Automata," pp.150-156, proc. of Graphicon 2005.
  15. X. Bai, J. Wang, D. Simons, and G. Sapiro, "Video Snapcut: robust video object cutout using localized classifiers," ACM Transactions on Graphics, Vol.28, No.3, pp.70:1-70:11, 2009.
  16. D. G. Lowe, "Distinctive image features from scale-invariant keypoints," I. J. of Computer Vision, Vol.60, No.2, pp.91-110, 2004. https://doi.org/10.1023/B:VISI.0000029664.99615.94