Multimodality Image Registration and Fusion using Feature Extraction

특징 추출을 이용한 다중 영상 정합 및 융합 연구

  • 우상근 (건국대학교 컴퓨터정보통신공학) ;
  • 김지현 (서일대학 소프트웨어과)
  • Published : 2007.05.31

Abstract

The aim of this study was to propose a fusion and registration method with heterogeneous small animal acquisition system in small animal in-vivo study. After an intravenous injection of $^{18}F$-FDG through tail vain and 60 min delay for uptake, mouse was placed on an acryl plate with fiducial markers that were made for fusion between small animal PET (microPET R4, Concorde Microsystems, Knoxville TN) and Discovery LS CT images. The acquired emission list-mode data was sorted to temporally framed sinograms and reconstructed using FORE rebining and 2D-OSEM algorithms without correction of attenuation and scatter. After PET imaging, CT images were acquired by mean of a clinical PET/CT with high-resolution mode. The microPET and CT images were fusion and co-registered using the fiducial markers and segmented lung region in both data sets to perform a point-based rigid co-registration. This method improves the quantitative accuracy and interpretation of the tracer.

본 논문에서는 소동물 생체내 실험시 서로 다른 장비에서 획득된 영상의 융합 및 정합을 위한 방법을 제안한다. 마우스의 꼬리 정맥에 $[[^{18}F]FDG$를 주사하여 60분 섭취후 서로 다른 장비에서 동일한 위치의 영상을 획득하기 위하여 아크릴 재질의 소동물 가이드에 기준마크를 설정하고 microPET과 CT 영상을 획득하였다. MicroPET으로 획득된 리스트모드(list-mode) 데이터는 Fourier Rebinning(FRB) 방법을 사용하여 사이노그램(Sinogram)으로 변환 후 4 번의 반복횟수를 가지는 Ordered Subset Expectation Maximization(OSEM) 알고리즘으로 재구성하였다. MicroPET 영상획득후 PET/CT의 CT를 이용하여 CT영상을 획득하였다. MicroPET 영상에서 폐영역을 정확히 찾아내는 어려움이 있어. 해부학적 정보를 제공하는 CT 영상을 이용하여 폐 영역을 구분하였다. 영상 융합을 위한 불일치 부분을 해결하기 위하여 기준마크의 정보와 폐 영역의 정보를 이용하여 회전과 이동정보를 가지는 어파인 (affine) 변환 행렬 구하여 영상 정합에 사용하였다. 이 방법은 정량적 정확성과 영상 해석의 정확성을 개선할 것으로 기대된다.

Keywords