DOI QR코드

DOI QR Code

Temporal Prediction Structure and Motion Estimation Method based on the Characteristic of the Motion Vectors

시간적 예측 구조와 움직임 벡터의 특성을 이용한 움직임 추정 기법

  • Yoon, Hyo Sun (Dept. of Computer Science, Chonnam National University) ;
  • Kim, Mi Young (Dept. of Health and Medical, Jeonnam Provincial College)
  • Received : 2015.07.07
  • Accepted : 2015.09.01
  • Published : 2015.10.30

Abstract

Efficient multi-view coding techniques are needed to reduce the complexity of multi-view video which increases in proportion to the number of cameras. To reduce the complexity and maintain image quality and bit-rates, an motion estimation method and temporal prediction structure are proposed in this paper. The proposed motion estimation method exploits the characteristic of motion vector distribution and the motion direction and motion size of the block to place search points and decide the search patten adaptively. And the proposed prediction structure divides every GOP to decide the maximum index of hierarchical B layer and the number of pictures of each B layer. Experiment results show that the complexity reduction of the proposed temporal prediction structure and motion estimation method over hierarchical B pictures prediction structure and TZ search method which are used in JMVC(Joint Multi-view Video Coding) reference model can be up to 45∼70% while maintaining similar video quality and bit rates.

Keywords

1. 서 론

실감 미디어 콘텐츠에 대한 수용가 급증하고 다양한 멀티미디어 콘텐츠를 사용자에게 제공할 수 있게 됨에 따라 3차원 영상의 중요성이 커지고 있다. 사용자에게 임의 시점과 넓은 화면을 제공할 수 있는 다시점 비디오는 사용자의 요구를 충족시킬 수 있지만 카메라의 수에 비례하여 데이터의 양이 증가하므로 다시점 비디오를 효율적으로 부호화하는 기술들이 필요하다[1-4]. 다시점 비디오 부호화의 효율을 높이기 위하여 움직임 벡터의 상관성을 이용한 예측 구조들과 움직임 추정 기법들이 제안되었다. 예측 구조들과 움직임 추정 기법들은 영상들 사이에 존재하는 중복된 데이터를 제거함으로써 다시점 부호화의 성능을 향상시켰다.

다시점 비디오 부호화에서 한 영상 내에 존재하는 시간적 상관성과 여러 영상사이에 존재하는 화면간 상관성을 이용하여 움직임 추정을 수행하는 계층적 B화면 예측 구조가 참조 예측 구조로 사용되고 있다[5-8]. 계층적 B화면 예측 구조의 성능을 향상시키기 위하여 여러 예측 구조들이 제안되었다[9-11]. Park등[9]의 예측 구조는 현재 화면과 참조 화면 사이의 평균거리를 이용하였고 He등[10]의 예측 구조는 시간적 상관성, 공간적 상관성을 이용하여 각 영상의 참조 화면 모드를 결정하였다. Lu등[11]은 영상들의 상관성을 분석하여 다양한 예측 구조를 제안하였다.

영상 압축에서 움직임 추정은 전체 인코더 계산량의 60%(1개의 참조 프레임을 사용한 경우)~ 80%(5개의 참조프레임을 사용한 경우)의 계산량을 차지한다[12]. 그래서 움직임 추정에 소요되는 계산량을 줄이기 위하여 많은 움직임 추정 기법들이 제안되었다[13-22]. 움직임 추정 기법들[13-17]은 탐색 원점을 중심으로 탐색 점들을 배치하는 탐색 패턴을 사용하여 움직임 벡터를 추정하므로 상대적으로 움직임이 작은 영상이나 영상의 크기가 작은 경우에 움직임 벡터 추정을 잘 수행한다. 움직임 추정 기법들[18-19]은 H.264에서 사용되는 움직임 추정 기법으로 탐색 영역 전반에 탐색 점들을 배치하는 탐색 패턴들을 사용하여 움직임 벡터를 추정하므로 영상의 움직임이 크거나 영상의 움직임이 불규칙한 영상에서 움직임 수행을 잘 수행한다. 움직임 추정 기법들[13-22]은 단일 시점 영상에서 사용되는 움직임 추정 기법들로 다시점 영상에서 탐색 패턴의 일부로 사용될 수 있다. 다시점 비디오를 위한 움직임 추정 기법으로는 JMVC 참조 모델의 PBS(Pel Block Search)와 TZ이다[20]. PBS는 최적의 움직임 벡터를 찾을 수 있는 기법이지만 많은 계산량을 요구한다. PBS의 계산량을 줄이기 위한 움직임 추정기법에는 TZ과 TZ의 초기 탐색 패턴의 모양을 육각형 탐색 패턴으로 수정한 기법[21] 그리고 움직임 추정을 초기에 종료하기 위하여 임계치를 사용한 기법[22]등이 있다.

본 논문에서는 다시점 비디오 부호화의 계산량을 줄이기 위하여 움직임 추정 기법을 제안하고 영상 화질 향상을 위하여 시간적 예측 구조를 제안한다. 제안한 움직임 추정 기법은 계층적 움직임 추정 기법으로 초기 탐색 패턴, 작은 다이아몬드 탐색[16,17], 수정된 래스터 탐색 패턴[23] 그리고 2-gird 사각형 탐색 패턴으로 이루어져 있다. 본 논문에서 제안된 움직임 추정 기법은 국부적 최소화 문제를 해결하기 위하여 탐색 영역 내에 탐색 점들을 규칙적, 대칭적으로 배치하고 대각선 방향보다는 수직 또는 수평 방향으로 블록의 움직임이 많다는 사실을 이용하여 탐색 점들을 배치한다. 그리고 블록 움직임의 크기에 따라 적응적으로 탐색 패턴을 사용함으로써 움직임 추정 계산량을 감소시킨다. 그리고 계층적 B(Bi-directional prediction) 화면 구조에서 B계층의 최대 인덱스와 각 B계층의 화면 수를 고려한 제안한 시간적 예측 구조는 B계층의 최대 인덱스와 B계층의 최대 인덱스의 화면수를 줄임으로 영상의 화질을 높였다.

본 논문의 구성은 다음과 같다. 2장에서는 JMVC의 와 고속 움직임 추정 기법인 TZ에 대하여 설명하고, 3장에서는 본 논문에서 제안한 예측 구조와 움직임 추정 기법을 기술한다. 그리고 4장에서는 제안한 예측 구조와 움직임 추정 기법의 성능을 비교한 후, 마지막으로 5장에서는 결론을 맺는다.

 

2. JMVC의 참조 예측 구조와 고속 움직임 추정 기법

2.1 JMVC의 참조 예측 구조

다시점 비디오 부호화를 위하여 Fig. 1의 JMVC 참조 예측 구조인 계층적 B화면 구조를 사용한다[24-26].

Fig. 1Hierarchical B pictures of JMVC Reference Prediction Structure.

Fig. 1에서 Sn은 n번째 시점의 카메라를 의미하고 Tm은 시간적으로 m번째 화면을 나타낸다. 화살표는 이웃하는 화면들 사이의 참조 관계를 나타낸다. 다른 시점과 상관없이 독립적으로 복원할 수 있는 시점을 I 시점, 부호화가 완료된 하나의 시점만을 참조하여 예측 부호화하는 시점을 P시점 그리고 인접해 있는 두 개의 시점을 참조하여 예측 부호화하는 시점을 B시점이라고 한다. Fig. 1의 S0은 I시점 그리고 S2, S4, S6, S7들은 P시점 그리고 S1, S3, S5들은 B시점이다. Fig. 1의 참조 예측 구조는 시간 예측을 위하여 계층적 B구조(hierarchical B picture structure)를 사용하며, S0~S7시점에서 각 GOP의 첫 화면인 T0과 T12는 앵커(anchor) 화면들로 시간적 임의접근과 에러 전파 방지를 위하여 사용된다.

2.2 JMVC의 고속 움직임 추정 기법

JMVC의 움직임 추정 기법은 PBS와 TZ 탐색 기법이다. PBS는 전역 탐색 기법으로 움직임 벡터를 추정하기 위하여 현재 프레임의 기준 블록과 참조 프레임의 탐색 영역내에 있는 후보 블록들을 비교한 후 최소 정합 오차를 가진 블록의 위치를 움직임 벡터롤 추정한다. PBS는 탐색 영역 내에서 가정 적합한 움직임 벡터를 찾을 수 있지만 많은 계산량을 요구하므로 실시간 비디오 코딩 응용 분야 및 소프트웨어 구현에 많은 어려움을 가지고 있다. PBS의 계산량을 줄이기 위해 제안된 움직임 추정 기법이 TZ이다. TZ의 탐색 패턴들은 Fig. 2와 같고 다음과 같은 알고리즘을 수행하여 움직임 벡터를 추정한다.

Fig. 2.Search patterns of TZ.

[단계1] : 움직임 벡터 예측(Motion Vector Prediction)

탐색 시작점을 결정하기 위하여 메디안 예측, 상위 모드를 이용한 예측, 이전 화면의 대응 블록을 이용한 예측, 이웃한 참조 화면을 이용한 예측들을 사용한다.

[단계2] : 초기 그리드 탐색 (Initial Grid search)

초기 탐색 시작점을 탐색의 원점으로 초기 그리드 탐색 패턴을 사용한다. 초기 그리드 탐색 패턴 stride length의 범위는 1, 2, 4, 8, 16, 32, 64이다. Stride length는 초기 그리드 탐색 패턴에서 탐색 원점(0,0)과 탐색 점들과의 거리를 의미한다. Fig. 2(a)는 최대 stride length가 16인 초기 그리드 탐색 패턴이다. 탐색 영역 내에 Fig. 2(a)와 같이 탐색 점들을 배치한다. 이 탐색 점들 중 최소 비용함수 값을 가지는 점이 [단계2]의 최적 탐색점이다. 현재 블록과 참조 블록의 유사성을 측정하기 위한 블록 정합 기준으로 평균 제곱 오차, 평균 절대 오차, 절대값의 합 등이 사용된다. 탐색 영역 내에서 블록 정합 기준의 값이 가장 작을 때의 값을 최소 비용 함수 값이라 한다. 즉, 최소 비용 함수 값을 갖는 점의 위치가 현재 블록과 가장 유사한 블록의 위치이고 이를 움직임 벡터로 추정한다.

[단계3] : 초기 탐색 시작점과 [단계 2]의 최적 탐색점 사이의 거리(uiBestDistance)를 구한다. uiBestDistance가 0이면 초기 탐색 시작점을 움직임 벡터로 추정하고 움직임 추정을 종료한다. 만약 uiBestDistance가 래스터 탐색의 iRaster (stride length) 보다 크면 [단계4]를 수행하고 그렇지 않으면 [단계5]를 수행한다.

[단계4] : 래스터 탐색 (Raster search) - 현재 블록의 움직임이 크면 수행되는 탐색으로 Fig. 2(b)는 raster length가 3인 래스터 탐색 패턴이다. Fig. 2(b)와 같이 탐색 영역 내에 탐색 점들을 배치한다. 탐색점들 중 최소 비용 함수 값을 가지는 점이 [단계4]의 최적 탐색점이다.

[단계5] : 정교한 탐색 (Refinement search) - 탐색 시작점을 변경한 후 [단계2]의 초기 그리드 탐색을 수행한다. 탐색 점들 중 최소 비용 함수 값을 가지는 점이 [단계5]의 최적 탐색점이다. 그리고 변경된 탐색 시작점과 [단계 5]의 최적 탐색점 사이의 거리(uiBestDistance)를 구한다. uiBestDistance가 0이면 [단계5]의 최적 탐색점을 움직임 벡터로 추정하고 움직임 추정을 종료한다. 그렇지 않으면 [단계5]를 반복 수행한다.

 

3. 제안한 시간적 예측 구조와 움직임 추정 기법

3.1 제안한 시간적 예측 구조

다시점 비디오 부호화 효율을 높이기 위하여 본 논문에서 제안하는 시간적 예측 구조는 B계층의 최대 인덱스와 Bi계층의 화면수를 고려하였다. Bi에서 i를 인덱스라 정의한다.

Fig. 3의 예측 구조들을 사용하여 길이가 12인 GOP를 분할 할 때 생성되는 각 Bi계층의 화면수와 B화면의 최대 인덱스 수는 Table 1에 제시한다. 각 Bi계층의 화면수와 B화면의 최대 인덱스 수는 영상 화질과 발생 비트량에 영향을 준다. Fig. 3에서 다른 화면과 상관없이 독립적으로 복원할 수 있는 화면을 I화면, 부호화가 완료된 하나의 화면만을 참조하여 예측 부호화하는 화면을 P화면 그리고 인접해 있는 두 개의 화면을 참조하여 예측 부호화하는 화면을 B화면이라고 한다. 일반적으로 Bi계층에서 B1화면은 부호화가 완료된 I화면 또는 P화면을 이용하여 부호화되고 B2화면은 부호화가 완료된 하나의 B1화면과 I화면 또는 P화면을 이용하여 부호화된다. 그리고 B3화면은 부호화가 완료된 하나의 B2화면과 I화면 또는 P화면 또는 B1화면을 이용하여 부호화된다. 일반적으로 I화면, P화면, B1화면, B2화면 그리고 B3화면 순으로 적용되는 Quantization Parameter (QP)가 커지므로 I화면의 발생 비트량이 가장 많고 B3화면의 발생 비트량이 가장 적다. 그리고 영상 화질면에 있어서 I화면의 화질이 가장 좋고 B3화면의 가장 좋지 않다.

Fig. 3.Group Of Pictures and the number of Bi Picture.

Table 1.the number of pictures of each B layer

일반적으로 B화면의 최대 인덱스 수가 작을수록 발생 비트량을 많아지고 영상 화질은 향상된다. 그리고 최대 인덱스의 수가 같은 경우 최대 인덱스의 화면 수가 적을수록 화질은 좋아진다. 그래서 본 논문에서 다시점 비디오의 영상 화질을 향상시키기 위하여 B화면의 최대 인덱스 수를 줄이고 B1화면의 수를 많게 한다. Fig. 4는 제안한 시간적 예측 구조이다. 다시점 비디오 부호화의 발생 비트량과 계산량은 제안된 움직임 추정 기법을 이용하여 감소시킨다.

Fig. 4Proposed Temporal Prediction Structure.

3.2 제안한 움직임 추정 기법

TZ에서 사용하는 초기 그리드 탐색 패턴과 래스터 탐색 패턴은 탐색 영역 전역에 탐색 점들을 배치한 후 최적의 탐색 점을 찾는다. 래스터 탐색 패턴은 그리드 탐색 패턴 수행 후 사용하는 탐색 패턴으로, 이는 초기 그리드 탐색에서 탐색 영역 전역에 탐색 점들을 배치하여 검사할 필요가 없다는 것을 의미한다. 제안한 움직임 추정 기법은 여러 영상들에서 움직임 벡터 분포의 확률을 Table 2에 제시하고 움직임 벡터가 분포할 확률을 이용하여 탐색 패턴을 제안한다. Table 3의 움직임 벡터들을 살펴보면 블록 움직임이 대각선 방향보다는 수평, 수직 방향으로 더 많이 움직인다는 것을 알 수 있다. Table 3에서 각 매크로 블록의 움직임 벡터를 좌표 평면상에 배치하였을 때, 움직임 벡터가 x축, y축 위에 존재하면 블록 움직임이 수평, 수직 방향이고, 움직임 벡터가 (0,0)이면 블록 움직임이 없고, 그 이외의 값을 가지면 블록 움직임이 대각선 방향이다.

Table 2.The Distribution of Motion Vector

Table 3.Motion Vectors in the sequences

Fig. 5(a)의 초기 탐색 패턴은 Table 2과 Table 3에서와 같이 움직임 벡터가 탐색 영역의 중심부분에 많이 분포한다는 사실과 블록의 움직임이 수직 또는 수평으로 많다는 사실을 이용하여 움직임 추정 초기에 탐색 영역의 중심 부분에 탐색 점들을 배치하여 움직임 벡터를 추정한다.

제안한 초기 탐색 패턴은 움직임 추정 초기에 탐색 영역의 원점을 중심으로 4픽셀 이내에 탐색 점들을 배치하여 움직임 벡터를 추정함으로써 움직임이 없는 블록과 움직임이 작은 블록에서 초기에 움직임 추정을 종료할 수 있다. 움직임이 큰 블록에서는 수정된 래스터 탐색 패턴을 사용하여 움직임 벡터를 추정을 수행한다. 그리고 TZ의 정교한 탐색은 uiBestDistance가 0이 될 때까지 초기 그리드 탐색 패턴을 반복 수행하는데, 이 때 불필요한 탐색 점들을 배치하고 검사한다. 이러한 문제점을 해결하기 위하여 제안한 움직임 추정 기법은 Fig. 5(c)와 같은 2-그리드 사각형 탐색 패턴을 사용한다. 제안한 움직임 추정 기법은 블록 움직임의 크기에 따라 적응적으로 탐색 패턴을 사용함으로써 움직임이 없는 블록이나 움직임이 작은 블록에서 초기에 움직임 추정을 종료함으로써 움직임 추정 계산량을 감소시킨다. 그리고 제안한 움직임 추정 기법은 다음과 같은 알고리즘을 수행하여 움직임 벡터를 추정한다.

Fig. 5.Search patterns of proposed methods. (a) Initial search pattern, (b) Small Diamond search pattern, (c) 2-grid Square search pattern. (d) Raster search.

[단계1] 움직임 벡터 예측(Motion Vector Prediction)

초기 탐색 시작점을 결정하기 위하여 메디안 예측, 상위 모드를 이용한 예측, 이전 화면의 대응 블록을 이용한 예측, 이웃한 참조 화면을 이용한 예측들을 사용한다.

[단계2] 초기 탐색 (Initial Search) : Fig. 5(a)의 초기 탐색 패턴을 이용하여 초기 탐색 시작점 주위에 탐색 점들을 배치한다. 탐색 점들 중 최소 비용 함수 값을 가지는 점이 [단계2]의 최적 탐색점이다.

[단계3] 초기 탐색 시작점과 [단계 2]의 최적 탐색 점 사이의 거리(uiBestDistance)를 구한다. uiBestDistance가 2이하인 경우 [단계2]의 최적 탐색 점을 움직임 벡터로 추정하고 움직임 추정을 종료한다. 만약 uiBestDistance가 6이상이면 [단계5]를 수행하고 그렇지 않으면 [단계4]를 수행한다.

[단계4] 작은 다이아몬드 탐색 (Small Diamond search) : 탐색 시작점을 변경한 후 Fig. 5(b)처럼 노란색 탐색 점들을 배치하여 작은 다이아몬드 탐색을 수행한다. 탐색 점들 중 최소 비용 함수 값을 가지는 점을 움직임 벡터로 추정하고 움직임 추정을 종료한다.

[단계5] 래스터 탐색 (Raster search) : Fig. 5(d)와 같은 방법으로 탐색 영역 내에 탐색 점들을 배치하여 래스터 탐색을 수행한다. 탐색 점들 중 최소 비용 함수 값을 가지는 점이 [단계5]의 최적 탐색점다.

[단계6] 2-그리드 사각형 탐색 : 탐색 시작점을 변경한 후 2-그리드 사각형 탐색을 수행한다. 탐색 점들 중 최소 비용 함수 값을 가지는 점을 움직임 벡터로 추정하고 움직임 추정을 종료한다.

 

4. 실험 결과

JMVM 6.0에서 제안한 예측 구조와 제안한 기법을 구현하였다. 실험 영상으로 Exit, Ballroom와 Uli를 사용하였다. 실험 조건은 Table 4에 제시한다[24-27]. 그리고 제안 기법의 성능을 BDPSNR (Bjontegaard Delta PSNR) 및 BDBR (Bjontegaard Delta Bitrate)와 TS (Time Saving of Encoding Time) 제시한다.

Table 4.Experiment Conditions

Exit영상 (QP : 37)일 때, Fig. 3의 (a), (b) 그리고 (c)의 구조들과 제안한 시간적 예측 구조의 영상 화질과 발생 비트량을 Table 5에 제시한다. Table 5의 결과로 B화면의 최대 인덱스가 작을수록 발생 비트량이 많아지고 영상 화질이 향상되며 최대 인덱스의 수가 같은 경우 최대 인덱스의 화면 수가 적을수록 화질이 좋아짐을 알 수 있다. 제안한 예측 구조가 다른 구조에 비해 B1화면의 수가 많고 최대 인덱스 수가 적으므로 화질은 향상되고 발생 비트량은 다른 예측 구조들에 비해 많다.

Table 5.image quality and bitrates of the structures in Fig. 3

본 논문에서 제안한 예측 구조 성능과 참조 예측 구조의 성능을 Table 6에 제시한다. 제안한 예측 구조가 참조 예측 구조보다 영상 화질 면에서 0.07(dB)~0.27(dB) 성능 향상을 보이고 비트량에 있어서 1.2%~6.1%의 감소한다. 제안한 움직임 추정 기법의 성능을 Table 7와 Table 8에 제시한다. 제안한 움직임 추정 기법은 TZ보다 영상 화질 면에서 0.02(dB)~0.15(dB) 화질 저하를 보이고 비트량에 있어서 0.5%~7.6%의 증가하지만 부호화 계산량을 약 46%~72%을 감소시킨다.

Table 6.Simulation Results : BDPSNR and BDBR

Table 7.Simulation Results : BDPSNR and BDBR

Table 8.Comparison values of total encoding time

제안한 예측 구조와 제안한 움직임 추정 기법을 함께 구현하였을 때의 성능과 참조 예측 구조와 TZ을 함께 구현하였을 때의 성능을 Table 9와 Table10에 제시한다. 움직임이 작은 Uli영상에서 제안한 예측 구조와 제안한 움직임 추정 기법을 함께 구현할 때의 성능이 참조 예측 구조와 TZ을 함께 구현할 때의 성능보다 영상 화질 면에서 0.148(dB) 성능 향상을 보이고 비트량에 있어서 3.77%의 감소를 보이며 부호화 시간을 69%~71% 감소시킨다. 그리고 Exit와 Ballroom영상에서 제안한 예측 구조와 제안한 움직임 추정 기법을 함께 구현할 때의 성능이 참조 예측 구조와 TZ을 함께 구현할 때의 성능보다 영상 화질 면에서 0.09(dB)~0.11(dB) 성능 저하를 보이고 비트량에 있어서 2.9%~4.07%의 증가를 보이며 부호화 시간을 약44%~46% 줄인다.

Table 9.Simulation Results: BDPSNR and BDBR

Table 10.Comparison values of total encoding time

 

5. 결 론

본 논문에서는 다시점 비디오 부호화의 계산량을 줄이면서 영상 화질을 유지하는 예측 구조와 움직임 추정 기법을 제안한다. 다시점 비디오의 영상 화질 향상과 발생 비트량 감소를 위해 제안한 예측 구조는 B계층 최대 인덱스 그리고 각 Bi계층의 화면 수를 고려한다. 그리고 다시점 부호화의 계산량을 줄이면서 화질을 유지하기 위한 제안한 움직임 추정 기법은 움직임 벡터의 분포 특성과 블록의 움직임 방향을 이용하여 탐색 점들을 탐색 영역에 배치하고 움직임 추정 시 사용되는 탐색 패턴을 적응적으로 선택한다.

제안한 예측 구조와 움직임 추정 기법의 성능을 참조 예측 구조와 TZ 움직임 추정 기법을 사용한 JMVC 참조 모델의 성능과 비교한 경우, 영상 화질과 발생 비트량은 비슷하지만 다시점 비디오 부호화에 소요되는 시간을 45% ~70% 감소시킴으로 다시점 비디오 부호화의 계산량을 줄인다.

References

  1. A. Smolic, K. Mueller, P. Merkle, C. Fehn, P. kauff, P. Eisert, et al., “3D Video and Free Viewpoint Video-Technologies, Applications and MPEG Standards,” Proceeding of IEEE International Conference on Multimedia and Exposition, pp.2161-2164, 2006
  2. ITU-T Rec. & ISO/IEC 14496-10 AVC, Advanced Video Coding for Generic Audio Visual Services, 2005.
  3. ISO/IEC JTC1/SC29/WG11 N10357, Vision on 3D Video, 2009.
  4. A. Vetro, P. Pandic, H. Kimata, A. Smolic, and Y. Wang, Joint Multi-view Video Model(JMVM ) 8.0, Joint Video Team of ISO/IEC JTC21/SC29/WG11 and ITU-T SG16 Q.6, JVT-AA207, 2008.
  5. P. Merkle, K. Muller, A. Smolic, and T. Wiegand, “Efficient Compression of Multiview Video Exploiting Inter-view Dependencies based on H.264/MPEG4-AVC,” Proceeding of IEEE International Conference on Multimedia and Exposition, pp.1461-1473, 2006.
  6. P. Merkle, A. Smolic, K. Muller, and T. Wiegand, “Efficient Prediction Structures for Multiview Video Coding,” IEEE Transactions on Circuits and Systems for Video Technology, Vol. 17, No. 11, pp. 1461-1473, 2007. https://doi.org/10.1109/TCSVT.2007.903665
  7. ISO/IEC JTC1/SC29/WG11, Joint Multiview Video Model (JMVM ) 8, 2008.
  8. B. Zatt, M. Shafique, S. Bampi, and J. Henkel, “A Multi-Level Dynamic Complexity Reduction Scheme for Multiview Video Coding,” IEEE International Conference on Image Processing, pp. 761-764, 2011.
  9. P.K. Park, K.J. Oh, and Y.S. Ho, “Efficient View-temporal Prediction Structures for Multiview Video Coding,” Electronics Letters, Vol. 44, No. 2, pp. 102-103, 2008. https://doi.org/10.1049/el:20082082
  10. R.L. He, “A Multiview Video Coding Method with Adaptive Selection of Reference Frame Modes,” Journal of Computer-aided Design And Computer Graphics, Vol. 30, No. 12, pp. 2205-2211, 2007.
  11. F. Lu, P. An, Z. Zhang, and L. Shen, “Multiview Video Coding Based on Sequence Correlation,” International Conference on Audio Language and Image Processing, pp. 1227-1232, 2010
  12. Z. Chen, P. Zhou, and Y. He, “Fast Integer Pel and Fractional Pel Motion Estimation For JVT,” Proceeding of the 6th meeting on Joint Video Team of ISO/ IEC MPEG & ITU-T VCEG, 2002.
  13. T. Koga, K. Iinuma, A. Hirano, and Y. Ishiguro, “Motion Compensated Interframe Coding for Video Conference,” Proceeding of National Telecommunications Conference, pp. G5.3.1-5.3.5, 1981.
  14. R. Li, B. Zeng, and M.L. Liou, “A New Three Step Search Algorithm for Block Motion Estimation,” IEEE Transactions on Circuits and System for Video Technology, Vol. 4, No. 4, pp. 438-442, 1994. https://doi.org/10.1109/76.313138
  15. L.M. Po and W.C. Ma, “A Novel Four Search Algorithm for Block Motion Estimation,” IEEE Transactions on Circuit and Systems for Video Technology, Vol. 6, No 3, pp. 313-317, 1996. https://doi.org/10.1109/76.499840
  16. J.Y. Tham, S. Ranganath, and A.A. Kassim, “A Novel Unretricted Center-Biased Diamond Search Algorithm for Block Motion Estimation,” IEEE Transactions on Circuits and Systems for Video Technology, Vol. 8, No. 4, pp. 369-377, 1998. https://doi.org/10.1109/76.709403
  17. S. Zhu and K.K. Ma “A New Diamond Search Algorithm for Fast Block Matching Motion,” IEEE Transaction on Image Processing, Vol. 9, No. 2, pp. 287-290, 2000. https://doi.org/10.1109/83.821744
  18. Z. Chen, J. Xu, Y. He, and J. Zheng, “Fast Integer Pel and Fractional-pel Motion Estimation for H.264/AVC,” Journal of Visual Communication and Image Representation, Vol. 17, No. 2, pp. 264-290, 2006. https://doi.org/10.1016/j.jvcir.2004.12.002
  19. Yoon Hyo Sun, “Efficient Integer pel and Fractional pel motion estimation on H.264/AVC”, KIPS, Vol. 16B, No. 2, pp.123-130, 2009.
  20. X.L. Tang, S.K. Oat, and C.H. Cat, “An Analysis of TZ Search Algorithm in JMVC,” International Conference on Green Circuits and Systems(ICGCS), pp. 516-520, 2010.
  21. N. Purnachand, L.N. Alves, and A. Navarro, “Improvements to TZ Search Motion Estimation Algorithm for Multiview Video Coding,” Proceeding of International Conference on Systems, Signals and Image Processing, pp. 388-391, 2012.
  22. P. Zhang, G. Jiang, S. Yang, and L. Jia, “An Adaptive Early Termination Algorithm for Motion Estimation in Multi-view Video Coding,” International Congress on Image and Signal Processing (CISP ), pp. 72-75, 2013.
  23. H. Yoon and M. Kim, “An Effective Early Termination Motion Estimation Method for Multi-view Video Coing,” Journal of Korea Multimedia Society, Vol. 17, No. 3, pp. 333-341, 2014. https://doi.org/10.9717/kmms.2014.17.3.333
  24. ISO/IEC JTC1/SC29/WG11, Requirements on Multiview Video Coding v.4, 2005.
  25. ISO/IEC JTC1/SC29/WG11, Call for Proposal on Multi-view Video Coding N7327, 2005.
  26. J. Daase, U. Goelz, P. Kauff, K. Mueller, O. Schreer, A. Smolic, et al., Fraunhofer HHI Test Data Sets for MVC, ISO/IEC JTC1/SG29/WG11, Document MPEG2005/M11894, 2005.
  27. A. Vetro, M. McGuire, W. Matusik, A. Behrens, J. Lee and H. Pfister, Multiview Video Test Sequences from MERL, ISO/IEC JTC1/SG29/ WG11, Document MPEG 200/M12077, 2005.