DOI QR코드

DOI QR Code

Traversable Region Detection Algorithm using Lane Information and Texture Analysis

차로 수 정보와 텍스쳐 분석을 활용한 주행가능영역 검출 알고리즘

  • Hwang, Sung Soo (School of Computer Science and Electronic Engineering, Handong Global University) ;
  • Kim, Do Hyun (School of Computer Science and Electronic Engineering, Handong Global University)
  • Received : 2016.01.18
  • Accepted : 2016.04.25
  • Published : 2016.06.30

Abstract

Traversable region detection is an essential step for advanced driver assistance systems and self-driving car systems, and it has been conducted by detecting lanes from input images. The performance can be unreliable, however, when the light condition is poor or there exist no lanes on the roads. To solve this problem, this paper proposes an algorithm which utilizes the information about the number of lanes and texture analysis. The proposed algorithm first specifies road region candidates by utilizing the number of lanes information. Among road region candidates, the road region is determined as the region in which texture is homogeneous and texture discontinuities occur around its boundaries. Traversable region is finally detected by dividing the estimated road region with the number of lanes information. This paper combines the proposed algorithm with a lane detection-based method to construct a system, and simulation results show that the system detects traversable region even on the road with poor light conditions or no lanes.

Keywords

Traversable Region Detection;Number of Lanes;Texture Analysis;Histogram Matching

서 론

최근 운전 보조 장치(Advanced Driver Assistance Systems: ADAS) 및 자율 주행 자동차에 대한 관심이 높아지고 있다. ADAS는 운전자의 부주의로 인한 교통사고를 예방하고 운전의 편의성을 높이기 위한 시스템으로서, ADAS의 예로는 적응형 크루즈 컨트롤, 전방 추돌 경보 시스템, 차선 변경 보조 시스템, 그리고 사각 지역 검출 시스템 등이 있다. 자율 주행 자동차는 ADAS보다 더욱 진보되어 운전자의 개입 없이 스스로 주행하는 자동차를 의미하며, 자율 주행 자동차 개발을 위해 여러 자동차 기업 뿐 아니라 구글 등의 IT업계에서 많은 연구가 이루어지고 있다.

기존에 제안된 대부분의 ADAS 및 자율 주행 자동차 시스템은 주행가능영역 검출이 선행되어야 한다. 주행가능영역이란 주행 중인 차량이 다른 차량에 피해를 주지 않으며 주행할 수 있는 영역을 의미한다. 대부분의 도로의 경우 Fig. 1(a)와 같이 주행가능영역이 차선으로 표시되어 있으므로 기존에 제안된 주행가능영역 검출 기법들은 차선 검출을 통해 주행가능영역을 검출하였다[1-11]. 그러나 기존에 제안된 기법들은 Fig. 1(b)와 같이 날씨 및 조명의 영향으로 차선 식별이 어려운 경우에 그 성능이 저하될 수 있다. Fig. 1(c)와 같이 차선이 지형지물에 가려진 경우, Fig. 1(d)와 같이 차선이 존재하지 않는 경우에 있어서도 차선 검출에 기반을 둔 방식은 주행가능영역을 검출하기 어렵다. ADAS 및 자율 주행 자동차의 신뢰도 및 안정성을 높이기 위해서는 다양한 환경에서 주행가능영역 검출이 가능하여야 하므로 다른 방식의 주행가능영역 검출 기법의 개발이 필요하다.

Fig. 1.Several road examples (a)A road example with clear lanes (b)A road example with bad illumination condition (c)A road example with occluded lanes (d)A road example with no lanes.

본 논문에서는 차로 수 정보와 텍스쳐 분석을 통하여 주행가능영역을 검출하는 알고리즘을 제안한다. 최근 카메라뿐만 아니라 Global Positioning System(GPS)기기 또한 차량에 설치하는 사례가 증가하고 있다. 그 이유는 GPS기기를 통해 차량의 위치 및 차량의 속도를 계산할 수 있으므로 사고 처리 등에 있어 유용하게 활용할 수 있기 때문이다. GPS기기를 통해 차량의 위치를 확인하면 전자지도 데이터로부터 현재 차량이 주행 중인 도로의 차로 수 정보를 획득할 수 있다. 이렇게 획득한 차로 수 정보는 도로영역 검출에 활용될 수 있다. 입력 영상 내 텍스쳐의 불연속성을 검출하는 과정을 통해서도 도로영역 검출이 가능한데, 그 이유는 입력 영상 내 도로영역과 비도로영역의 텍스쳐는 서로 다르기 때문이다. 제안 알고리즘은 차로 수 정보와 텍스쳐 분석을 통해 입력 영상 내 도로 영역을 검출하고, 그 후 차로 수 정보에 기반을 두어 분할함으로써 주행가능영역을 검출한다. 제안 알고리즘은 차선의 손상이 있거나 차선이 없는 도로에 있어서도 주행가능영역을 검출할 수 있는 장점이 있어 기존에 제안된 차선 검출 기반 기법에 비해 다양한 환경에서 활용이 가능하다.

본 논문의 구성은 다음과 같다. 2장에서는 기존에 제안된 주행가능영역 검출 기법에 대해서 설명한다. 3장에서는 제안하는 알고리즘에 대해서 설명한다. 4장에서는 제안하는 알고리즘을 차선 검출 기반 알고리즘과 결합한 주행가능 검출 시스템에 대해서 설명한다. 5장에서는 실험 결과를 나타내고, 마지막으로 6장에서 결론을 맺는다.

 

2. 관련 연구

기존에 제안된 주행가능영역 검출 기법들은 차선 검출을 통해 주행가능영역을 검출하였다. 차선 검출을 위해서는 차선의 색이 황색 혹은 흰색이며, 도로의 색상과 큰 대비를 가진다는 특성을 활용하는 기법이 제안되었다 [1-4]. 색상 정보의 활용을 위해서는 입력 영상을 Hue-Saturation-Value(HSV) 모델로 변환한 후 채도 성분과 명도 성분을 이용하는 기법이 제안되었다[1]. 황색 차선의 강조를 위해 영상을 흑백레벨로 변환한 후 기존 픽셀에 대해 흑백레벨과 더하는 기법 또한 제안되었다[2]. 색 대비 정보를 활용한 차선 검출로는 영상 전체의 그라디언트(Gradient) 분포 특성을 이용하여 차선을 검출하는 기법 및 국소 영역 내 그라디언트 특성을 이용하여 차선을 검출하는 방법이 제안되었다[3,4].

도로영역 내 에지 검출을 먼저 수행한 후 모델링을 통해 차선 검출을 수행하는 기법들도 제안되었다. 참고문헌 [5]에서는 영상을 블록화 하여 잡음을 포함한 블록들을 먼저 제거하고, 남은 블록들을 활용하여 차선에 대한 스네이크(Snake) 모델링을 수행하는 기법을 제안하였다. 스네이크 모델링 이외에도 비스플라인(B-spline) 모델 및 쌍곡선 모델을 활용하여 차선을 검출하는 기법들이 제안되었다[6,7]. 허프 변환을 활용한 차선 검출기법도 제안되었으며[8], 보다 정확한 차선 검출을 위해서 감마값 자동조절을 통해 영상의 화질을 개선하는 기법도 함께 제안되었다.

그 외에도 전방 영상을 탑뷰(Top-view)로 변환하여 탑뷰 영상에서 차선을 검출하는 방법, 강인한 에지 검출을 위해 국소 영역별로 에지 검출을 수행하여 차선을 검출하는 방법이 제안되었다[9,10]. 차선 영역을 추출한 후 거리에 따른 계산과 트래킹 필터(tracking filter)를 이용하여 직선에 대해 예측하여 차선을 검출하는 방법도 제안되었다[11]. 이러한 기존 기법 모두 차선이 존재할 경우에만 사용이 가능하며, 차선이 크게 훼손되었거나, 조명 상황이 나쁠 경우 차선 검출이 용이하지 않아 신뢰도가 떨어지는 문제를 가지고 있다.

 

3. 제안 알고리즘

3.1 제안 알고리즘의 개요

Fig. 2는 본 논문에서 제안하는 알고리즘의 개요를 나타낸다. 제안 알고리즘은 차량이 현재 주행 중인 도로의 차로 수 정보 및 차량 전방 영상을 활용하여 도로영역 및 주행가능영역을 검출한다. 본 논문에서는 주행가능영역을 주행 중인 차량이 다른 차량에 피해를 주지 않으며 주행할 수 있는 영역으로 정의한다. 도로영역은 차량의 진행 방향과 동일한 방향으로 주행이 가능한 영역으로 정의한다. 먼저 차로 수 정보를 통해 도로영역 후보를 생성한다. 그 후 입력 영상의 텍스쳐 분석을 통해 도로영역 후보 중 하나의 후보를 도로영역으로 선정한다. 마지막으로 검출된 도로영역을 차로 수 정보를 통해 분할함으로써 주행가능영역을 검출한다. 이러한 방식의 주행가능영역 검출은 차선 검출을 필요로 하지 않기 때문에, 차선이 훼손되거나 차선이 없는 도로에도 적용할 수 있다.

Fig. 2The overview of the proposed algorithm.

3.2 차로 수 정보를 활용한 도로영역 후보 생성

Fig. 3(a)와 (b), 그리고 (c)는 각각 차량이 편도 2차선 도로에서 주행하고 있을 때, 편도 4차선 도로에서 2차로에서 주행하고 있을 때, 그리고 편도 4차선 도로에서 3차로로 주행하고 있을 때의 촬영한 영상과 이에 해당하는 도로영역을 나타낸다. Fig. 3 (a)와 (b)에서 확인할 수 있듯이 주행 중인 도로의 차로 수에 따라 입력 영상 내 도로영역이 매우 다르게 존재한다. 동일한 차로 수의 도로라도 주행하고 있는 차로에 따라 도로영역의 형태가 다를 수 있는데, 이는 Fig. 3 (b)와 (c)에서 확인할 수 있다. 차량이 올바르게 주행 중인 상황과 좌, 우로 치우쳐서 주행하고 있는 상황의 경우에 있어서도 영상 내 도로영역의 위치가 다를 수 있다. 이러한 특징을 고려하여 제안 알고리즘은 차로 수 정보 및 차량의 주행상황을 고려하여 다양한 형태 및 개수의 도로영역 후보를 생성한다. 예를 들어 주행 중인 도로가 2차로 도로의 경우, 1차로에서 주행 중인 경우와 2차로에서 주행 중인 경우로의 도로영역 후보가 생성되며, 각 차로별 차량이 좌, 우로 치우쳐서 주행하는 경우를 고려하여 총 6개의 도로영역 후보가 생성된다.

Fig. 3.Road images when a car is driving at different roads and lanes. (a) A road image when a car is driving on roads with two lanes (b)A road image when a car is driving on the second lane of the roads with four lanes (c) A road image when a car is driving on the third lane of the roads with four lanes (d)Coordinates of points to generate road region candidates (e) shape of road region candidates according to the number of lanes with no leaning.

도로영역 후보를 생성하기 위해서 먼저 입력영상내 관심영역을 설정하였다. 본 논문에서는 카메라의 탑재 위치를 고려하여 관심 영역을 설정하였고, 차량보닛 영역과 대기 영역을 포함하지 않도록 설정하였다. 관심영역을 설정한 후에는, Fig. 3 (d)와 같이 도로영역 설정에 사용되는 좌표들을 실험을 통해 설정하였다. 각각의 좌표를 Fig. 3 (d)의 P0와 연결하면 하나의 직선을 생성할 수 있으며, 각각의 도로영역 후보는 이러한 방식으로 생성된 두 직선이 구성하는 영역으로 정의된다. Table 1은 주행 중인 도로의 차로 수 및 차량이 주행 중인 차로, 그리고 차량의 치우침에 따른 도로영역 후보 생성에 사용되는 두 직선을 나타내며, Fig. 3(e)는 차량이 치우침 없이 주행하는 상황에서 차로별로 생성되는 도로영역 후보의 형태를 나타낸다.

Table 1.Points in Fig. 3(d) to generate road region candidates for various cases

3.3 텍스쳐 분석을 통한 도로영역 검출 및 주행가능영역 검출

도로영역 후보를 생성한 후에는, 텍스쳐 분석을 통해 후보들 중에서 도로영역을 선정한다. Fig. 4(a)에서 확인할 수 있듯이 도로영역의 내부는 유사한 텍스쳐가 반복적으로 존재하고 도로영역과 비도로영역의 텍스쳐는 서로 다르다. 따라서 각 도로영역 후보가 규정하는 도로영역과 비도로영역 간의 텍스쳐를 비교하여 텍스쳐 유사도가 가장 낮게 측정되는 후보를 도로영역으로 선정한다.

Fig. 4.Region selection for texture analysis. (a) Input image (b) Region-Of-Interest setting and region selection. Yellow rectangle represents definite road region, blue rectangle represents a sample inside road region, red rectangle represents a sample outside road region.

도로영역 검출을 위한 텍스쳐 분석은 다음과 같이 이루어진다. 먼저 각 해당 도로영역 후보가 규정하는 도로영역과 비도로영역의 일부를 설정한다. 이를 위해 각 도로영역 후보의 오른쪽 경계를 활용한다. 오른쪽 경계를 활용하는 이유는 도로영역 후보의 왼쪽 경계의 경우 반대편 차로가 존재하여 텍스쳐 분석이 원활이 이루어지지 않을 가능성이 있기 때문이다. Fig. 4(b)는 Fig. 4 (a)로부터 관심영역을 추출한 영상이며, Fig. 4(b)내의 녹색 직선은 도로영역 후보의 오른쪽 경계를 나타낸다. 이러한 경계선의 중점과 관심영역의 정중앙 하단점인 Q1를 꼭지점으로 하는 사각형을 정의할 수 있으며, 해당 사각형 내부를 도로영역으로 설정한다. 이와 유사한 방법으로 도로영역 후보의 오른쪽 경계선의 중점과, 관심영역의 우상단에 해당하는 Q2를 꼭지점으로 하는 사각형을 정의하여 해당 사각형 내부를 비도로영역으로 설정한다. Fig. 4 (b)내부의 청색 사각형과 적색 사각형은 각각 이러한 과정을 통해 설정된 도로영역과 비도로영역을 나타낸다. 제안 알고리즘은 또한 항상 도로영역이라고 추정할 수 있는 영역을 설정한다. 본 논문에서는 이러한 영역을 명백한 도로영역으로 명명하며, 주행 차량이 앞 차량과의 최소한의 거리를 유지한다고 가정하여 영상 중하단의 영역을 명백한 도로 영역으로 설정한다.

각 도로영역 후보 별로 도로영역, 비도로영역, 명백한 도로영역을 설정한 후에는 각 영역 간 텍스쳐의 유사도를 히스토그램 매칭을 통해 계산한다. 명백한 도로 영역의 히스토그램을 Hd, 도로영역의 히스토그램을 Hinside라고 하였을 때, 두 영역간의 텍스쳐 유사도는 수식 (1)과 같이 계산된다.

Hd(i)은 Hd의 i번째 bin의 원소수를 의미한다. 유사한 방식으로 도로영역과 비도로영역간의 텍스쳐를 계산하며, 비도로영역의 히스토그램을 Houtside라고 하였을 때 수식 (2)을 활용하여 도로영역과 비도로영역간의 텍스쳐 유사도를 계산한다.

임의의 도로영역 후보가 도로영역으로 결정되기 위해서는 해당 도로영역 후보를 통해 규정된 명백한 도로영역과 도로영역간의 유사도는 높아야하며, 도로영역과 비도로영역간의 유사도는 낮아야 한다. 즉, 올바른 도로영역 후보의 경우 Sim(Hd,Hinside)값이 크고, Sim(Houtside,Hinside)값이 작아야 하며, 각 도로영역 후보의 신뢰도는 수식 (3)과 같이 계산된다.

수식 (3)을 통해 계산되는 신뢰도는 0에서 1사이의 값을 가지게 된다. 제안 알고리즘에서는 각 도로영역 후보의 신뢰도를 계산하고, 가장 신뢰도가 높은 도로영역 후보를 선정하여 영상 내 도로영역을 검출한다.

도로영역이 검출되면, 차로 수 정보를 활용하여 주행가능영역을 검출한다. 제안 알고리즘에서는 각 차로별로 도로영역 후보를 설정하고, 설정된 후보 중 도로영역의 특성을 가장 잘 만족시키는 후보를 도로영역으로 검출하였다. 이를 토대로 차량이 주행 중인 차로를 추정할 수 있으며, 추정된 차로 정보와 차로수 정보를 통해 도로영역을 분할함으로서 주행가능 영역을 검출하였다.

 

4. 제안 알고리즘을 활용한 주행가능영역 검출 시스템

도로수 정보 및 텍스쳐 분석을 통한 주행가능영역 검출은 차선이 훼손되었거나 존재하지 않는 도로에서 주행가능영역을 검출할 수 있지만, 차량이 주행하는 도로에서 차선 검출이 가능할 경우에는 이를 통해서도 주행가능영역을 검출할 수 있다. 본 논문에서는 텍스쳐 분석 기반 기법과 차선 검출 기반 기법을 결합하여 다양한 환경에서 주행가능영역 검출을 적은 계산량으로 수행하였다.

Fig. 5는 도로수 정보 및 텍스쳐 분석을 통한 주행가능영역 검출기법과 차선 검출 기반 주행가능영역 기법을 결합한 시스템을 나타낸다. 해당 시스템은 먼저 전방 영상만을 활용하여 영상 내 차선 검출을 시도한다. 차선 검출이 성공적으로 이루어지게 되는 경우 주행 가능영역은 차선 검출 결과를 통해 결정된다. 차선의 훼손이나 차선이 없는 상황으로 인해 차선 검출에 실패할 경우, 차량의 위치 정보를 추가로 활용하여 텍스쳐 분석을 통해 주행가능영역을 검출한다.

Fig. 5.Traversable region detection system consisting of a lane detection algorithm and the proposed algorithm.

차선 검출 기반 주행가능영역 검출을 위해서는 입력 영상에서 에지를 추출하며, 에지 추출을 위해서는 캐니 에지 연산자를 활용하였다. 캐니 에지 연산자의 경우 보다 정확한 에지 성분 검출을 위해 문턱치 처리를 하는 과정이 포함되며, 제안 시스템에서는 보다 확실한 에지 성분만을 추출하기 위해 높은 문턱치를 적용하였다. 에지가 추출되면 추출된 에지를 활용하여 허프 변환을 수행한다[12]. 허프 변환의 수행에 필요한 누적 맵의 문턱치 서리에 있어서도 확실한 직선 성분을 추출하기 위해 높은 문턱치를 적용하였다. Fig. 6(a), (c), (e)는 각각 입력 영상, 입력 영상에서의 에지 추출 결과 및 추출한 에지를 활용하여 허프 변환을 수행하여 차선을 검출한 결과를 나타낸다.

Fig. 6.Lane detection for traversable region detection (a)(b)input images (c)(d)Edges extracted from (a) and (b)(e)(f)Extracted lines from (c) and (d) via Hough transform.

차량이 주행 중인 도로의 상황 혹은 조명의 상황이 좋지 않거나 도로에 차선이 존재하지 않는 경우 차선 검출이 올바르게 이루어지지 않는다. Fig. 6(b), (d), (f)는 조명의 상황이 좋지 않는 환경에서 획득된 입력 영상, 이러한 입력 영상에서의 에지 추출 결과 및 추출한 에지를 활용하여 허프 변환을 수행한 결과이다. Fig. 6 (e)와 (f)를 비교하였을 때(f)의 경우 허프 변환을 통해 검출한 직선의 길이가 짧은 것을 확인할 수 있다. 이러한 직선을 통해 형성되는 직선은 차선으로의 신뢰도가 낮으므로, 허프 변환을 통해 검출한 직선의 길이가 짧을 경우 차선 검출이 실패하였다고 판단한다. 수식 (4)와 같이 제안 시스템에서는 왼쪽 직선과 오른쪽 직선이 모두 성공적으로 검출된 경우에만 차선 검출기반 주행가능영역 검출이 성공적으로 이루어졌다고 판단한다.

LineL과 LineR은 각각 검출된 왼쪽 직선과 오른쪽 직선의 길이를 의미한다. 차선 검출이 성공적으로 이루어진 경우 주행가능영역은 차선 검출만으로 검출이 이루어지며, 그렇지 않은 경우 도로 수 정보 및 텍스쳐 정보를 활용하여 주행가능영역을 재 검출한다.

 

5. 실험 결과

5.1 실험환경

본 논문에서는 총 4종류의 영상을 활용하여 제안 알고리즘 및 시스템의 성능을 평가하였다. Fig. 1은 실험에 사용한 영상의 일부를 나타내고 있다. 샘플 영상 1은 조명 상황이 양호하며 차선 훼손이 없는 상황이며, 샘플 영상 2는 조명 상황이 불량하며 심각한 차선 훼손이 발생한 상황에 대한 영상이다. 샘플 영상 3의 경우 조명 상황은 양호하지만 도로 외곽을 표시하는 차선이 잡초에 의해 가리어진 상황이며, 샘플 영상 4의 경우 중앙선이 존재하지 않는 상황에 대한 영상이다. Table 2는 각 영상 별 도로의 차로수, 조명, 차선의 유무 및 훼손 여부에 있어 서로 다른 특징을 가지고 있다. 도로 영상의 촬영을 위해서는 GPS기기가 포함된 블랙박스 카메라를 사용하였다[13]. 실험 검증에 사용한 컴퓨터의 사양은 Intel Core i7-4790 CPU, 8192MB RAM이었으며, OpenCV 라이브러리 2.4.11을 사용하여 구현하였다.

Table 2.Specification on road samples

제안 알고리즘 구현에 있어 설정한 파라미터는 다음과 같다. 캐니 에지 검출기에서는 총 2가지의 문턱치 값이 필요한데, 이때 낮은 문턱치 값을 60, 높은 문턱치 값을 80으로 설정하였다. 허프변환의 구현을 위해서 OpenCV라이브러리의 HoughLinesP 함수를 사용하였으며, 해당 함수의 입력 파라미터 중 rho 값은 10, theta는 1, threshold값은 70로 설정하였다. 동일 함수의 입력 파라미터 중 차선 검출의 성공 여부 판단을 위해 사용되는 minLineLength 와 minLineGap 파라미터는 각각 40, 2으로 설정하여 직선간의 거리가 2픽셀 이하이며, 최단직선의 길이가 최소 40픽셀은 되어야 직선으로 인식하도록 하였다. 히스토그램 매칭에 있어서는 RGB 3채널 히스토그램을 사용하였고, 히스토그램에 있어 bin의 수는 8개로 설정하였다.

5.2 실험결과

Fig. 7은 샘플 영상에 대해 제안 알고리즘을 적용한 결과를 나타낸다. 실험에 사용한 영상은 차선검출이 가능한 프레임과 그렇지 않은 프레임이 존재하며, Fig. 7(a)-(d)는 차선 검출이 가능한 프레임에서의 주행가능영역을 검출한 결과를, Fig. 7(e)-(h)는 차선 검출이 어려운 프레임에서 도로 영역 검출 후 도로 영역 분할을 통해 주행가능영역을 검출한 결과를 나타낸다. Table 3는 각 영상 샘플 별 주행가능영역 검출 성공률을 나타낸다. 주행가능영역 검출 성공률은 전체 프레임 수 대비 주행가능영역을 올바르게 검출한 프레임의 수로 계산되었으며, 주관적으로 판단한 주행가능영역과의 차이가 심하지 않는 경우 주행가능영역이 올바르게 검출되었다고 판단하였다. Table 3에서 확인할 수 있듯이 제안 알고리즘은 평균적으로 79 퍼센트의 검출 성공률을 나타내었으며, 도로의 상태 및 조명 상황이 양호한 경우에 우수한 성능을 나타내었으며, 도로 상태 및 조명 상황에 따라 성능이 저하되는 결과를 보였다. 특히 샘플 영상 2의 경우 도로 내 차선의 훼손이 심함과 동시에 우천으로 인해 도로에 물웅덩이가 존재함으로 인해 주행가능영역 검출률이 다른 샘플 영상에 비해 낮았다.

Fig. 7.Experimental results. (a) to (d):Experimental results on sample 1 to sample 4 when traversable region detection is performed by lane detection (e) to (h):Experimental results on sample 1 to sample 4 when traversable region detection is performed road region detection.

Table 3.Detection rate on each sample

Table 3은 주행가능영역 검출에 사용한 기법의 비율에 대해서도 나타내고 있다. 제안 시스템은 차선 검출이 용이한 상황의 경우 차선 검출을 통해 주행가능영역을 검출하고, 그렇지 않은 경우에 텍스쳐 분석을 통해 주행가능영역을 검출한다. 차선의 상태가 비교적 용이한 샘플 영상 1과 샘플 영상 3의 경우 차선 검출 기반 주행가능영역 검출 비율이 높아 각각 74.5, 60.8 퍼센트의 비율을 나타냈다. 특히 샘플영상 3의 경우 한쪽 차선이 지형지물에 의해 가려져있지만, 이러한 지형지물의 가림이 지속적으로 이루어질 경우 지형지물에 의한 에지를 검출하여 직선을 성공적으로 검출하는 경우가 다수 존재하였다. 샘플 영상 2의 경우 차선 및 도로 상태가 불량하여 텍스쳐 분석 기반 주행가능영역 검출이 비교적 자주 이루어져 텍스쳐 분석 기반 검출이 54.7퍼센트를 나타내었다. 샘플 영상 4의 경우 영상 내 모든 프레임에 차선이 존재하지 않으므로, 모든 프레임에서 텍스쳐 분석 기반 주행가능영역 검출이 이루어졌다. 이러한 실험을 통해 제안 시스템이 도로의 상황에 적응적으로 주행 가능영역을 검출하는 것을 확인할 수 있었다.

다음으로는 기존의 차선검출기반 주행가능영역과의 성능 비교를 수행하였다. 이를 위해 참고문헌[9], [10]에서 제안한 기법과 성능 비교를 수행하였다. 참고문헌 [9]에서 제안한 기법은 전방 영상을 먼저 탑뷰로 변환한 후 허프 변환을 적용하여 차선을 검출하고, 검출한 차선 정보를 라인피팅(line fitting)을 통해 최적화 한다. 참고문헌 [10]은 카메라의 초점 거리와 경사각 파라미터로부터 수평 소실선을 사전에 추정하고 이를 바탕으로 관심영역을 설정한다. 그 후 에지 방향성 군집화(Clustering)에 의해 에지 영상을 생성하고 허프 변환을 통해 차선을 검출한다. Table 4는 해당 기법과의 성능 비교 결과를 나타내며, Fig. 8은 기존 기법에서 주행가능영역 검출에 실패한 사례를 나타낸다. 참고문헌 [9]에서 제안한 기법을 활용하여 주행가능영역 검출을 시도하였을 때 조명 환경 및 도로 환경이 양호한 샘플영상 1에서는 높은 검출률을 나타냈으나, 조명 환경이 열악하거나 차선이 훼손된 경우에는 낮은 검출률을 나타내었다. 참고문헌 [10]에서 제안한 기법은 열악한 상황에서 차선 검출이 가능하도록 개발되었으므로, 매우 민감하게 에지 검출을 수행한다. 이러한 이유로 샘플 영상 3과 같이 차선이 일부 훼손되어 차선이 불분명한 영상에서는 강인함을 보이지만, 차선과 비슷한 특징을 가지는 에지 성분을 포함한 영상이나 에지 성분이 불규칙적으로 분포하는 영상에 대해서는 주행가능영역 검출이 부정확하게 이루어진다. 예를 들어 샘플 영상 2와 같이 에지 성분이 불규칙하게 분포되어있는 영상에서는 부정확한 결과를 나타내며, 샘플 영상 1과 같이 차선과 유사한 에지 성분을 가지는 도로노면에 대해서 부정확한 결과를 나타낸다. 참고문헌[9]에서 제안한 기법과 참고문헌 [10]에서 제안한 기법 모두 차선이 존재하지 않은 샘플 영상 4에서는 주행가능영역 검출을 실패하였다. 이러한 실험 결과 제안하는 시스템이 기존 기법에 비해 다양한 도로 상황에서 주행가능영역검출을 수행할 수 있음을 확인할 수 있다.

Table 4.Traversable region detection using previous lane-detection based methods and the proposed method(%)

Fig. 8.Failure cases of previous lane-detection based method. (a) to (b):traversable region detection by [9]. (c) to (d):traversable region detection by [10].

 

6. 결 론

본 논문에서는 도로 및 조명 환경에 따라 차선 검출 혹은 도로 영역 검출을 통해 주행 가능 영역을 검출하는 알고리즘을 제안하였다. 제안 알고리즘은 도로영역의 텍스쳐와 비도로영역의 텍스쳐가 다른 특성을 가지는 점에 착안하여 히스토그램 매칭에 기반을 둔 텍스쳐 분석을 통해 차선 검출이 어려운 상황에서도 주행가능영역을 검출하였다. 기존에 제안됐던 기법들이 도로 내 차선을 보다 정확하게 검출하는 데에 중점을 둔 것에 반해 제안 기법은 차선이 없는 상황에서도 주행 가능 영역을 검출 및 제안할 수 있다는 장점을 가지고 있다. 그 결과 제안 알고리즘은 다양한 환경에서 주행가능영역 검출이 가능하며, 사용자 운전 보조 시스템 및 자율 주행 자동차의 광범위한 사용에 크게 기여할 수 있다.

향후 연구로는 차선 영역 및 도로 영역에 대한 정교한 모델링을 통해 보다 정교한 주행가능영역을 검출하는 연구를 수행할 예정이다. 골목길처럼 주차된 차들로 인해 도로의 폭이 좁혀진 상황에서의 주행가능영역 검출에 대한 연구 또한 수행할 예정이다.

References

  1. S.H. Han and H.J. Cho, “HSV Color Model Based Front Vehicle Extraction and Lane Detection Using Shadow Information,” Journal of Korea Multimedia Society, Vol. 5, No. 2, pp. 176-190, 2002.
  2. C.W. Shin, “A Study on the System for Lane Departure Detection Using Color Data Processing,” Journal of Korea Multimedia Society, Vol. 8, No. 3, pp. 428-437, 2005.
  3. Y. Fan, W. Zhang, X. Li, L. Zhang, and Z. Cheng, “A Robust Lane Boundaries Detection Algorithm based on Gradient Distribution Features,” Proceedings of the 8th International Conference on Fuzzy Systems and Knowledge Discovery, pp. 1714-1718, 2011.
  4. A. Parajuli, M. Celenk, and H.B. Riley, “Robust Lane Detection in Shadows and Low Illumination Conditions Using Local Gradient Features,” Open Journal of Applied Sciences, Vol. 3, pp. 68-74, 2013. https://doi.org/10.4236/ojapps.2013.31B014
  5. E.J. Lee, “Lane Extraction Using Grouped Block Snake Algorithm,” Journal of Korea Multimedia Society, Vol. 3, No. 5, pp. 445-453, 2000.
  6. H. Xu, X. Wang, H. Huang, K. Wu, and Q. Fang, “A Fast and Stable Lane Detection Method based on B-spline Curve,” Proceeding of IEEE 10th International Conference on Computer-aided Industrial Design & Conceptual Design, Vol. 1-3, pp. 1036-1040, 2009.
  7. T.H. Duong, S.T. Chung, and S. Cho, “Model-based Robust Lane Detection for Driver Assistance,” Journal of Korea Multimedia Society, Vol. 17, No. 6, pp. 655-670, 2014. https://doi.org/10.9717/kmms.2014.17.6.655
  8. J.H. Cho, Y.M. Jang, and S.B. Cho, “A High-performance Lane Recognition Algorithm using Word Descriptors and a Selective Hough Transform Algorithm with Fourchannel ROI,” Journal of Institute of Electronics and Information Engineers, Vol. 52, No. 2, pp. 148-161, 2015. https://doi.org/10.5573/ieie.2015.52.2.148
  9. M. Aly, “Real-time Detection of Lane Markers in Urban Streets,” Proceeding of IEEE Intelligent Vehicles Symposium, pp. 7-12, 2008.
  10. C.K. Cheong, “A High Speed Road Lane Detection based on Optimal Extraction of ROI-LB,” Journal of Broadcast Engineering, Vol. 14, No. 2, pp. 253-264, 2009. https://doi.org/10.5909/JBE.2009.14.2.253
  11. M. Meuter, S. Muller-Schneiders, A. Mike, S. Hold, C. Num, and A. Kummert, “A Novel Approach to Lane Detection and Tracking,” Proceeding of the IEEE International Conference Intelligent Transportation Systems, pp. 1-6, 2009.
  12. R.C. Gonzalez and R.E. Woods, Digital Image Processing, Prentice Hall Publisher, New Jersey, 2007.
  13. Iroad Blackbox Camera, http://iroadkr.co.kr/ko/?page_id=1154 (accessed Apr., 22, 2016).