• 제목/요약/키워드: depth estimation

검색결과 1,117건 처리시간 0.022초

AdaMM-DepthNet: Unsupervised Adaptive Depth Estimation Guided by Min and Max Depth Priors for Monocular Images

  • ;김문철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 추계학술대회
    • /
    • pp.252-255
    • /
    • 2020
  • Unsupervised deep learning methods have shown impressive results for the challenging monocular depth estimation task, a field of study that has gained attention in recent years. A common approach for this task is to train a deep convolutional neural network (DCNN) via an image synthesis sub-task, where additional views are utilized during training to minimize a photometric reconstruction error. Previous unsupervised depth estimation networks are trained within a fixed depth estimation range, irrespective of its possible range for a given image, leading to suboptimal estimates. To overcome this suboptimal limitation, we first propose an unsupervised adaptive depth estimation method guided by minimum and maximum (min-max) depth priors for a given input image. The incorporation of min-max depth priors can drastically reduce the depth estimation complexity and produce depth estimates with higher accuracy. Moreover, we propose a novel network architecture for adaptive depth estimation, called the AdaMM-DepthNet, which adopts the min-max depth estimation in its front side. Intensive experimental results demonstrate that the adaptive depth estimation can significantly boost up the accuracy with a fewer number of parameters over the conventional approaches with a fixed minimum and maximum depth range.

  • PDF

비지도학습 기반의 뎁스 추정을 위한 지식 증류 기법 (Knowledge Distillation for Unsupervised Depth Estimation)

  • 송지민;이상준
    • 대한임베디드공학회논문지
    • /
    • 제17권4호
    • /
    • pp.209-215
    • /
    • 2022
  • This paper proposes a novel approach for training an unsupervised depth estimation algorithm. The objective of unsupervised depth estimation is to estimate pixel-wise distances from camera without external supervision. While most previous works focus on model architectures, loss functions, and masking methods for considering dynamic objects, this paper focuses on the training framework to effectively use depth cue. The main loss function of unsupervised depth estimation algorithms is known as the photometric error. In this paper, we claim that direct depth cue is more effective than the photometric error. To obtain the direct depth cue, we adopt the technique of knowledge distillation which is a teacher-student learning framework. We train a teacher network based on a previous unsupervised method, and its depth predictions are utilized as pseudo labels. The pseudo labels are employed to train a student network. In experiments, our proposed algorithm shows a comparable performance with the state-of-the-art algorithm, and we demonstrate that our teacher-student framework is effective in the problem of unsupervised depth estimation.

Deep Learning Based Monocular Depth Estimation: Survey

  • Lee, Chungkeun;Shim, Dongseok;Kim, H. Jin
    • Journal of Positioning, Navigation, and Timing
    • /
    • 제10권4호
    • /
    • pp.297-305
    • /
    • 2021
  • Monocular depth estimation helps the robot to understand the surrounding environments in 3D. Especially, deep-learning-based monocular depth estimation has been widely researched, because it may overcome the scale ambiguity problem, which is a main issue in classical methods. Those learning based methods can be mainly divided into three parts: supervised learning, unsupervised learning, and semi-supervised learning. Supervised learning trains the network from dense ground-truth depth information, unsupervised one trains it from images sequences and semi-supervised one trains it from stereo images and sparse ground-truth depth. We describe the basics of each method, and then explain the recent research efforts to enhance the depth estimation performance.

깊이 추정을 위한 PCA기반의 특징 축소 (PCA-Based Feature Reduction for Depth Estimation)

  • 신성식;권오봉
    • 전자공학회논문지CI
    • /
    • 제47권3호
    • /
    • pp.29-35
    • /
    • 2010
  • 본 논문에서는 한 장의 정지 영상에서 학습을 통한 방법으로 깊이 정보를 추정하는데 사용되어지는 특징 정보를 PCA(Principal Component Analaysis)기반으로 축소하여 깊이 정보의 정확성을 향상시키는 방법에 대하여 기술한다. 정지 영상에서 깊이 정보를 추정하기 위하여 이미지의 에너지 값과 기울기와 같은 특징을 추출하며 특징들의 관계를 이용하여 각 영역의 깊이 정보를 추정한다. 이 때 영상 필터를 사용하여 많은 특징을 추출하지만 특징의 중요성을 판단하지 않고 모두 사용하면 오히려 성능에 좋지 않은 영향을 미친다. 본 논문에서는 한 장의 정지 영상의 깊이 추정을 위해 PCA를 기반으로 중요도를 판단하여 특징 벡터의 차원을 줄이고 깊이를 정확하게 추정할 수 있는 방법에 대하여 제안한다. 제안한 방법을 스탠포드 대학의 평가 데이터로 실험한 결과, 깊이를 추정하는데 있어서 전체 특징 벡터의 30%만을 이용하여 평균 0.4%에서 최대 2.5%의 정확도가 향상되었다.

GPU-Accelerated Single Image Depth Estimation with Color-Filtered Aperture

  • Hsu, Yueh-Teng;Chen, Chun-Chieh;Tseng, Shu-Ming
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권3호
    • /
    • pp.1058-1070
    • /
    • 2014
  • There are two major ways to implement depth estimation, multiple image depth estimation and single image depth estimation, respectively. The former has a high hardware cost because it uses multiple cameras but it has a simple software algorithm. Conversely, the latter has a low hardware cost but the software algorithm is complex. One of the recent trends in this field is to make a system compact, or even portable, and to simplify the optical elements to be attached to the conventional camera. In this paper, we present an implementation of depth estimation with a single image using a graphics processing unit (GPU) in a desktop PC, and achieve real-time application via our evolutional algorithm and parallel processing technique, employing a compute shader. The methods greatly accelerate the compute-intensive implementation of depth estimation with a single view image from 0.003 frames per second (fps) (implemented in MATLAB) to 53 fps, which is almost twice the real-time standard of 30 fps. In the previous literature, to the best of our knowledge, no paper discusses the optimization of depth estimation using a single image, and the frame rate of our final result is better than that of previous studies using multiple images, whose frame rate is about 20fps.

초점정보를 이용한 패턴간의 상대적 깊이 추정알고리즘 개발 (A Relative Depth Estimation Algorithm Using Focus Measure)

  • 정지석;이대종;신용녀;전명근
    • 한국지능시스템학회논문지
    • /
    • 제23권6호
    • /
    • pp.527-532
    • /
    • 2013
  • 깊이 추정은 로봇 비전, 3차원 영상, 모션 제어를 위해 사용되는 매우 중요한 인자이다. 깊이 추정은 렌즈와 물체 사이의 거리를 변화시켜가면서 취득된 일련의 영상에서 계산된 초점 정보에 기반을 둔다. 본 논문에서는 다양한 초점정보를 이용한 패턴간의 상대적 깊이 추정 알고리즘을 제안한다. 제안된 방법은 거리별로 취득된 영상의 초점값 정보를 이용하여 구현하였으며, 깊이는 두 패턴의 상대적 거리를 고려함으로써 추정하였다. 다양한 영상정보를 이용하여 깊이 추정을 수행한 결과 효과적인 추정이 가능함을 알 수 있었다.

단안영상에서 움직임 벡터를 이용한 영역의 깊이추정 (A Region Depth Estimation Algorithm using Motion Vector from Monocular Video Sequence)

  • 손정만;박영민;윤영우
    • 융합신호처리학회논문지
    • /
    • 제5권2호
    • /
    • pp.96-105
    • /
    • 2004
  • 2차원 이미지로부터 3차원 이미지 복원은 각 픽셀까지의 깊이 정보가 필요하고, 3차원 모델의 복원에 관한 일반적인 수작업은 많은 시간과 비용이 소모된다. 본 논문의 목표는 카메라가 이동하는 중에, 획득된 단안 영상에서 영역의 상대적인 깊이 정보를 추출하는 것이다. 카메라 이동에 의한 영상의 모든 점들의 움직임은 깊이 정보에 종속적이라는 사실에 기반을 두고 있다. 전역 탐색 기법을 사용하여 획득한 움직임 벡터에서 카메라 회전과 배율에 관해서 보상을 한다. 움직임 벡터를 분석하여 평균 깊이를 측정하고, 평균 깊이에 대한 각 영역의 상대적 깊이를 구하였다. 실험결과 영역의 상대적인 깊이는 인간이 인식하는 상대적인 깊이와 일치한다는 것을 보였다.

  • PDF

Absolute Depth Estimation Based on a Sharpness-assessment Algorithm for a Camera with an Asymmetric Aperture

  • Kim, Beomjun;Heo, Daerak;Moon, Woonchan;Hahn, Joonku
    • Current Optics and Photonics
    • /
    • 제5권5호
    • /
    • pp.514-523
    • /
    • 2021
  • Methods for absolute depth estimation have received lots of interest, and most algorithms are concerned about how to minimize the difference between an input defocused image and an estimated defocused image. These approaches may increase the complexity of the algorithms to calculate the defocused image from the estimation of the focused image. In this paper, we present a new method to recover depth of scene based on a sharpness-assessment algorithm. The proposed algorithm estimates the depth of scene by calculating the sharpness of deconvolved images with a specific point-spread function (PSF). While most depth estimation studies evaluate depth of the scene only behind a focal plane, the proposed method evaluates a broad depth range both nearer and farther than the focal plane. This is accomplished using an asymmetric aperture, so the PSF at a position nearer than the focal plane is different from that at a position farther than the focal plane. From the image taken with a focal plane of 160 cm, the depth of object over the broad range from 60 to 350 cm is estimated at 10 cm resolution. With an asymmetric aperture, we demonstrate the feasibility of the sharpness-assessment algorithm to recover absolute depth of scene from a single defocused image.

인포커스 및 디포커스 영상으로부터 깊이맵 생성 (A Depth Estimation Using Infocused and Defocused Images)

  • ;김만배
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 추계학술대회
    • /
    • pp.114-115
    • /
    • 2013
  • The blur amount of an image changes proportional to scene depth. Depth from Defocus (DFD) is an approach in which a depth map can be obtained using blur amount calculation. In this paper, a novel DFD method is proposed in which depth is measured using an infocused and a defocused image. Subbaro's algorithm is used as a preliminary depth estimation method and edge blur estimation is provided to overcome drawbacks in edge.

  • PDF

단일 카메라를 이용한 3D 깊이 추정 방법 (3D Depth Estimation by a Single Camera)

  • 김승기;고영민;배철균;김대진
    • 방송공학회논문지
    • /
    • 제24권2호
    • /
    • pp.281-291
    • /
    • 2019
  • 3D 카메라 기술 중에서 초점의 흐려짐을 이용한 깊이 추정은 카메라의 초점거리 평면의 물체는 선명한 상이 맺히지만 카메라의 초점거리 평면으로부터 멀어진 물체는 흐린 영상을 만들어낸다는 현상을 이용해 3D 깊이를 추정한다. 본 논문에서는 단일 카메라를 이용하여 촬영한 영상의 흐림 정도를 분석하여 3D 깊이를 추정하는 알고리즘을 연구하였다. 단일 카메라의 1 개의 영상 또는 단일 카메라의 초점이 서로 다른 2 개의 영상을 사용하여 초점의 흐려짐을 이용한 3D 깊이를 추정하는 방법을 통해 최적화된 피사체 범위를 도출하였다. 1 개의 영상을 이용한 깊이 추정에서는 스마트폰 카메라와 DSLR 카메라 모두 250 mm의 초점거리를 사용하는 것이 가장 좋은 성능을 보였다. 2개의 영상을 이용한 깊이 추정에서는 스마트폰 카메라 영상은 150 mm와 250 mm로 그리고 DSLR 카메라 영상은 200 mm와 300 mm로 초점거리를 설정하였을 때 가장 좋은 3D 깊이 추정 유효 범위를 갖는 것으로 나타났다.