• Title/Summary/Keyword: RGB

Search Result 1,656, Processing Time 0.035 seconds

Three-dimensional human activity recognition by forming a movement polygon using posture skeletal data from depth sensor

  • Vishwakarma, Dinesh Kumar;Jain, Konark
    • ETRI Journal
    • /
    • v.44 no.2
    • /
    • pp.286-299
    • /
    • 2022
  • Human activity recognition in real time is a challenging task. Recently, a plethora of studies has been proposed using deep learning architectures. The implementation of these architectures requires the high computing power of the machine and a massive database. However, handcrafted features-based machine learning models need less computing power and very accurate where features are effectively extracted. In this study, we propose a handcrafted model based on three-dimensional sequential skeleton data. The human body skeleton movement over a frame is computed through joint positions in a frame. The joints of these skeletal frames are projected into two-dimensional space, forming a "movement polygon." These polygons are further transformed into a one-dimensional space by computing amplitudes at different angles from the centroid of polygons. The feature vector is formed by the sampling of these amplitudes at different angles. The performance of the algorithm is evaluated using a support vector machine on four public datasets: MSR Action3D, Berkeley MHAD, TST Fall Detection, and NTU-RGB+D, and the highest accuracies achieved on these datasets are 94.13%, 93.34%, 95.7%, and 86.8%, respectively. These accuracies are compared with similar state-of-the-art and show superior performance.

Estimation of tomato maturity as a continuous index using deep neural networks

  • Taehyeong Kim;Dae-Hyun Lee;Seung-Woo Kang;Soo-Hyun Cho;Kyoung-Chul Kim
    • Korean Journal of Agricultural Science
    • /
    • v.49 no.4
    • /
    • pp.785-793
    • /
    • 2022
  • In this study, tomato maturity was estimated based on deep learning for a harvesting robot. Tomato images were obtained using a RGB camera installed on a monitoring robot, which was developed previously, and the samples were cropped to 128 × 128 size images to generate a dataset for training the classification model. The classification model was constructed based on convolutional neural networks, and the mean-variance loss was used to learn implicitly the distribution of the data features by class. In the test stage, the tomato maturity was estimated as a continuous index, which has a range of 0 to 1, by calculating the expected class value. The results show that the F1-score of the classification was approximately 0.94, and the performance was similar to that of a deep learning-based classification task in the agriculture field. In addition, it was possible to estimate the distribution in each maturity stage. From the results, it was found that our approach can not only classify the discrete maturation stages of the tomatoes but also can estimate the continuous maturity.

Histogram Equalized Eigen Co-occurrence Features for Color Image Classification (컬러이미지 검색을 위한 히스토그램 평활화 기반 고유 병발 특징에 관한 연구)

  • Yoon, TaeBok;Choi, YoungMee;Choo, MoonWon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.705-708
    • /
    • 2010
  • An eigen color co-occurrence approach is proposed that exploits the correlation between color channels to identify the degree of image similarity. This method is based on traditional co-occurrence matrix method and histogram equalization. On the purpose of feature extraction, eigen color co-occurrence matrices are computed for extracting the statistical relationships embedded in color images by applying Principal Component Analysis (PCA) on a set of color co-occurrence matrices, which are computed on the histogram equalized images. That eigen space is created with a set of orthogonal axes to gain the essential structures of color co-occurrence matrices, which is used to identify the degree of similarity to classify an input image to be tested for various purposes. In this paper RGB, Gaussian color space are compared with grayscale image in terms of PCA eigen features embedded in histogram equalized co-occurrence features. The experimental results are presented.

POSITION RECOGNITION AND QUALITY EVALUATION OF TOBACCO LEAVES VIA COLOR COMPUTER VISION

  • Lee, C. H.;H. Hwang
    • Proceedings of the Korean Society for Agricultural Machinery Conference
    • /
    • 2000.11c
    • /
    • pp.569-577
    • /
    • 2000
  • The position of tobacco leaves is affluence to the quality. To evaluate its quality, sample leaves was collected according to the position of attachment. In Korea, the position was divided into four classes such as high, middle, low and inside positioned leaves. Until now, the grade of standard sample was determined by human expert from korea ginseng and tobacco company. Many research were done by the chemical and spectrum analysis using NIR and computer vision. The grade of tobacco leaves mainly classified into 5 grades according to the attached position and its chemical composition. In high and low positioned leaves shows a low level grade under grade 3. Generally, inside and medium positioned leaf has a high level grade. This is the basic research to develop a real time tobacco leaves grading system combined with portable NIR spectrum analysis system. However, this research just deals with position recognition and grading using the color machine vision. The RGB color information was converted to HSI image format and the sample was all investigated using the bundle of tobacco leaves. Quality grade and position recognition was performed through well known general error back propagation neural network. Finally, the relationship about attached leaf position and its grade was analyzed.

  • PDF

Color Change Analysis of Jigak Region by the Dandelion Tea Intake (민들레 차 섭취에 따른 지각 부위 색상 변화 분석)

  • Lim, Soon-Yong;Yean, Yong-Hem;Min, Ji-Seon;Song, Han-Sol;Lim, Sung-Su;Kim, Bong-Hyun;Ka, Min-Kyoung;Cho, Dong-Uk;Bae, Young-Lae J.
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.1090-1092
    • /
    • 2011
  • 현대 사회의 잘못된 식습관과 생활습관 때문에 신장이 안 좋아지는 사람들이 증가하고 있다. 체내의 주요 배설장기인 신장이 손상되어 발생하는 신장병은 해마다 늘어나는 추세이다. 약을 복용 하게 되면 우리 몸의 면역력이 약해지기 때문에 보통 우리는 약을 처방하는 대신에 식이요법을 사용 한다. 따라서 본 논문에서는 민들레차를 마신 후 Restoration_Brightness 프로그램을 사용하여 얼굴 부위에서 신장에 위치하는 지각(地閣)의 RGB값을 Lab와 CMYK로 변환하고 L값과 K값을 추출하여 분석하였다.

Automatic Photo Mosaic Algorithm using Feature-Based Block Matching (특징값 기반 블록 매칭을 이용한 자동 포토 모자이크 알고리즘)

  • Seo, Sung-Jin;Kim, Gi-Woong;Jo, Hyun-Woo;Lee, Hae-Yeoun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.357-360
    • /
    • 2011
  • 모자이크는 여러 개의 작은 영상들을 모아서 하나의 큰 영상을 만드는 것을 말한다. 본 논문에서는 모자이크 방법 중 하나인 사진을 이용하여 영상을 만드는 포토 모자이크 방법을 컴퓨터 알고리즘으로 구현하는 기술 제안을 한다. 이미지를 원하는 사이즈의 타일로 나눈 다음, 나눠진 타일을 16등분을 한다. 16등분된 이미지 각 요소들에 대하여 RGB 평균값을 계산하여 총 48개 특징값을 추출하여 데이터베이스에 저장해둔다. 그리고 타일과 비교가 될 이미지들은 이미 똑같은 작업을 통하여 데이터베이스에 저장이 되어 있다. 이렇게 저장된 값들을 통하여 유클리드 거리를 통하여 두 이미지의 유사도를 측정하게 된다. 최적의 값을 찾으면 바로 대입하는 것이 아니라 이전에 있던 타일 이미지의 명암값을 새로 삽입되는 타일에 부여를 하여, 부드러운 영상을 만들게 된다. 그리고 타일을 삽입할 때 이전에 사용된 이미지는 배열의 마지막으로 옮겨지게 되며 사용횟수를 체크하여 반복적 사용을 제한하였다.

Assembly Part Image-based 3D Shape Retrieval using Attentional View Pooling (Attentional View Pooling을 이용한 조립 부품 이미지 기반 3 차원 물체 검색)

  • Lee, Eun Ji;Kang, Isaac;Kim, Min Woo;Park, Seon Ji;Cho, Nam Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.72-75
    • /
    • 2020
  • 조립 부품 이미지에 해당하는 3D CAD 모델 매칭 기술은 최근 로봇 조립 기술의 발전으로 필요성이 대두되고 있다. 이미지 기반 3 차원 모델 매칭 연구는 진행되어 왔지만 가구 부품 이미지와는 특성이 다른 RGB[5] 이미지나 스케치 이미지를 다루는[1] 접근들이었다. 딥러닝을 사용하는 스케치 이미지 기반 3 차원 물제 검색 연구에서는 대부분 3 차원 이미지를 다각도에서 렌더링한 view 이미지들에서 feature를 추출하고 pooling 하여 하나의 feature를 출력한다. 그러나 기존의 view pooling 방식은 단순한 평균 방식으로, 부품 이미지에 따른 view를 반영하기에는 한계가 있었다. 따라서 본 논문에서는 조립 부품 이미지 기반 3 차원 물체 검색을 위해 query 부품 이미지에 따라 다른 view 이미지에 집중할 수 있는 방식의 attentional view pooling을 제안한다. 또한 조립 부품 데이터의 특성 상 class 당 CAD 모델이 하나인 상황이므로 학습 데이터가 터무니없이 부족하여 이를 해결하기 위한 학습 데이터 증강 방법을 제안한다. 실험은 의자 부품 11가지에 대해 진행하였고 이를 통해 제안하는 방식의 성능을 입증하였다.

  • PDF

Quadtree-based Convolutional Neural Network Optimization to Quickly Calculate the Depth of Field of an Image (이미지의 피사계 심도를 빠르게 계산하기 위한 쿼드트리 기반의 합성곱 신경망 최적화)

  • Kim, Donghui;Kim, Soo-Kyun;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.257-260
    • /
    • 2021
  • 본 논문에서는 카메라의 포커싱과 아웃포커싱에 의해 이미지에서 뿌옇게 표현되는 DoF(Depth of field, 피사계 심도) 영역을 쿼드트리(Quadtree) 기반의 합성곱 신경망을 통해 빠르게 찾는 방법을 제안한다. 우리의 접근 방식은 RGB채널기반의 상호-상관 필터를 이용하여 DoF영역을 이미지로부터 효율적으로 분류하고, 적응형 트리인 쿼드트리를 기반으로 유의미한 영역만을 분류한다. 이 과정에서 손실 없이 온전하게 DoF영역을 추출하기 위한 필터링 과정을 거친다. 이러한 과정에서 얻어진 이미지 패치들은 전체 이미지에 비해 적은 영역으로 나타나며, 이 적은 개수의 패치들을 이용하여 네트워크 단계에서 사용할 이미지-DoF가중치 맵 데이터 쌍을 설정한다. 네트워크 과정에서 학습할 때 사용되는 데이터는 이미지와 상호-상관 필터 기반으로 추출된 DoF 가중치 맵을 이용한다. 본 논문에서 제안하는 쿼드트리 기반 합성곱 신경망은 이미지로부터 포커싱과 아웃포커싱된 DoF영역을 자동으로 추출하는 과정을 학습시키기 위해 사용된다. 결과적으로 학습에 필요한 데이터 영역이 줄어듦으로써 학습 시간과 메모리를 절약했으며, 테스트 결과로 얻은 DoF 가중치 이미지는 입력 이미지에서 DoF영역을 더욱더 빠른 시간 내에 찾아낸다.

  • PDF

Camouflage Pattern Evaluation based on Environment and Camouflage Pattern Similarity Analysis (작전환경 및 위장무늬 유사도 분석 기반 위장무늬 평가)

  • Yun, Jeongrok;Kim, Hoemin;Kim, Un Yong;Chun, Sungkuk
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.671-672
    • /
    • 2021
  • 본 논문에서는 작전환경과 위장무늬 디자인 영상 간의 색상 및 구조 분석 기반의 새로운 정량적 위장무늬 평가 방법을 제안한다. 작전환경 및 위장무늬 디자인 영상 간 RGB, Lab 색상 공간에서의 화소간 평균 오차 및 색상 히스토그램 비교를 통해 색상 유사도를 계산한다. 또한, PSNR(Peak Signal-to-Noise Ratio), MSSIM(Mean Structural Similarity Index), UIQI, GMSD 및 딥러닝 기반 영상 간 구조 유사도를 계산한다. Random Forest Regressor를 통해 각각 계산된 색상 및 구조 유사도 파라미터를 회기 분석하여 최종 위장무늬 평가 결과를 계산한다. 20명의 피실험자를 대상으로 제안한 위장무늬 평가 방법과 기존 평가 방법을 비교함을 통해 제안한 방법의 성능을 검증하였다.

  • PDF

Convolutional Neural Network Technique for Efficiently Extracting Depth of Field from Images (이미지로부터 피사계 심도 영역을 효율적으로 추출하기 위한 합성곱 신경망 기법)

  • Kim, Donghui;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.429-432
    • /
    • 2020
  • 본 논문에서는 카메라의 포커싱과 아웃포커싱에 의해 이미지에서 뿌옇게 표현되는 DoF(Depth of field, 피사계 심도) 영역을 합성곱 신경망을 통해 찾는 방법을 제안한다. 우리의 접근 방식은 RGB채널기반의 상호-상관 필터를 이용하여 DoF영역을 이미지로부터 효율적으로 분류하고, 합성곱 신경망 네트워크에 학습하기 위한 데이터를 구축하며, 이렇게 얻어진 데이터를 이용하여 이미지-DoF가중치 맵 데이터 쌍을 설정한다. 학습할 때 사용되는 데이터는 이미지와 상호-상관 필터 기반으로 추출된 DoF 가중치 맵을 이용하며, 네트워크 학습 단계에서 수렴률을 높이기 위해 스무딩을 과정을 한번 더 적용한 결과를 사용한다. 본 논문에서 제안하는 합성곱 신경망은 이미지로부터 포커싱과 아웃포커싱된 DoF영역을 자동으로 추출하는 과정을 학습시키기 위해 사용된다. 테스트 결과로 얻은 DoF 가중치 이미지는 입력 이미지에서 DoF영역을 빠른 시간 내에 찾아내며, 제안하는 방법은 DoF영역을 사용자의 ROI(Region of interest)로 활용하여 NPR렌더링, 객체 검출 등 다양한 곳에 활용이 가능하다.

  • PDF