• 제목/요약/키워드: scene graph

검색결과 71건 처리시간 0.041초

모바일 플랫폼을 위한 장면그래프 라이브러리 개발 (Development of Scene Graph Library for Mobile Platforms)

  • 김준호;서진석;박창훈;황재인;고희동
    • 한국멀티미디어학회논문지
    • /
    • 제13권5호
    • /
    • pp.792-801
    • /
    • 2010
  • 본 논문에서는 모바일 플랫폼을 위한 범용적인 그래픽스 미들웨어로써, 모바일 장면그래프 라이브러리인 '모바일 OpenSceneGraph (모바일 OSG)'를 제안하고 그 개발 사례를 소개한다. 제안하는 모바일 그래픽스 미들웨어는 데스크탑 환경에서 그래픽스 미들웨어로 널리 쓰이고 있는 OpenSceneGraph를 모바일 환경에 적합하도록 재설계하였으며, 이를 통해 범용성, 확장성, 모바일 플랫폼 UI 지원, 호환성 등의 특성을 확보하였다. 복잡한 가상환경의 실시간 렌더링, 터치 UI 기반의 카메라 조작, 노드 전환을 통한 애니메이션 등과 같은 예시 응용프로그램을 통해 제안하는 모바일 장면 그래프 라이브러리의 효용성을 보이도록 한다.

3차원 가상 실내 환경을 위한 심층 신경망 기반의 장면 그래프 생성 (Deep Neural Network-Based Scene Graph Generation for 3D Simulated Indoor Environments)

  • 신동협;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권5호
    • /
    • pp.205-212
    • /
    • 2019
  • 장면 그래프는 영상 내 물체들과 각 물체 간의 관계를 나타내는 지식 그래프를 의미한다. 본 논문에서는 3차원 실내 환경을 위한 3차원 장면 그래프를 생성하는 모델을 제안한다. 3차원 장면 그래프는 물체들의 종류와 위치, 그리고 속성들뿐만 아니라, 물체들 간의 3차원 공간 관계들도 포함한다. 따라서 3차원 장면 그래프는 에이전트가 활동할 실내 환경을 묘사하는 하나의 사전 지식 베이스로 볼 수 있다. 이러한 3차원 장면 그래프는 영상 기반의 질문과 응답, 서비스 로봇 등과 같은 다양한 분야에서 유용하게 활용될 수 있다. 본 논문에서 제안하는 3차원 장면 그래프 생성 모델은 크게 물체 탐지 네트워크(ObjNet), 속성 예측 네트워크(AttNet), 변환 네트워크(TransNet), 관계 예측 네트워크(RelNet) 등 총 4가지 부분 네트워크들로 구성된다. AI2-THOR가 제공하는 3차원 실내 가상환경들을 이용한 다양한 실험들을 통해, 본 논문에서 제안한 모델의 높은 성능을 확인할 수 있었다.

3차원 가상공간의 저작을 위한 VRML 파서와 Scene Graph 생성기의 설계 및 구현 (Design and Implementation of the VRML Parser and Scene Graph Generator for Authoring of 3D Virtual Space)

  • 전영훈;허도영;이종석;황대훈
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 1998년도 추계학술발표논문집
    • /
    • pp.155-160
    • /
    • 1998
  • VRML 파서는 VRML(.wrl) 파일을 읽기 위하여 반드시 필요한 부분으로서, 이미 공개되어 있는 것으로는 C/C++ 코드의 QvLib1.0과 Yacc & Lex로 개발한 VRML2.0 파서가 있다. 그러나 QvLib1.0의 경우 VRML2.0 파일에 적용할 수 없으며, Yacc & Lex로 개발한 파서는 생성된 소스 코드를 수정하기 어려울 뿐만 아니라 이를 수정하기 위해서는 자동 생성기인 Yacc & Lex의 사용 방법을 잘 알고 있어야 한다. 이에 본 논문에서는 C/C++ 코드의 VRML2.0 파서를 설계 및 구현하고 파싱의 결과로 생성된 parse tree를 이용하여 VRML 파일을 scene graph로 bygus할 수 있도록 하는 Scene Graph 생성기의 구현과정을 소개하였다. 또한 본 연구의 파서와 Scene Graph 생성기를 기 개발된 VRML 저작도구에 적용 및 테스트하였다.

  • PDF

Multimodal Context Embedding for Scene Graph Generation

  • Jung, Gayoung;Kim, Incheol
    • Journal of Information Processing Systems
    • /
    • 제16권6호
    • /
    • pp.1250-1260
    • /
    • 2020
  • This study proposes a novel deep neural network model that can accurately detect objects and their relationships in an image and represent them as a scene graph. The proposed model utilizes several multimodal features, including linguistic features and visual context features, to accurately detect objects and relationships. In addition, in the proposed model, context features are embedded using graph neural networks to depict the dependencies between two related objects in the context feature vector. This study demonstrates the effectiveness of the proposed model through comparative experiments using the Visual Genome benchmark dataset.

항공 시뮬레이터를 위한 OpenSceneGraph기반의 고도 정보 구현 방안 (Implementation of Altitude Information for Flight Simulator in OpenSceneGraph)

  • 이충재;김종범;김기일
    • 대한임베디드공학회논문지
    • /
    • 제9권1호
    • /
    • pp.11-16
    • /
    • 2014
  • When it comes to develop flight simulator, HAT (Height Above Terrain) is required to provide altitude information to the pilot who learns how to control an airplane in landing and takeoff situation. However, there might be inconsistent problem between real terrain and simulation information since current implementation of HAT simply depends on center of gravity point on the airplane. To overcome mentioned problem, in this paper, we propose how to obtain more accurate altitude information than existing scheme by making use of HAT and HOT (Height Of Terrain) information of landing equipments according to movement of the airplane. Moreover, we demonstrate the accuracy of the proposed scheme through new flight simulator developed through OSG(OpenSceneGraph) by taking example of terrain information for domestic airport.

A Novel Two-Stage Training Method for Unbiased Scene Graph Generation via Distribution Alignment

  • Dongdong Jia;Meili Zhou;Wei WEI;Dong Wang;Zongwen Bai
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권12호
    • /
    • pp.3383-3397
    • /
    • 2023
  • Scene graphs serve as semantic abstractions of images and play a crucial role in enhancing visual comprehension and reasoning. However, the performance of Scene Graph Generation is often compromised when working with biased data in real-world situations. While many existing systems focus on a single stage of learning for both feature extraction and classification, some employ Class-Balancing strategies, such as Re-weighting, Data Resampling, and Transfer Learning from head to tail. In this paper, we propose a novel approach that decouples the feature extraction and classification phases of the scene graph generation process. For feature extraction, we leverage a transformer-based architecture and design an adaptive calibration function specifically for predicate classification. This function enables us to dynamically adjust the classification scores for each predicate category. Additionally, we introduce a Distribution Alignment technique that effectively balances the class distribution after the feature extraction phase reaches a stable state, thereby facilitating the retraining of the classification head. Importantly, our Distribution Alignment strategy is model-independent and does not require additional supervision, making it applicable to a wide range of SGG models. Using the scene graph diagnostic toolkit on Visual Genome and several popular models, we achieved significant improvements over the previous state-of-the-art methods with our model. Compared to the TDE model, our model improved mR@100 by 70.5% for PredCls, by 84.0% for SGCls, and by 97.6% for SGDet tasks.

MPEG-4재생기에서의 효율적인 장면 구성기 (An Effective Scene Compositor in MPEG-4 Player)

  • 이현주;김상욱
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권12호
    • /
    • pp.1611-1620
    • /
    • 2004
  • MPEG-4는 객체의 삽입/삭제/교체 또는 객체의 속성 변경을 통하여 동적인 장면 구성을 지원한다. 기존의 MPEG-4 재생기들은 MPEG-4 표준에 따라 멀티미디어 데이타를 전송하고 재생하는데 치중하여 MPEG-4의 특징인 다양한 객체의 지원이나 동적인 장면 구성의 지원이 미흡했다 본 논문에서는 MPEG-4 재생기의 핵심 구성요소인 효율적인 장면 구성기를 제안한다. 장면 구성기는 장면 그래프를 효율적으로 탐색하고, 자료구조를 생성하여 객체 정보를 그 특성에 맞게 관리하며, 상호작용 처리 능력을 향상시킨 최적의 처리기이다. 장면 구성기는 장면 기술 정보를 충분히 지원하며, 구성요소 확장과 모바일 환경에 적용하기 위해 재생기에서 독립적으로 관리된다.

무인 자동차의 주변 환경 인식을 위한 도시 환경에서의 그래프 기반 물체 분할 방법 (Graph-based Segmentation for Scene Understanding of an Autonomous Vehicle in Urban Environments)

  • 서보길;최윤근;노현철;정명진
    • 로봇학회논문지
    • /
    • 제9권1호
    • /
    • pp.1-10
    • /
    • 2014
  • In recent years, the research of 3D mapping technique in urban environments obtained by mobile robots equipped with multiple sensors for recognizing the robot's surroundings is being studied actively. However, the map generated by simple integration of multiple sensors data only gives spatial information to robots. To get a semantic knowledge to help an autonomous mobile robot from the map, the robot has to convert low-level map representations to higher-level ones containing semantic knowledge of a scene. Given a 3D point cloud of an urban scene, this research proposes a method to recognize the objects effectively using 3D graph model for autonomous mobile robots. The proposed method is decomposed into three steps: sequential range data acquisition, normal vector estimation and incremental graph-based segmentation. This method guarantees the both real-time performance and accuracy of recognizing the objects in real urban environments. Also, it can provide plentiful data for classifying the objects. To evaluate a performance of proposed method, computation time and recognition rate of objects are analyzed. Experimental results show that the proposed method has efficiently in understanding the semantic knowledge of an urban environment.

VR Juggler와 OpenSceneGraph를 이용한 가상현실 사용자 인터페이스 프레임워크 (Design and Implementation of An VR User Interface Framework Using VR Juggler and OpenSceneGraph)

  • 허영주
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 춘계학술발표대회
    • /
    • pp.457-459
    • /
    • 2012
  • 가상현실 환경은 사용자가 데이터와 상호작용하면서 직관적으로 데이터를 인지할 수 있게 해주는 인터페이스를 제공한다. 이런 가상현실 환경은 고해상도 디스플레이 장치에서 사실상 유일하게 사용할 수 있는 사용자 친화적인 인터페이스 방식이기도 하다. 본 논문에서는 고해상도 디스플레이 장치를 이용한 몰입형 가상현실 환경에서 사용되는 사용자 인터페이스 프레임워크를 소개하기로 한다. 이 인터페이스 프레임워크는 VR Juggler와 OSG(OpenSceneGraph)를 기반으로 하며, 다양한 형태의 디스플레이 장치를 이용한 몰입형 가상현실 환경에서 사용자가 가상현실과 상호작용하는데 필요한 기반 환경을 제공한다.

데이터 가시화를 위한 VR Juggler와 OpenSceneGraph를 이용한 통합 사용자 인터페이스 (An Integrated User Interface for Visualizing User Data Using VR Juggler and OpenSceneGraph)

  • 허영주
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 추계학술발표대회
    • /
    • pp.455-458
    • /
    • 2011
  • 컴퓨터에서 생성된 시뮬레이션 결과는 가시화(Visualization)라는 과정을 통해 인간이 직관적으로 해석하기 쉬운 형태로 가공된다. 사람이 직관적으로 이해하기 어려운 수치의 나열로 구성돼 있던 데이터가 컴퓨터 그래픽스 기술의 적용을 통해 보다 쉽게 분석할 수 있는 형태로 변형되는 것이다. 최근에는 이런 시뮬레이션 데이터의 크기와 복잡도가 점점 증가하고 있는 추세로, 이런 추세에 따라 고해상도 디스플레이 장치나 몰입형 가상현실 장치의 필요성은 점점 증가하고 있다. 이런 이유로 클러스터 시스템을 이용한 고해상도의 디스플레이 장치에서 해당 시스템에 대한 전문적인 지식을 갖추지 않은 일반 연구자가 상호작용할 수 있는 사용자 인터페이스에 대한 필요성도 높아지고 있다. 본 논문에서는 고해상도 디스플레이 장치에서 데이터를 가시화하는 프레임워크와 그 프레임워크에서 사용하는 통합 환경 인터페이스를 소개하기로 한다. 이 인터페이스는 VR Juggler와 OSG(OpenSceneGraph)를 기반으로 하며, 다양한 형태의 디스플레이 장치와 몰입형 가상현실 환경에서 시뮬레이션 데이터와 실시간 상호작용을 통한 해석을 수행하는데 필요한 기반 환경을 제공한다.