• 제목/요약/키워드: research data

검색결과 69,841건 처리시간 0.073초

빅데이터 보안 분야의 연구동향 분석 (A Review of Research on Big Data Security)

  • 박서기;황경태
    • 정보화정책
    • /
    • 제23권1호
    • /
    • pp.3-19
    • /
    • 2016
  • 본 연구의 목적은 빅데이터 보안 분야의 기존 연구를 분석하고, 향후 연구 방향을 모색하는 것이다. 이를 위해 국내외의 총62편의 논문을 식별하여, 발간년도, 게재 매체, 전반적인 연구접근 방법, 세부적 연구 방법, 연구 주제 등을 분석하였다. 분석 결과, 빅데이터 보안 연구는 매우 초기 단계로서, 비실증 연구가 압도적인 비중을 차지하고 있고, 관련 개념/기법에 대한 이해를 해나가는 과정으로서 기술-관리-통합의 단계로 진화한 정보보안 분야의 연구 동향에 동조하여 기술적인 연구가 주로 진행되고 있다. 연구 주제 측면에서도 빅데이터 보안에 대한 전반적인 이슈를 다룬 총론적인 연구들이 보안 구현 방법론, 분야별 이슈 등의 각론적 연구에 비해 높은 비중을 나타내는 등 초기 단계의 모습을 나타내고 있다. 향후 유망한 연구 분야로는 빅데이터 보안에 대한 전반적인 프레임워크 수립, 업종별 빅데이터 보안에 대한 연구, 빅데이터 보안 관련 정부 정책 분석 등을 들 수 있다. 빅데이터 보안 분야의 연구는 본격적으로 시작된 지 얼마 되지 않아, 연구 결과가 상대적으로 매우 부족한 편이다. 앞으로 다양한 관점에서 빅데이터 보안과 관련해 풍부한 주제를 다루는 연구가 진행되기를 기대한다.

보건의료 빅데이터를 활용한 연구방법 및 한의학 레지스트리의 필요성 (Application of Health Care Big data and Necessity of Traditional Korean Medicine Data Registry)

  • 한경선;하인혁;이준환
    • 한방비만학회지
    • /
    • 제17권1호
    • /
    • pp.46-53
    • /
    • 2017
  • Health care big data is thought to be a promising field of interest for disease prediction, providing the basis of medical treatment and comparing effectiveness of different treatments. Korean government has begun an effort on releasing public health big data to improve the quality and safety of medical care and to provide information to health care professionals. By studying population based big data, interesting outcomes are expected in many aspects. To initiate research using health care big data, it is crucial to understand the characteristics of the data. In this review, we analyzed cases from inside and outside the country using clinical data registry. Based on successful cases, we suggest research method for evidence-based Korean medicine. This will provide better understanding about health care big data and necessity of Korean medicine data registry network.

Ethical Conducts in Qualitative Research Methodology :Participant Observation and Interview Process

  • KANG, Eungoo;HWANG, Hee-Joong
    • 연구윤리
    • /
    • 제2권2호
    • /
    • pp.5-10
    • /
    • 2021
  • Purpose: Ethical behaviors become more salient when researchers utilize face-to-face interviews and observation with vulnerable groups or communities, which may be unable to express their emotions during the sessions. The present research aims to investigate ethical behaviors while conducting research have resonance due to the deep nature of observation and interview data collection methods. Research design, data and methodology: The present research obtained non-numeric (Textual) data based on prior literature review to investigate Ethical Conducts in Qualitative Research. Non-numeric data differs from numeric data in how the data is collected, analyzed and presented. It is important to formulate written questions and adopt them what the method claims for the researcher to understand the studied phenomenon. Results: Our findings show that while conducting qualitative research, researchers must adhere to the following ethical conducts; upholding informed consent, confidentiality and privacy, adhering to beneficence's principle, practicing honesty and integrity. Each ethical conduct is discoursed in detail to realize more information on how it impacts the researcher and research participants. Conclusions: The current authors concludes that five ethical conducts are important for realizing extensive and rich information during qualitative research and may be exploited in implementing research policies for researchers utilizing observation and interviews methods of data collection.

데이터 리터러시 역량 강화 방안에 관한 연구 - 연구데이터 관리 교육을 중심으로 - (A Study on Data Literacy Competency Building Measures: Focusing on Research Data Management Education)

  • 김주섭;김선태
    • 한국문헌정보학회지
    • /
    • 제57권1호
    • /
    • pp.115-137
    • /
    • 2023
  • 이 연구의 목적은 국내 대학 및 연구기관의 소속 연구자를 위한 연구데이터 관리 교육 프로그램 개발을 위한 가이드를 제시하는 것이다. 해당 프로그램 가이드를 제시하기 위하여 먼저, 해외 연구데이터 관리를 위한 교육 프로그램을 조사 및 분석하였다. 조사 및 분석 대상 교육 프로그램은 RDMRose, RDMLA, DataONE, 캐나다 디지털 연구 연합, NNLM, 파르테노스 그리고 Coursera이다. 또한 해당 교육 프로그램의 적절성을 확인하기 위하여 국내에서 연구된 데이터 리터러시 세부 역량을 통해 검토하였다. 검토 결과 데이터 리터러시 세부 역량을 대부분 충족하고 있었다. 마지막으로 조사 및 분석한 연구데이터 관리 교육 프로그램을 종합하여 연구자를 위한 프로그램 가이드를 제시하였다. 본 연구의 결과는 대학 및 기관에 소속된 연구자에게 체계적으로 지원하고 활성화할 수 있는 연구데이터 관리 교육 프로그램 개발에 도움이 될 것이다.

Design of Spatial Data Synchronization System in Mobile Environment

  • Lee Hyejin;Kim Jinsuk
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2004년도 Proceedings of ISRS 2004
    • /
    • pp.245-248
    • /
    • 2004
  • In this paper, we propose a framework for synchronization of spatial data between mobile devices and a server by using SyncML(Synchronization Markup Language) that is standard specification for synchronization protocol. We used GML (Geographic Markup Language) to support interoperability of spatial data between various data sources. We also used metadata and catalog service to access and integrate distributed spatial data, considering relationships of spatial data and non-spatial data.

  • PDF

가공송전 전선 자산데이터의 정제 자동화 알고리즘 개발 연구 (Automatic Algorithm for Cleaning Asset Data of Overhead Transmission Line)

  • Mun, Sung-Duk;Kim, Tae-Joon;Kim, Kang-Sik;Hwang, Jae-Sang
    • KEPCO Journal on Electric Power and Energy
    • /
    • 제7권1호
    • /
    • pp.73-77
    • /
    • 2021
  • As the big data analysis technologies has been developed worldwide, the importance of asset management for electric power facilities based data analysis is increasing. It is essential to secure quality of data that will determine the performance of the RISK evaluation algorithm for asset management. To improve reliability of asset management, asset data must be preprocessed. In particular, the process of cleaning dirty data is required, and it is also urgent to develop an algorithm to reduce time and improve accuracy for data treatment. In this paper, the result of the development of an automatic cleaning algorithm specialized in overhead transmission asset data is presented. A data cleaning algorithm was developed to enable data clean by analyzing quality and overall pattern of raw data.

Derivation of SST using MODIS direct broadcast data

  • Chung, Chu-Yong;Ahn, Myoung-Hwan;Koo, Ja-Min;Sohn, Eun-Ha;Chung, Hyo-Sang
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2002년도 Proceedings of International Symposium on Remote Sensing
    • /
    • pp.638-643
    • /
    • 2002
  • MODIS (MODerate-resolution Imaging Spectroradiometer) onboard the first Earth Observing System (EOS) satellite, Terra, was launched successfully at the end of 1999. The direct broadcast MODIS data has been received and utilized in Korea Meteorological Administration (KMA) since february 2001. This study introduces utilizations of this data, especially for the derivation of sea surface temperature (SST). To produce the MODIS SST operationally, we used a simple cloud mask algorithm and MCSST algorithm. By using a simple cloud mask algorithm and by assumption of NOAA daily SST as a true SST, a new set of MCSST coefficients was derived. And we tried to analyze the current NASA's PFSST and new MCSST algorithms by using the collocated buoy observation data. Although the number of collocated data was limited, both algorithms are highly correlated with the buoy SST, but somewhat bigger bias and RMS difference than we expected. And PFSST uniformly underestimated the SST. Through more analyzing the archived and future-received data, we plan to derive better MCSST coefficients and apply to MODIS data of Aqua that is the second EOS satellite. To use the MODIS standard cloud mask algorithm to get better SST coefficients is going to be prepared.

  • PDF

국가 차원의 연구데이터 관리체계 구축을 위한 로드맵 제안 - 영국 사례 분석을 중심으로 - (Developing a Roadmap for National Research Data Management Governance: Based on the Analysis of United Kingdom's Case)

  • 심원식
    • 한국문헌정보학회지
    • /
    • 제49권4호
    • /
    • pp.355-378
    • /
    • 2015
  • 최근 미국, 영국, 호주 등의 국가에서는 국가 연구비 지원사업을 통해 수행된 연구에서 생산되는 연구데이터의 체계적인 관리와 공유를 시행하기 위한 다양한 정책이 실시되고 있다. 하지만 우리나라에서는 아직 구체적인 관련 정책이 부재하다. 또한 연구데이터의 공유 및 보존을 지원하는 관련 인프라가 구축되지 않아 막대한 국가 R&D 예산이 투입되어 생산된 연구데이터가 관리되지 않고 유실되고 있는 상황이다. 연구데이터의 수집, 관리 및 공유는 전통적인 성과관리상의 필요를 넘어 연구성과의 확산 및 경제발전의 견인 요인으로 작용한다. 또한 데이터의 공개는 연구수행에 있어서 연구윤리가 당연히 지켜져야 하는 것과 같으며 데이터 공개를 통해 보다 윤리적이고 효과적인 연구 환경을 만들 수 있다. 본 연구에서는 그 동안 개별 정책 차원에서 연구데이터의 공유 현황이 조사되었던 것에 반해 국가적인 차원에서 어떤 정책이나 도구를 통해 연구데이터가 수집되고 공유되고 있는지를 사례조사의 방법을 통해 연구하였다. 영국의 경우 연구데이터의 공유에 대한 국가적인 차원의 공통 원칙과 더불어 학문분야별로 다양한 정책 및 시행 방법을 운영하고 있다는 점에서 비교적 넓은 폭의 정책수단에 대한 장단점 분석이 가능하다. 구체적으로 영국의 연구데이터 공개와 관련된 법률적 기반을 살펴보고 국가연구비 지원기관인 RCUK(Research Councils UK) 산하 7개 연구비 지원기관과 산하 데이터센터, 그리고 관련 지원 기관의 기능을 중심으로 정책과 현황을 조사하였다. 조사 결과를 바탕으로 향후 우리나라의 국가 차원에서의 연구데이터 관리 및 공유체계 구축을 위한 로드맵을 제시하였다.

국내 인문사회 연구데이터 아카이브의 개선방안에 관한 연구 (A Study on the Improvement Plans of the Humanities and Social Sciences Research Data Archives in Korea)

  • 신영란;정연경
    • 한국기록관리학회지
    • /
    • 제12권3호
    • /
    • pp.93-115
    • /
    • 2012
  • 본 연구는 국내 인문사회 연구데이터 아카이브의 개선방안을 제안하고자 문헌연구를 통해 인문사회 연구데이터의 의의와 데이터 아카이브의 개념 및 요건에 대한 이론적 토대를 마련하였다. 기초학문자료센터(KRM)에 대한 분석과 국내외 총 9개 아카이브에 대한 사례조사를 실시하였으며, 인문사회분야 연구자 총 10명을 대상으로 심층 면담을 진행하였다. 국내 인문사회 연구데이터 아카이브의 개선방안으로는 첫째, 한국연구재단(NRF)과 인문사회분야의 사업 영역별 데이터 아카이브의 협력체계 구축을 제안하였다. 둘째, 데이터 큐레이션을 바탕으로 연구데이터의 생애주기에 따라 협력체계에서 역할을 수행하는 인문사회 연구데이터 아카이브의 개념적 모형을 설계하였다.

지중 송전케이블 자산데이터의 자동 정제 알고리즘 개발연구 (Automatic Cleaning Algorithm of Asset Data for Transmission Cable)

  • Hwang, Jae-Sang;Mun, Sung-Duk;Kim, Tae-Joon;Kim, Kang-Sik
    • KEPCO Journal on Electric Power and Energy
    • /
    • 제7권1호
    • /
    • pp.79-84
    • /
    • 2021
  • The fundamental element to be kept for big data analysis, artificial intelligence technologies and asset management system is a data quality, which could directly affect the entire system reliability. For this reason, the momentum of data cleaning works is recently increased and data cleaning methods have been investigating around the world. In the field of electric power, however, asset data cleaning methods have not been fully determined therefore, automatic cleaning algorithm of asset data for transmission cables has been studied in this paper. Cleaning algorithm is composed of missing data treatment and outlier data one. Rule-based and expert opinion based cleaning methods are converged and utilized for these dirty data.