• 제목/요약/키워드: differential privacy

검색결과 42건 처리시간 0.02초

A Differential Privacy Approach to Preserve GWAS Data Sharing based on A Game Theoretic Perspective

  • Yan, Jun;Han, Ziwei;Zhou, Yihui;Lu, Laifeng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권3호
    • /
    • pp.1028-1046
    • /
    • 2022
  • Genome-wide association studies (GWAS) aim to find the significant genetic variants for common complex disease. However, genotype data has privacy information such as disease status and identity, which make data sharing and research difficult. Differential privacy is widely used in the privacy protection of data sharing. The current differential privacy approach in GWAS pays no attention to raw data but to statistical data, and doesn't achieve equilibrium between utility and privacy, so that data sharing is hindered and it hampers the development of genomics. To share data more securely, we propose a differential privacy preserving approach of data sharing for GWAS, and achieve the equilibrium between privacy and data utility. Firstly, a reasonable disturbance interval for the genotype is calculated based on the expected utility. Secondly, based on the interval, we get the Nash equilibrium point between utility and privacy. Finally, based on the equilibrium point, the original genotype matrix is perturbed with differential privacy, and the corresponding random genotype matrix is obtained. We theoretically and experimentally show that the method satisfies expected privacy protection and utility. This method provides engineering guidance for protecting GWAS data privacy.

로컬 차분 프라이버시 실제 적용 사례연구 : 프라이버시 보존형 설문조사 (Case Study on Local Differential Privacy in Practice : Privacy Preserving Survey)

  • 정수용;홍도원;서창호
    • 정보보호학회논문지
    • /
    • 제30권1호
    • /
    • pp.141-156
    • /
    • 2020
  • 차분 프라이버시는 데이터 프라이버시를 보존함과 동시에 데이터를 수집 및 분석할 수 있는 기법으로써 프라이버시 보존형 데이터 활용 분야에서 널리 적용되고 있다. 이러한 차분 프라이버시의 지역적 모델인 로컬 차분 프라이버시 알고리즘은 무작위 응답을 기반으로 데이터 소유자가 직접 데이터를 가공 처리하여 공개한다. 따라서 개인은 데이터 프라이버시를 보장받을 수 있으며, 데이터 분석가는 수집된 다수의 데이터를 통해 유용한 통계적 결과값을 도출할 수 있다. 이러한 로컬 차분 프라이버시 기법은 세계적 기업인 Google, Apple, Microsoft에서 실질적으로 사용자의 데이터를 수집 및 분석할 때 활용되고 있다. 본 논문에서는 현실에 실질적으로 활용되고 있는 로컬 차분 프라이버시 기법에 대해 비교분석한다. 또한, 실제 적용 사례 연구로써 개인의 프라이버시가 결과의 신뢰성에 큰 영향을 미치는 설문 및 여론조사 시나리오를 기반으로 로컬 차분 프라이버시 기법을 적용하여 현실에서의 활용 가능성에 대해 연구한다.

Differential Privacy in Practice

  • Nguyen, Hiep H.;Kim, Jong;Kim, Yoonho
    • Journal of Computing Science and Engineering
    • /
    • 제7권3호
    • /
    • pp.177-186
    • /
    • 2013
  • We briefly review the problem of statistical disclosure control under differential privacy model, which entails a formal and ad omnia privacy guarantee separating the utility of the database and the risk due to individual participation. It has born fruitful results over the past ten years, both in theoretical connections to other fields and in practical applications to real-life datasets. Promises of differential privacy help to relieve concerns of privacy loss, which hinder the release of community-valuable data. This paper covers main ideas behind differential privacy, its interactive versus non-interactive settings, perturbation mechanisms, and typical applications found in recent research.

A Study on an Efficient and Robust Differential Privacy Scheme Using a Tag Field in Medical Environment

  • Kim, Soon-Seok
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권11호
    • /
    • pp.109-117
    • /
    • 2019
  • 최근 의료분야에서 대용량 의료정보의 이차적인 활용에 관심이 대두되고 있다. 대용량 의료정보의 경우 질병에 대한 연구나 예방 등에 활용되어 의료분야의 발전에 기여할 수 있는 유용한 정보이다. 그러나 개인정보보호법이나 의료법 등으로 인해, 의료정보는 환자나 의료진 등의 개인정보를 포함하고 있기 때문에 이차적인 활용에 많은 제한이 발생한다. 이러한 문제를 해결하기 위해 현재까지 k-익명성[1], l-다양성[2], 그리고 차분 프라이버시[3] 등 다양한 방법들이 제안되어 왔다. 본 논문에서는 지금까지 연구된 다양한 방법들 중 라플라스 노이즈를 이용한 그리고 이전에 제안된 차분 프라이버시 방법들의 문제점들에 대해 논의해보고자 한다. 끝으로 우리는 분석가들로부터의 질의에 대한 응답을 확인하기 위해 주어진 데이터 집합의 마지막 컬럼에 1 비트의 상태필드를 추가하여 기존의 문제점을 해결하는 새로운 방법에 대해 제안해 보고자 한다.

An Uncertain Graph Method Based on Node Random Response to Preserve Link Privacy of Social Networks

  • Jun Yan;Jiawang Chen;Yihui Zhou;Zhenqiang Wu;Laifeng Lu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권1호
    • /
    • pp.147-169
    • /
    • 2024
  • In pace with the development of network technology at lightning speed, social networks have been extensively applied in our lives. However, as social networks retain a large number of users' sensitive information, the openness of this information makes social networks vulnerable to attacks by malicious attackers. To preserve the link privacy of individuals in social networks, an uncertain graph method based on node random response is devised, which satisfies differential privacy while maintaining expected data utility. In this method, to achieve privacy preserving, the random response is applied on nodes to achieve edge modification on an original graph and node differential privacy is introduced to inject uncertainty on the edges. Simultaneously, to keep data utility, a divide and conquer strategy is adopted to decompose the original graph into many sub-graphs and each sub-graph is dealt with separately. In particular, only some larger sub-graphs selected by the exponent mechanism are modified, which further reduces the perturbation to the original graph. The presented method is proven to satisfy differential privacy. The performances of experiments demonstrate that this uncertain graph method can effectively provide a strict privacy guarantee and maintain data utility.

차분 프라이버시를 만족하는 안전한 GAN 기반 재현 데이터 생성 기술 연구 (A Study on Synthetic Data Generation Based Safe Differentially Private GAN)

  • 강준영;정수용;홍도원;서창호
    • 정보보호학회논문지
    • /
    • 제30권5호
    • /
    • pp.945-956
    • /
    • 2020
  • 많은 응용프로그램들로부터 양질의 서비스를 제공받기 위해서 데이터 공개는 필수적이다. 하지만 원본 데이터를 그대로 공개할 경우 개인의 민감한 정보(정치적 성향, 질병 등)가 드러날 위험이 있기 때문에 원본 데이터가 아닌 재현 데이터를 생성하여 공개함으로써 프라이버시를 보존하는 많은 연구들이 제안되어왔다. 그러나 단순히 재현 데이터를 생성하여 공개하는 것은 여러 공격들(연결공격, 추론공격 등)에 의해 여전히 프라이버시 유출 위험이 존재한다. 본 논문에서는 이러한 민감한 정보의 유출을 방지하기 위해, 재현 데이터 생성 모델로 주목받고 있는 GAN에 최신 프라이버시 보호 기술인 차분 프라이버시를 적용하여 프라이버시가 보존되는 재현 데이터 생성 알고리즘을 제안한다. 생성 모델은 레이블이 있는 데이터의 효율적인 학습을 위해 CGAN을 사용하였고, 데이터의 유용성 측면을 고려하여 기존 차분 프라이버시보다 프라이버시가 완화된 Rényi 차분 프라이버시를 적용하였다. 그리고 생성된 데이터의 유용성에 대한 검증을 다양한 분류기를 통해 실시하고 비교분석하였다.

비밀 분산 기법을 이용한 강건한 디퍼렌셜 프라이버시 개선 방안에 관한 연구 (Study on Robust Differential Privacy Using Secret Sharing Scheme)

  • 김철중;여광수;김순석
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제7권2호
    • /
    • pp.311-319
    • /
    • 2017
  • 최근 대용량 의료정보의 이차적인 활용에 대한 관심과 함께 의료정보 내의 개인정보에 대한 프라이버시 침해 문제에 대한 관심 또한 대두되고 있다. 대용량 의료정보의 경우 질병 연구, 예방 등 다양한 분야에서 활용될 수 있는 매우 유용한 정보이다. 이러한 대용량 의료정보의 경우 환자, 의료인 등에 대한 개인정보를 포함하고 있기 때문에 개인정보보호법과 같은 프라이버시 관련 법률에 저촉되어 활용에 많은 제한이 존재한다. 현재까지 k-익명성, l-다양성, 디퍼렌셜 프라이버시 등 의료정보 내의 개인정보를 보호하면서 대용량 의료정보의 이차적인 활용을 가능하게 하는 다양한 방법들이 개발되어 활용되어오고 있다. 본 논문에서는 지금까지 개발된 다양한 방법들 중 디퍼렌셜 프라이버시의 처리 절차에 대해 알아보고 라플라스 노이즈를 사용하는 디퍼렌셜 프라이버시가 가지고 있는 문제점들에 대해 알아본다. 또한 AES와 같은 대칭키 암호화 알고리즘과 Shamir의 비밀 분산 기법을 이용하여 이에 대한 해결책을 새롭게 제안한다.

AI 환경에서 모델 전도 공격에 안전한 차분 프라이버시 기술 (Differential Privacy Technology Resistant to the Model Inversion Attack in AI Environments)

  • 박철희;홍도원
    • 정보보호학회논문지
    • /
    • 제29권3호
    • /
    • pp.589-598
    • /
    • 2019
  • 온라인상에 축적되는 디지털 데이터의 양은 폭발적으로 증가하고 있으며 이러한 데이터들은 매우 큰 잠재적 가치를 갖고 있다. 국가 및 기업들은 방대한 양의 데이터로부터 다양한 부가가치를 창출하고 있으며 데이터 분석 기술에 많은 투자를 하고 있다. 그러나 데이터 분석에서 발생하는 프라이버시 문제는 데이터의 활용을 저해하는 큰 요인으로 작용하고 있다. 최근 신경망 모델 기반의 분석 기술에 대한 프라이버시 침해 공격들이 제안됨에 따라 프라이버시를 보존하는 인공 신경망 기술에 대한 연구가 요구되고 있다. 이에 따라 엄격한 프라이버시를 보장하는 차분 프라이버시 분야에서 다양한 프라이버시 보존형 인공 신경망 기술에 대한 연구가 수행되고 있지만, 신경망 모델의 정확도와 프라이버시 보존 강도 사이의 균형이 적절하지 않은 문제점이 있다. 본 논문에서는 프라이버시와 모델의 성능을 모두 보존하고 모델 전도 공격에 저항성을 갖는 차분 프라이버시 기술을 제안한다. 또한, 프라이버시 보존 강도에 따른 모델전도 공격의 저항성을 분석한다.

프라이버시 침해에 대응하는 분할 학습 모델 연구 (A Study of Split Learning Model to Protect Privacy)

  • 유지현;원동호;이영숙
    • 융합보안논문지
    • /
    • 제21권3호
    • /
    • pp.49-56
    • /
    • 2021
  • 현대의 인공지능은 사회를 구성하는 필수적인 기술로 여겨지고 있다. 특히, 인공지능에서 프라이버시 침해 문제는 현대 사회에서 심각한 문제로 자리 잡고 있다. 개인정보보호를 위해 2019년 MIT에서 제안된 분할 학습은 연합 학습의 기술 중 하나로 개인정보보호 효과를 지닌다. 본 연구에서는 데이터를 안전하게 관리하기 위해 알려진 차분 프라이버시를 이용하여 안전하고 정확한 분할 학습 모델을 연구한다. 또한, SVHN과 GTSRB 데이터 세트를 15가지의 차등적인 차분 프라이버시를 적용한 분할 학습 모델에 학습시키고 학습이 안정적으로 되는지를 확인한다. 최종적으로, 학습 데이터 추출 공격을 진행하여, 공격을 예방하는 차분 프라이버시 예산을 MSE를 통해 정량적으로 도출한다.

연합 학습 환경에서의 Task-Specific Adaptive Differential Privacy 메커니즘 평가 방안 연구 (Study on Evaluation Method of Task-Specific Adaptive Differential Privacy Mechanism in Federated Learning Environment)

  • 우타리예바 아쎔;최윤호
    • 정보보호학회논문지
    • /
    • 제34권1호
    • /
    • pp.143-156
    • /
    • 2024
  • 연합 학습(FL)은 여러 공동 작업자 간에 분산된 모델 학습을 위한 강력한 방법론으로 부상해 데이터 공유의 필요성을 없애준다. FL은 데이터 프라이버시를 보호하는 기능으로 호평을 받고 있지만, 다양한 유형의 프라이버시 공격으로부터 자유롭지 않다. 대표적인 개인정보 보호 기술인 차분 프라이버시(DP)는 이러한 취약점에 대응하기 위해 널리 사용된다. 이 논문에서는 기존의 작업별 적응형 DP 메커니즘을 FL 환경에 적용해 성능을 평가한다. 포괄적인 분석을 통해 다양한 DP 메커니즘이 공유 글로벌 모델의 성능에 미치는 영향을 평가하며, 특히 다양한 데이터 배포 및 분할 스키마에 주의를 기울인다. 이를 통해, FL에서 개인정보 보호와 유용성 간의 복잡한 상호 작용에 대한 이해를 심화하고, 성능 저하 없이 데이터를 보호할 수 있는 검증된 방법론을 제공한다.