• 제목/요약/키워드: AI Ethics

검색결과 78건 처리시간 0.031초

인공지능윤리교육의 국내 연구 동향 분석 (Analysis of Domestic Research Trends in AI Ethics Education)

  • 김경주
    • 디지털산업정보학회논문지
    • /
    • 제19권4호
    • /
    • pp.29-44
    • /
    • 2023
  • This study examined research trends in AI ethics education and attempted to suggest a direction for AI ethics education. As a result of the research, two studies were conducted in 2017. There are no studies in 2018 and 2019, and there are 6 studies in 2020. Since then, research has continued to increase, with 19 studies in 2021 and 18 studies in 2022. There were a total of 37 lead authors of the study. There were six lead authors who had published papers for more than two years, and two lead authors who had published papers for more than three years. In addition, to examine the details of AI ethics education, a total of 265 keywords that went through a refining process were divided into education-related, ethics-related, AI-related, and other-related. Although the necessity and importance of research on AI ethics education is expected to increase, there are not many researchers who continuously conduct research on AI ethics education. Accordingly, there is a need to find ways to continue research on AI ethics education. AI ethics education is being conducted under various names such as moral education, ethics education, liberal arts education, and AI education. Accordingly, research on AI ethics education at various levels and forms should be conducted, not just educational research on artificial intelligence ethics in terms of regular subjects.

Exploring AI Principles in Global Top 500 Enterprises: A Delphi Technique of LDA Topic Modeling Results

  • Hyun BAEK
    • 한국인공지능학회지
    • /
    • 제11권2호
    • /
    • pp.7-17
    • /
    • 2023
  • Artificial Intelligence (AI) technology has already penetrated deeply into our daily lives, and we live with the convenience of it anytime, anywhere, and sometimes even without us noticing it. However, because AI is imitative intelligence based on human Intelligence, it inevitably has both good and evil sides of humans, which is why ethical principles are essential. The starting point of this study is the AI principles for companies or organizations to develop products. Since the late 2010s, studies on ethics and principles of AI have been actively published. This study focused on AI principles declared by global companies currently developing various products through AI technology. So, we surveyed the AI principles of the Global 500 companies by market capitalization at a given specific time and collected the AI principles explicitly declared by 46 of them. AI analysis technology primarily analyzed this text data, especially LDA (Latent Dirichlet Allocation) topic modeling, which belongs to Machine Learning (ML) analysis technology. Then, we conducted a Delphi technique to reach a meaningful consensus by presenting the primary analysis results. We expect to provide meaningful guidelines in AI-related government policy establishment, corporate ethics declarations, and academic research, where debates on AI ethics and principles often occur recently based on the results of our study.

기업의 윤리적 인공지능 기반 서비스 개발을 위한 정책수단 연구: AHP를 활용한 탐색적 분석 (A Study on Policy Instrument for the Development of Ethical AI-based Services for Enterprises: An Exploratory Analysis Using AHP)

  • 장창기;이민상;성욱준
    • 한국IT서비스학회지
    • /
    • 제22권2호
    • /
    • pp.23-40
    • /
    • 2023
  • Despite the growing interest and normative discussions on AI ethics, there is a lack of discussion on policy instruments that are necessary for companies to develop AI-based services in compliance with ethical principles. Thus, the purpose of this study is to explore policy instruments that can encourage companies to voluntarily comply with and adopt AI ethical standards and self-checklists. The study reviews previous research and similar cases on AI ethics, conducts interviews with AI-related companies, and analyzes the data using AHP to derive action plans. In terms of desirability and feasibility, Research findings show that policy instruments that induce companies to ethically develop AI-based services should be prioritized, while regulatory instruments require a cautious approach. It was also found that a consulting support policy consisting of experts in various fields who can support the use of AI ethics, and support for the development of solutions that adhere to AI ethical standards are necessary as incentive policies. Additionally, the participation and agreement of various stakeholders in the process of establishing AI ethical standards are crucial, and policy instruments need to be continuously supplemented through implementation and feedback. This study is significant as it presents the necessary policy instruments for companies to develop ethical AI-based services through an analytical methodology, moving beyond discursive discussions on AI ethical principles. Further analysis on the effectiveness of policy instruments linked to AI ethical principles is necessary for establishing ethical AI-based service development.

AI 윤리와 규제에 관한 표준 프레임워크 설정 방안 연구 (A Study on How to Set up a Standard Framework for AI Ethics and Regulation)

  • 남문희
    • 한국융합학회논문지
    • /
    • 제13권4호
    • /
    • pp.7-15
    • /
    • 2022
  • 정보와 기술의 탈중앙화/분권, 공유/개방, 연결을 통한 개별 맞춤 시대의 지능화 세계 지향으로 그 어느 때 보다도 인공지능에 대한 관심과 기술적 담론 속에 기대와 우려가 교차하는 경향을 자주 보게 된다. 최근에는 2045년 전, 후로 AI의 특이성(Singularity)이 나타날 것이라는 미래학자들의 주장도 쉽게 찾아볼 수 있다. 이제는 다가올 인공지능 시대에서 AI와 함께 상생하고 번영하는 공존 패러다임을 만들기 위한 준비의 일환으로 보다 올바른 AI 윤리와 규제 설정을 위한 표준 프레임워크가 요구되고 있다. 주요지침 설정 누락의 위험성 배제와 타당하고 보다 합리적인 지침 항목과 평가 기준을 가늠 할 수 있는 방안이 점차 큰 연구문제로 나타나고 있기 때문이다. 이런 연구문제 해결과 동시에 AI 윤리와 규제 설정에 대한 지속적인 경험과 학습효과가 연결 발전될 수 있도록 국제기구/국가/기업의 AI 윤리와 규제에 대한 가이드 라인 자료 등을 수집하여 설정 연구모형과 텍스트 마이닝 탐색 분석을 통해 표준 프레임워크(SF: Standard Framework) 설정 방안을 연구 제시한다. 본 연구결과는 향후 보다 발전적인 AI 윤리와 규제지침 항목 설정과 평가 방안연구에 기초 선행연구 자료로 기여될 수 있을 것이다.

인공지능 윤리 원칙 Seoul PACT를 적용한 지능형 전자정부 서비스 윤리 가이드라인 (Seoul PACT : Principles of Artificial Intelligence Ethics and its Application Example to Intelligent E-Government Service)

  • 김명주
    • 한국IT서비스학회지
    • /
    • 제18권3호
    • /
    • pp.117-128
    • /
    • 2019
  • The remarkable achievements of the artificial intelligence in recent years are also raising awareness about its potential risks. Several governments and public organizations have been proposing the artificial intelligence ethics for sustainable development of artificial intelligence by minimizing potential risks. However, most existing proposals are focused on the developer-centered ethics, which is not sufficient for the comprehensive ethics required for ongoing intelligent information society. In addition, they have chosen a number of principles as the starting point of artificial intelligence ethics, so it is not easy to derive the guideline flexibly for a specific member reflecting its own situation. In this paper, we classify primitive members who need artificial intelligence ethics in intelligent information society into three : Developer, Supplier and User. We suggest a new artificial intelligence ethics, Seoul PACT, with minimal principles through publicness (P), accountability (A), controllability (C), and transparency (T). In addition, we provide 38 canonical guidelines based on these four principles, which are applicable to each primitive members. It is possible for a specific member to duplicate the roles of primitive members, so that the flexible derivation of the artificial intelligence ethics guidelines can be made according to the characteristics of the member reflecting its own situation. As an application example, in preparation for applying artificial intelligence to e-government service, we derive a full set of artificial intelligence ethics guideline from Seoul PACT, which can be adopted by the special member named Korean Government.

The Threat of AI and Our Response: The AI Charter of Ethics in South Korea

  • Hwang, Ha;Park, Min-Hye
    • Asian Journal of Innovation and Policy
    • /
    • 제9권1호
    • /
    • pp.56-78
    • /
    • 2020
  • Changes in our lives due to Artificial Intelligence (AI) are currently ongoing, and there is little refutation of the effectiveness of AI. However, there have been active discussions to minimize the side effects of AI and use it responsibly, and publishing the AI Charter of Ethics (AICE) is one result of it. This study examines how our society is responding to threats from AI that may emerge in the future by examining various AIECs in the Republic of Korea. First, we summarize seven AI threats and classify these into three categories: AI's value judgment, malicious use of AI, and human alienation. Second, from Korea's seven AICEs, we draw fourteen topics based on three categories: protection of social values, AI control, and fostering digital citizenship. Finally, we review them based on the seven AI threats to evaluate any gaps between the threats and our responses. The analysis indicates that Korea has not yet been able to properly respond to the threat of AI's usurpation of human occupations (jobs). In addition, although Korea's AICEs present appropriate responses to lethal AI weapons, these provisions will be difficult to realize because the competition for AI weapons among military powers is intensifying.

초거대 인공지능 정책 변동과정에 관한 연구 : 옹호연합모형을 중심으로 (A Study on the Process of Policy Change of Hyper-scale Artificial Intelligence: Focusing on the ACF)

  • 최석원;이주연
    • 시스템엔지니어링학술지
    • /
    • 제18권2호
    • /
    • pp.11-23
    • /
    • 2022
  • Although artificial intelligence(AI) is a key technology in the digital transformation among the emerging technologies, there are concerns about the use of AI, so many countries have been trying to set up a proper regulation system. This study analyzes the cases of the regulation policies on AI in USA, EU and Korea with the aim to set up and improve proper AI policies and strategies in Korea. In USA, the establishment of the code of ethics for the use of AI is led by private sector. On the other side, Europe is strengthening competitiveness in the AI industry by consolidating regulations that are dispersed by EU members. Korea has also prepared and promoted policies for AI ethics, copyright and privacy protection at the national level and trying to change to a negative regulation system and improve regulations to close the gap between the leading countries and Korea in AI. Moreover, this study analyzed the course of policy changes of AI regulation policy centered on ACF(Advocacy Coalition Framework) model of Sabatier. Through this study, it proposes hyper-scale AI regulation policy recommendations for improving competitiveness and commercialization in Korea. This study is significant in that it can contribute to increasing the predictability of policy makers who have difficulties due to uncertainty and ambiguity in establishing regulatory policies caused by the emergence of hyper-scale artificial intelligence.

실천력 강화를 위한 인공지능 윤리 교육 모델 (An Artificial Intelligence Ethics Education Model for Practical Power Strength)

  • 배진아;이정훈;조정원
    • 산업융합연구
    • /
    • 제20권5호
    • /
    • pp.83-92
    • /
    • 2022
  • 인공지능 기술로 인한 사회·윤리적 문제 사례가 발생하면서 인공지능의 위험과 부작용에 대한 사회적 관심과 함께 인공지능 윤리가 주목받고 있다. 인공지능 윤리는 알고, 느끼는 것에 그치는 것이 아니라 행동과 실천으로 이루어져야 한다. 이에 본 논문은 인공지능 윤리의 실천력을 강화하기 위한 인공지능 윤리 교육 모델을 제안하고자 한다. 인공지능 윤리교육 모델은 선행 연구 분석을 통해 교육목표와 인공지능을 이용한 문제해결 프로세스를 도출하고, 실천력 강화를 위한 교수학습방법을 적용하였으며 기존에 제안된 인공지능 교육 모델과 비교 분석하여 그 차이를 도출하였다. 본 논문에서 제안하는 인공지능 윤리 교육 모델은 컴퓨팅 사고력 함양과 인공지능 윤리의 실천력 강화를 목표로 한다. 이를 위해 인공지능을 이용한 문제해결 프로세스를 6단계로 제안하고, 인공지능 특성을 반영한 인공지능 윤리요소를 도출하여 문제해결 프로세스에 적용하였다. 또한, 인공지능 윤리 의식에 대한 사전·사후 평가와 과정 평가를 통해 인공지능 윤리 기준을 무의식적으로 확인하게 하고, 학습자 중심의 교수학습방법을 적용하여 학습자의 윤리 실천을 습관화하도록 설계하였다. 본 연구를 통해 개발된 인공지능 윤리 교육 모델이 컴퓨팅 사고력을 함양하고, 인공지능 윤리가 실천으로 이어지는 인공지능 교육이 될 수 있을 것으로 기대한다.

인공지능기술 윤리성 인식 척도개발 연구 (Development and Validation of Ethical Awareness Scale for AI Technology)

  • 김도연;고영화
    • 디지털융복합연구
    • /
    • 제20권1호
    • /
    • pp.71-86
    • /
    • 2022
  • 본 연구의 목적은 인공지능 기술 또는 서비스를 수용하는 사용자의 윤리성 인식을 측정하기 위한 척도 개발 및 타당화에 있다. 이를 위해 인공지능 윤리성 관련 문헌 분석을 통해 구성개념 및 속성을 확인하였다. 전국의 10대-70대 남녀 133명(개방형 설문:1차 문항), 273명(예비조사:2차 문항), 500명(본조사:최종 문항)을 대상으로 실시한 온라인 설문조사 결과를 확인적 요인분석에 의해 정제하여 최종적으로 인공지능기술 윤리성 척도를 개발하였다. 인공지능기술 윤리성 인식 척도는 총 4개 요인(투명성, 안전성, 공정성, 책임성) 16개 문항으로 개발하여 일반적인 인공지능기술 관련 윤리성 인식을 세부 요인별로 측정할 수 있도록 하였다. 개발된 척도를 활용하여 다양한 분야의 측정 변인들과의 관련성을 밝힐 수 있을 것이며, 인공지능기술 발전의 초기 단계에서 윤리성 인식을 높이기 위한 기초 데이터를 제공하는 데 중요한 역할을 할 것으로 기대한다.

5G 정보환경 정보전문가를 위한 윤리 리터러시 교육과정 모형연구 (Ethics-Literacy Curriculum Modeling for Ethical Practice of 5G Information Professionals)

  • 유사라
    • 한국비블리아학회지
    • /
    • 제33권1호
    • /
    • pp.139-166
    • /
    • 2022
  • 본 연구는 5G 신기술에 가장 민감한 세대의 윤리 행태를 권장하는 일환으로 미래 정보전문가를 희망하는 주체를 위한 윤리 리터러시(Ethics-Literacy) 교육과정모형 개발을 목적으로 한다. 연구 범위의 핵심 주제인 5G 특성, 리터러시, 윤리 쟁점, 6C 역량기반 교육, 이용자 경험 등을 주제어로 최근 5년 이내(2022-2017) 출간된 국내외 학술 연구자료를 조사하고 내용분석으로 최종 86편을 연구대상으로 선정하여 문헌 연구가 진행되었다. 분석 결과가 제시하는 것은 첫째, 기존의 리터러시는 5G 환경에 대응된 네 영역으로 구분될 수 있고 둘째, 분석된 윤리 쟁점은 모든 리터러시 영역에서 보이는 공통 쟁점과 각 리터러시 영역별 특수 쟁점으로 비교 구분되었다. 분석된 결과와 4차 산업혁명 교육방식으로 제시된 6C 역량기반 교육을 바탕으로 대학 차원의 5G 정보환경 정보전문가를 위한 윤리 리터러시 교육과정모형을 개발하여 제시하였다.