DOI QR코드

DOI QR Code

Perceptions of Benefits and Risks of AI, Attitudes toward AI, and Support for AI Policies

AI의 혜택 및 위험성 인식과 AI에 대한 태도, 정책 지지의 관계

  • 이자연 (가천대학교 미디어커뮤니케이션학과)
  • Received : 2021.02.26
  • Accepted : 2021.03.29
  • Published : 2021.04.28

Abstract

Based on risk-benefit theory, this study examined a structural equation model accounting for the mechanisms through which affective perceptions of AI predicting individuals' support for the government's Ai policies. Four perceived characteristics of AI (i.e., usefulness, entertainment value, privacy concern, threat of human replacement) were investigated in relation to perceived benefits/risks, attitudes toward AI, and AI policy support, based on a nationwide sample of South Korea (N=352). The hypothesized model was well supported by the data: Perceived usefulness was a strong predictor of perceived benefit, which in turn predicted attitude and support. Perceived benefit and attitude played significant roles as mediators. Perceived entertainment value along with perceived usefulness and privacy concern predicted attitude, not perceived benefit. Neither attitude nor support was significantly associated with perceived risk which was predicted by privacy concern. Theoretical and practical implications of the results are discussed.

정부가 '전산업 AI 활용, 전국민 AI 교육'을 국가적 과제로 추진하고 있는 가운데, 본 연구는 설문 자료 분석을 통해 국민의 AI 정책에 대한 지지에 영향을 끼치는 요인들을 파악하고자 하였다. 구체적으로 위험-혜택 이론과 이중처리 이론에 기반해 사람들이 지각하는 AI의 상반된 특성들이 어떻게 혜택 및 위험성 인식으로 연결되며 AI에 대한 전반적 태도와 AI 산업 육성 및 교육 정책의 지지로 이어지는지 구조방정식 모형을 통해 탐색하고, 그 과정에서 혜택/위험성 인식 및 태도가 매개 변인으로서 기능하는지 살펴보았다. 분석 결과, AI의 알려진 특성들 가운데 인지된 유용성이 AI의 혜택 인식을 구성하는 주요소였으며 이 혜택 인식이 AI에 대한 태도를 거쳐 AI 정책 지지로 유의하게 이어진다는 점이 드러났다. 또한 혜택 인식과 AI에 대한 태도가 지각된 유용성을 AI 정책 지지로 잇는 매개 역할을 유의하게 수행하는 것을 알 수 있었다. 인지된 오락성은 AI에 대한 긍정적 태도로 유의하게 이어졌지만 AI의 혜택으로 인식되지는 않았다. 인지된 사생활 침해는 AI의 위험성 인식을 예측하는 주된 요인이었지만 위험성 인식은 AI에 대한 태도나 AI 정책 지지와 유의한 관계를 보이지 않았다. 결론적으로 AI 개발 지지 여부를 결정짓는 가장 강력한 요인은 혜택에 대한 인식이며, 혜택 인식을 유의하게 예측한다는 점에서 유용성 지각의 중요성을 알 수 있었다.

Keywords

Ⅰ. 서론

대한민국 정부는 2019년말 ‘IT 강국을 넘어 AI 강국으로’라는 슬로건 하에 ‘AI 국가전략’을 발표하고 본격적인 AI 육성 정책을 추진하고 있다[1]. 전산업 AI 활용, 전국민 AI 교육 등을 통한 ’AI 생태계 구현’이 국가적 비전이 된 것이다. 미디어 산업에서도 AI의 영향력이 해마다 증대되고 있다. 포털사이트를 비롯해 SNS, 동영상 및 영화 스트리밍 플랫폼, 휴대폰 비서 서비스, 음성 인식 스피커 등이 AI 알고리듬에 의존해 콘텐츠를 추천하고 웹사이트마다 AI 챗봇들이 소비자 상담을 해준다. AI 관련 제품 및 서비스 판매 기업들은 AI가 인간의 일손을 덜어주는 비서이자 외로움을 달래주는 친구도 된다고 광고한다. 이제 사용자들의 미디어 경험은 AI 알고리듬에 의해 디자인된다고 해도 과언이 아니다. 기존의 ‘컴퓨터 매개 커뮤니케이션’ ‘인간-컴퓨터 상호작용’ 분야가 조만간 ‘AI 기반 커뮤니케이션’ ‘인간-AI 상호작용’이 될 것이라는 말도 나온다[2].

불과 십여 년 전까지만 해도 대중에게 알려진 AI는 공상과학 영화 속 지능형 로봇 캐릭터 정도였다. AI가 국내에서 전국민적 이슈로 부상한 것은 2016년 3월 AI 바둑 프로그램 알파고가 프로기사 이세돌 9단과의 대국에서 5전 4승으로 크게 승리했을 때일 것이다. 이 사건은 같은 해 있었던 클라우스 슈밥 세계경제포럼 회장의 ‘4차 산업혁명’ 선언과 함께 AI가 조만간 인간의 자리를 빼앗을 것이라는 우려가 확산되는 계기가 되었다. 최근에는 ‘첫 AI 친구’를 표방했던 챗봇 ‘이루다’ 사건을 계기로 차별, 혐오의 확산, 사생활 침해 등의 문제가 제기되었다

이처럼 AI에 대해선 ‘유용한 비서’ ‘대화 친구’에서부터 ‘국가 경쟁력과 취업을 위해 배워야 할 대상’ ‘인류에의 위협’ ‘차별적 목소리’ ‘개인 정보 도둑’에 이르기까지 다양한 이미지가 존재한다. 짧은 기간 동안 언론과 기업 광고, 정부 정책 등을 통해 등장한 이 같은 프레임들은 AI에 대한 긍정적, 부정적인 감정을 모두 반영한다. 개인이 AI에 대해 갖고 있는 생각도 마찬가지로 복합적, 양가(兩價)적일 가능성이 높다.

정부가 전 국민 AI 강국 건설을 범정부적 과제로 추진하고 있는 만큼, 국민이 AI에 대해 어떤 인식과 태도를 가지고 있는지 정확히 파악하고 그것이 정책에 대한 태도와 어떻게 연결되는지 이해하는 것이 필요하다. AI는 산업뿐 아니라 인간의 정체성과 관계, 사회 구조까지 바꾸어놓을 수 있는 혁명적 기술이기 때문에 새로운 사회협약 차원의 합의가 요구된다고 전문가들은 지적한다[3]. 정부, 기업, 전문가 중심의 하달식 의사결정이 아닌, 현장의 필요와 정서를 바탕으로 한 숙의 과정이 필요하다[4]. 특히 AI처럼 역기능 논란이 있는 신기술은 개발을 기정사실로 두고 향후 영향을 따지기 전에 개발 단계에서부터 정당성에 대해 시민들에게 알리고 이해를 구해야 한다는 지적이 나온다[5]. ‘공중에 대한 이해 및 조사 부족’은 정책홍보 커뮤니케이션의 문제 유형 중 첫번째로 꼽히는 문제다[6]. ‘공중 집단의 조사, 파악’ ‘맞춤형 정보제공’ ‘공중의 이해와 동의 획득’은 국가 정책홍보 커뮤니케이션의 주요 실천 목표다. 그러나 현재 AI에 대한 논의는 관련업계에 종사하는 일부 전문가들의 시각에 치중돼 있으며, 대중의 인식이나 의견에 대해선 충분한 조사나 논의가 이루어지지 못하고 있다. 신기술 개발에 대한 국가적 비전은 인간의 철학이 기반이 되어야 함에도, 사회 구성원인 일반 국민들의 입장이 AI에 관한 연구나 정책 결정 과정에서 거의 배제되어 있는 실정이다.

이에 따라 본 연구는 AI기술에 대한 일반 대중의 시각을 이해하는 데 초점을 맞추었다. 시민들이 AI의 잠재적 위험성과 혜택을 어떻게 인식하고 있으며 AI에 대해 전반적으로 어떤 정서적 태도를 갖고 있는지 설문조사를 통해 파악하고, 이 같은 인식과 태도가 AI 개발 정책에 대한 지지와 어떻게 연결되는지 구조방정식모형 (structural equation modeling, SEM)을 써서 분석하였다. 또한 매개효과 분석을 통해 AI의 유용성과 오락성, 사생활 침해와 무력화에 대한 인식이 태도 및 정책 지지도로 이어지는 과정을 혜택 인식과 위험성 인식이 각각 매개하는지 살펴보았다. 본 연구 결과는 정책 결정의 중심이 되어야 할 국민의 AI에 대한 기본적인 인식과 태도를 파악하고 AI 개발 정책 지지에 영향을 끼칠 수 있는 주요 요인들을 이해하는 첫걸음이 될 것이다.

Ⅱ. 이론적 배경

새로운 기술은 동전의 양면과 같아서 혜택과 위험요인이 공존하기 마련이며 인류에게 기회이자 위기가 될 수 있다[7]. 실제로 마이크로소프트 창업자 빌 게이츠나 테슬라 창업자 일론 머스크, 애플의 공동 창업자 스티브 워즈니악 등은 모두 AI가 향후 인류에게 큰 위협이 될 것이라고 예측한 바 있다[8][9]. 생전에 “과학기술을 진보시키기 전에 대중과 사회가 그에 따른 변화를 수용 할 수 있는 준비가 돼야 한다”고 강조했던 물리학자 스티븐 호킹은 2017년 “인류가 AI에 대처하는 방법을 익히지 못한다면 AI가 인류를 멸망시킬 수도 있다”고 경고했다. 스튜어트 러셀 버클리대 교수 등 AI 위험론자들은 AI가 전쟁과 범죄, 사생활 침해를 가져올 가능성을 지적하며 위험한 로봇 개발에 대한 사전 규제를 강력히 주장한다[10]. 닉 보스트롬 옥스퍼드대 교수도 “기업들이 이윤을 올리기 위해 천문학적인 돈을 AI에 투자하는 데 대한 가이드라인을 만들어야 한다”고 강조한다. 이들은 AI 알고리듬이 개발자의 성향 및 데이터의 특성에 따라 편향성을 갖기 마련이며 악용될 경우 정치 군사적인 영향력으로 이어질 가능성이 있다고 지적한다[11].

그러자 AI 위험론이 지나치게 과장돼 있으며 AI가 인간처럼 되는 것을 최소한 수십년간 불가능하다는 주장도 뒤따라 부상했다. MIT 컴퓨터공학과 AI 연구소 소장인 로봇학자 로드니 브룩스는 “AI가 인류에 위협이 된다고 주장하는 사람들의 공통점은 AI업계에서 직접 일하지 않는 사람들”이라고 일축한다[12]. 포모나대 게리 스미스 교수는 “AI가 인간을 위협할 만큼 똑똑해지는 일은 가까운 미래에는 일어나지 않을 것”이라고 단언한다[13]. 2016년 AI 연구자 80명이 참여한 미국의 전미 AI 학회(AAAI) 펠로우들 대상 설문조사에선 응답자 67.5%가 인간처럼 사고하는 ‘초지능’이 나타나기까지 최소 25년 이상 걸릴 것이라고 예측했다[14]. 10명 중 9명은 자신들이 은퇴할 때까지 초지능이 등장하지 못 할 것이라고 답했다[15]. 이런 가운데 뉴욕대의 개리 마커스 교수는 AI의 미래에 대한 공포심이 AI 연구를 어렵게 만든다고 비판했다[16].

인간을 이성적으로 사고해서 최선의 결과를 위해 행동하는 존재로 보는 경제학의 합리적 선택이론에 따르면 개인의 선택은 그 선택이 가져올 혜택과 치러야 할 대가(비용)를 분석(cost-benefit analysis)한 결과다. 즉, 혜택과 비용을 어느 정도로 보는지를 알면 해당 행동에 개입할 확률을 예측할 수 있다고 본다[17]. 합리적 선택이론을 위험 인식 연구에 적용한 위험-혜택 이론은 비용 대신 잠재적 위험성을 혜택과 비교한다. 즉, 신기술의 지지 및 수용 의도를 개인이 신기술이 가져올 것으로 보는 혜택과 위험성을 저울질한 결과로 보는 것이다[18]. 초기에는 위험과 혜택의 상대적 비율을 대상에 대한 지지 및 수용의도를 예측하는 변인으로 사용했으나 최근에는 혜택과 위험을 독립적인 변인으로 보고 따로 측정하는 추세다. 따라서 AI 정책 지지 여부를 이해하기 위해선 사람들이 AI의 혜택과 위험성을 어느 정도라고 인식하고 있는지 파악해야 한다. 혜택이나 위험성 모두 행동 의도에 영향을 끼치지만 선행연구에선 종종 혜택의 영향이 위험성보다 더 큰 것으로 나타났다 [19][20].

합리적 선택이론에 기반해 사회 구성원의 기술 수용 의도에 영향을 끼치는 요인을 분석하는 또다른 이론으로 기술수용모형(technology acceptance model, TAM)이 있다[21]. 이는 개인이 당장 도입 가능한 기술의 수용의도를 분석할 때 더 적합한 모형으로 유용성과 함께 용이성을 주요 예측변인으로 본다. 그러나 정부가 연구, 개발, 교육하고자 하는 AI 기술은 개인이 당장 구매할 수 있는 상품과 서비스를 넘어서는 광범위한 영역에 해당하며, 사용의 어려움보다 인류에 초래될 위험성이 정책 지지의 장벽으로 작용하는 경우인 만큼 기술수용모형보다 위험-혜택 이론적 시각이 이론적 틀로 더 적합하다고 판단된다.

AI 기술의 혜택으로 알려진 대표적인 특성으로는 유용성(편의성)과 오락성이 있다. 지각된 유용성은 이 기술을 사용함으로써 목적을 충족시킬 수 있다고 생각되는 정도로, AI가 사용자의 생활을 편리하게 만들어 생산성을 높인다는 믿음이다[22]. 유용성은 기업 광고와 정부 정책 발표, 언론 보도 등에서 많이 강조되었으며 최근 한국리서치 여론 조사에서도 ‘AI 기술 발전으로 삶의 질이 더 좋아질 것’이라는 명제에 응답자 84%가 동의했다[23]. 지각된 오락성은 AI 기술이 사용자에게 즐거움을 줄 수 있다고 생각되는 정도로, 대화나 상호 작용이 가능한 AI 스피커, 챗봇, 반려 로봇 등이 소비자들의 관심을 끌면서 부상했다. 지각된 오락성은 지각된 유용성과 함께 대화형 AI 기반 서비스나 제품 사용 의도 및 만족도로 이어지는 특성으로 꼽힌다[22][24].

한편, 대중이 지각하는 AI의 위험성으로는 크게 사생활 침해와 무력화를 꼽을 수 있다. 사생활침해는 아직 업계에 윤리의식이나 교육 및 보안 시스템, 법적 안전망이 확립되지 않아서 AI 제품 및 서비스 개발 과정에서 사람들의 개인정보가 유출되거나 원치 않는 방식으로 사용될 우려가 있다는 인식이다. 여론조사기관 갤럽 이 세계 10개국 대상으로 실시한 조사에서도 응답자 42%가 개인 정보 수집, 추적 가능한 스마트폰 앱을 가능한 사용하지 않으려고 한다(23%)거나 사용은 하지만 꺼림직하게 느낀다(19%)고 밝혀, 개의치 않고 사용한다(19%)는 응답자의 두 배가 넘었다[25]. 국내에선 ‘이루다’ 사건 이후 개인정보 수집 및 유출 논란이 일었다. 무력화는 AI가 갈수록 인간의 일자리를 빼앗을 것이며 종국에는 인간의 통제를 벗어나 범죄를 일으키거나 인간을 지배할 수도 있다는 생각으로, ‘터미네이터’ ‘아이 로봇’ 같은 영화나 스티브 호킹 같은 AI 신중론자들의 경고에 근거한 위기의식이다. 최근 국내 조사에서도 응답자 64%가 AI 기술 발전이 자신의 일자리를 위협한다는 명제에 동의했다[23].

유용성과 오락성이 신기함과 즐거움 같은 긍정적 감정에 기반한 인식이라면 사생활 침해와 무력화는 불안함과 두려움 같은 부정적 감정을 내포한 인식이다. 위험-혜택 이론에 따라 전자는 AI의 혜택 인식과, 후자는 AI의 위험성 인식과 연결되고, 혜택과 위험성 인식은 각각 정적, 부적으로 AI 육성 정책에의 지지로 이어질 것으로 예상할 수 있다. 따라서 가설 1-4가 제기된다.

가설 1. 지각된 유용성(가), 오락성(나)이 높을수록 혜택 인식이 높을 것이다.

가설 2. 지각된 사생활 침해(가), 무력화(나)가 높을수록 위험성 인식이 높을 것이다.

가설 3. 혜택 인식이 높을수록 AI 정책 지지가 높을 것이다.

가설 4. 위험성 인식이 높을수록 AI 정책 지지가 낮을 것이다.

인식과 향후 행동(의도)을 매개하는 개념으로 태도가 있다. 사회심리학에서 태도는 대상에 대한 평가 또는 호감의 정도를 뜻한다. 혜택과 위험성 인식보다 더 포괄적인 평가를 의미하는 개념이며, 대상에 대한 해석, 판단, 행동 등에 영향을 끼칠 수 있는 중요한 변인이다 [26]. 고전 심리학에서는 태도를 인지적 요소인 신념, 감정적 요소인 호감도, 그리고 행동적 요소인 행동 의도 세 가지 요소로 나누기도 했지만 현대 심리학에서는 주로 감정적인 요소인 호감도만을 태도로 취급하고 인식과 행동 의도는 태도가 예측하거나 태도와 연관된 변인으로 분리해서 본다. 즉, 인식과 신념, 가치 등에 기반해 태도나 행동이 나오고, 태도에 기반해 대상에 대한 신념이나 행동(의도)이 도출된다고 본다[27-29].

설득 심리학 이론들은 인식과 태도, 행동의 관계를 제시해왔다. 정교화가능성모형(elaboration likelihood model, EML)[30] 등의 이론은 주어진 정보를 바탕으로 한 인식과 신념이 태도에 영향을 끼치는 과정을 보여준다. 합리적 행동이론(theory of reasoned action, TRA)은 태도가 규범 인식과 함께 행동(의도)에 영향을 끼치는 과정을 제시한다[31]. 이 이론들에 따르면 AI의 혜택과 위험성에 대한 인식은 AI에 대한 태도 및 행동 의도와 유의한 관계를 가질 것이다. AI의 혜택에 대한 인식은 AI에 대한 태도와 정적 관계를, 위험성에 대한 인식은 부적 관계를 보일 것이며, 태도는 좀 더 구체적인 태도이자 행동 예측 변인인 AI 정책 지지와 유의하게 관련될 것으로 예측할 수 있다. 이에 따라 가설 5-7이 제기된다.

가설 5. 혜택 인식이 높을수록 AI에 대한 태도가 긍정적일 것이다.

가설 6. 위험성 인식이 높을수록 AI에 대한 태도가 부정적일 것이다.

가설 7. AI에 대한 태도가 긍정적일수록 AI 정책 지지가 높을 것이다.

AI의 속성에 대한 지각이 혜택과 위험성 분석으로 이어지고 그 결과 태도가 형성되고 정책 지지여부 판단이 내려진다는 전통적 관점은 인간의 합리성을 가정한다. 그러나 이중처리 이론(dual-process theory)에 따르면, 면밀한 분석과 이성적 사고를 이용한 추론 방식(systematic process)뿐 아니라 눈에 띄는 단서를 활용한 빠르고 직관적인 방식(heuristic process)으로도 인식과 태도가 형성된다[32][33]. 인간을 ‘인지 구두쇠’로 보는 시각에 따르면 사람들은 자신에게 중요한 문제가 아닌 이상 후자의 방식을 택한다[18]. 합리적으로 추론할 만한 능력이나 정보가 부족할 때에도 후자가 작동한다. 첨단과학기술은 일반 대중이 심도 있는 지식을 갖기엔 낯설고 어려운 분야다. 따라서 신기술에 대해 대중은 단서에 기반해 직관적으로 판단한다[34]. 단서 중에서도 인지적 요인보다 감정적 요인이 태도에 더 큰 영향을 끼친다[35][36]. AI 기술에 대해서도 대중은 혜택과 위험성을 종합적으로 분석하기보다 감정에 따라 직관적으로 호불호를 결정할 가능성이 높다. 예컨대 AI가 즐거운 감정을 일으킨다면 AI의 혜택과 위험성을 종합해보는 인지적 추론 과정을 거치지 않고도 바로 AI에 대한 호감 및 지지 의사를 형성할 수 있다. 마찬가지로 AI가 불안감이나 공포심을 유발한다면 혜택과 위험성의 경중을 비교하지 않더라도 바로 AI에 대한 부정적 태도와 개발 반대로 이어질 수 있다. 따라서 가설 8-11이 제기된다.

가설 8. 지각된 유용성(가), 오락성(나)이 높을수록 AI에 대한 태도가 긍정적일 것이다.

가설 9. 지각된 사생활 침해(가), 무력화(나)가 높을수록 AI에 대한 태도가 부정적일 것이다.

가설 10. 지각된 유용성(가), 오락성(나)이 높을수록 AI 정책 지지가 높을 것이다.

가설 11. 지각된 사생활 침해(가), 무력화(나)가 높을수록 AI 정책 지지가 낮을 것이다.

유용성, 오락성, 사생활침해, 무력화 등 AI에 대한 기초 인식들이 AI의 혜택 및 위험성에 대한 인식을 거쳐서 혹은 거치지 않고 AI에 대한 태도 및 지지와 연결될 수 있다는 상기 가설들에 따라 혜택 및 위험성 인식이나 태도가 이 관계들을 매개하는지에 대한 의문이 제기된다. 매개할 경우, 완전 매개인지 부분 매개인지도 살펴볼 필요가 있다.

연구 문제1. 지각된 유용성(가), 오락성(나)과 태도의 관계를 혜택 인식이 매개하는가?

연구 문제2. 지각된 유용성(가), 오락성(나)과 정책 지지의 관계를 태도가 매개하는가?

연구 문제3. 지각된 사생활 침해(가), 무력화(나)와 태도의 관계를 위험성 인식이 매개하는가?

연구 문제4. 지각된 사생활 침해(가), 무력화(나)와 정책 지지의 관계를 태도가 매개하는가?

Ⅲ. 연구 방법

1. 표본

위의 가설 및 연구문제들을 위해 2021년 1월 27일부터 사흘간 설문조사 전문기업 마크로밀 엠브레인을 통해 모집된 만 20세 이상 남녀 352명(남성 49.7%, 여성 50.3%)을 대상으로 온라인 설문조사를 실시하였다. 전국 17개 시도에서 인구 비례로 표본을 수집했으며, 자발적으로 설문 참여에 동의한 패널 회원들에게 설문 링크가 제공되었다. [표 1]에 나타난 것처럼 20대부터 60대까지 전 연령대에서 약 20%씩 고루 참여했다(M=44.9, SD=13.67). 교육 수준은 4년제 대졸이 절반(51.4%)을 차지했고, 고졸 이하(23.6%), 직업학교 또는 2년제 대졸자(15.3%), 석사 수료 이상(9.7%) 순이었다. 월 평균 가구 수입은 200만-300만원이 가장 많았고(20.2%), 400만-500만원(19%), 300만-400만원(18.8%), 700만원 이상(11%), 600만-700만원(8.2%), 100만-200만원(6.3%), 100만원 미만 순이었다. 응답자의 정치 이념 평균은 7점 척도(매우 진보적~매우 보수적)에서 3.96(SD=.97)으로 중립에 가까웠다.

표 1. 기술 통계 결과

CCTHCV_2021_v21n4_193_t0001.png 이미지

2. 측정 변인

AI의 특성 인식들은 기존 설문조사나 유사한 선행연구를 바탕으로 작성하였으며 모두 ‘매우 이의’에서 ‘매우 동의’까지 7점으로 된 척도로 측정하였다. 지각된 유용성은 ‘일손을 덜어준다’ ‘생활을 편리하게 한다’ ‘효용성이 높다’(Chronbach’s α=.84; M=5.32, SD=.98), 지각된 오락성은 ‘관심이 간다’ ‘즐거움을 준다’ ‘재미있다’ (α=.84; M=4.25, SD=.1.80), 지각된 사생활 침해는 ‘내 정보를 빼갈 것 같다’ ‘데이터 수집과 관리가 올바르게 되는지 불안하다’ ‘개인 정보를 해킹 당할까 봐 걱정된다’(α=.85; M=4.79, SD=1.16), 지각된 무력화는 ‘인간의 통제를 벗어날 수도 있을 것 같아 두렵다’ ‘인간 직업을 위협한다’ ‘언젠가 인간을 지배할지도 모른다’(α =.88; M=4.86, SD=1.18)를 사용했다.

AI에 대한 태도는 ‘매우 부정적이다 - 매우 긍정적이다’ ‘매우 비호감이다 – 매우 호감 간다’ ‘아주 싫다 – 아주 좋다’의 3가지 항목으로 구성된 의무분화척도(semantic differential scale)를 이용해 7점 척도로 측정했다(Cronbach's α=.91). AI 정책 지지는 ‘각 산업 분야에서 AI가 개발, 도입되어야 한다’ ‘정부가 충분한 예산을 써서 AI 연구 개발을 지원해야 한다’ ‘온 국민이 AI를 더 잘 이해하도록 교육 여건이 제공돼야 한다’의 3가지 항목에 대해 ‘매우 이의’ - ‘매우 동의’의 7점 척도상 점수를 평균해 사용했다(Cronbach's α=.85). 각 변인들의 상관관계는 [표 2]에 제시하였다.

표 2. 이변량 상관관계 분석 결과

CCTHCV_2021_v21n4_193_t0002.png 이미지

통계적으로 유의한 관계를 실선으로 표시. 숫자는 표준화 계수와 표준 오차(괄호 안). j1: 관심이 간다, j2: 즐거움을 준다, j3: 재미있다, u1: 일손을 덜어준다, u2: 생활을 편리하게 한다, u3: 효용성이 높다. w1: 내 정보를 빼갈 것 같다, w2: 개인 정보를 해킹 당할까봐 걱정된다, f1: 인간의 통제를 벗어날 수도 있을 것 같아 두렵다, f2: 인간 직업을 위협한다, f3: 언젠가 인간을 지배할지도 모른다). 통계적으로 유의한 관계는 실선으로, 유의하지 않은 관계는 점선으로 표시. 숫자는 비표준화 계수와 표준 오차(괄호 안). *p<.05, **p<.01, ***p<.001

3. 분석 방법

본 연구는 MPlus 8.3을 이용한 구조방정식모형 분석으로 가설 검정을 시행하였다. 각각 세 항목으로 구성된 지각된 특성 변인들의 구조를 확인적 요인분석으로 검정했고 결측치 처리를 위해 FIML 방식을 사용했다. 측정모형과 경로모형을 결합한 구조 모형의 적합도 검정 및 매개효과 검정을 위해선 붓스트랩 기법(bootstrapping)을 사용했다[37]. 재추출 10,000회 결과 95% 신뢰구간 내에 0이 포함되지 않으면 매개효과가 있는 것으로 판단했다.

Ⅳ. 분석 결과

일단 표본의 기술통계 결과는 정부 비전과 응답자들의 반응 사이의 온도차를 반영했다. AI에 대한 응답자들의 태도는 7점 척도에서 평균 4.9점(SD=.99), AI 육성 및 교육 정책 지지도 5.2점(SD=0.92)으로 ‘AI 강국’을 건설한다는 정부의 의욕에 비해 다소 미지근한 반응이었다. 응답자들은 AI가 혜택이 약간 있다(5.4점)고 본 한편, 동시에 위험성도 약간 있다(4.8점)고 평가했다. AI 특성 변인들은 넷 다 중간점인 4보다 높은 동의를 얻었으며, 유용성에 대한 인식이 가장 높고 그 다음이 무력화와 사생활 침해, 오락성 인식 순이었다. 전반적으로 대중이 AI 기술을 혜택과 위험이 공존하는 양날의 검으로 인식하는 것을 알 수 있었다.

가설 검증에 앞서 확인적 요인분석을 통해 측정모형의 타당도를 [그림 1]에서 평가했다. 즉, 잠재변수인 지각된 유용성, 오락성, 사생활 침해, 무력화가 각각의 측정 항목들로 잘 설명되는지 살펴보았다. 결과적으로 사생활 침해의 두번째 항목이 타 변인들과 상관관계가 나타나 제거하였고, 나머지 11개 항목으로 구성된 측정모형의 적합도 지수는 χ²(38)=57.949, p=.020, RMSEA=.039, CFI=.988, SRMR=.028로 매우 우수한 적합도를 보였다. 표본수의 영향을 많이 받는 카이제곱을 제외하면 CFI가 .95 이상이고 SRMR이 .08미만, RMSEA가 .06 이하면 표본이 모형에 잘 부합한다고 보는 학계 기준[38][39]을 훨씬 웃도는 결과다.

CCTHCV_2021_v21n4_193_f0001.png 이미지

그림 1. AI 속성의 확인적 요인분석

joy=오락성, usef=유용성, worry=사생활 침해, fear=무력화. 통계적으로 유의한 관계는 실선으로, 유의하지 않은 관계는 점선으로 표시. 숫자는 비표준화 계수와 표준 오차(괄호 안). *p<.05, **p<.01, ***p<.001

다음으로 [그림 2]에서 측정모형에 경로모형을 결합한 구조방정식 모형의 적합도를 강건한 최대우도 (robust ML, MLR) 방식으로 평가했다[37]. 역시 자료에 잘 부합하는 매우 높은 수준의 적합도를 보였다(χ2(71)=95.205, p=.029, RMSEA=.031, CFI=.986, SRMR=.034).

CCTHCV_2021_v21n4_193_f0002.png 이미지

그림 2. 지각된 AI 속성들과 혜택/위험성 인식, 태도, 정책 지지의 구조방정식 분석

통계적으로 유의한 관계는 실선으로, 유의하지 않은 관계는 점선으로 표시. 숫자는 비표준화 계수와 표준 오차(괄호 안). 측정모형은 생략. *p<.05, **p<.01, ***p<.001

본격적으로 가설 검정을 위해 지각된 유용성, 오락성, 사생활 침해, 무력화가 혜택 및 위험성 인식의 관계를 살펴보았다. 지각된 유용성은 혜택 인식을(b=.387, SE=.105, p<.001), 사생활 침해는 위험성 인식을 (b=.292, SE=.094, p=.002) 유의하게 예측하는 한편, 오락성과 무력화는 혜택/위험성 인식과 유의한 관계를 보이지 않았다(b=.096, SE=.085, p=.258; b=.157, SE=.097, p=.104). 따라서 가설1(가)와 2(가)는 채택되었고, 1(나)와 2(나)는 기각되었다.

다음으로 가설 3-6 검정을 위해 혜택 및 위험성 인식이 AI 정책 지지 및 태도와 어떻게 연관되는지 살펴본 결과, 혜택 인식만 AI 정책 지지의 유의한 예측 변인으로 나타났다(b=.291, SE=.055, p<.001). 혜택 인식은 태도도 유의하게 예측했다(b=.142, SE=.056, p=.011). 위험성 인식은 정책 지지와는 유의한 관계가 없었고 (b=-.036, SE=.032, p=.259), 태도와는 경계적 유의성만 나타났다(b=-.066, SE=.039, p=.091). 따라서 가설 3과 5는 채택되고 가설4와 6은 기각되었다. 한편, 태도가 긍정적일수록 정책 지지도 유의하게 높아(b=.142, SE=.056, p=.011), 가설 7은 채택되었다.

이어서 지각된 유용성, 오락성, 사생활 침해, 무력화 가능성과 AI에 대한 태도 및 AI 정책 지지의 관계를 살펴 본 결과, 지각된 유용성만 AI 정책 지지를 유의하게 예측했으며(b=.290, SE=.085, p=.001) 나머지는 관련이 없었다. 태도와는 유용성(b=.176, SE=.056, p=.002), 오락성(b=.239, SE=.052, p<.001)이 정적으로, 무력화(b=-.121, SE=.058, p=.037)가 부적인 관계를 보였다. 이로써 가설 8(가), (나)와 9(가), 가설10(가)는 채택되고 나머지는 기각되었다.

결과를 종합해보면 지각된 유용성은 혜택 인식과 태도, 정책 지지를 모두 유의하게 예측했고, 지각된 오락성은 태도만 유의하게 예측했으며, 지각된 사생활 침해는 위험성 인식과 태도를, 지각된 무력화는 어느 것도 유의하게 예측하지 않았다. 혜택 인식은 태도와 정책 지지를 모두 예측했고, 태도는 정책 지지를 예측했다. 위험성 인식은 어느 것도 유의하게 예측하지 않았다.

다음으로 붓스트랩 기법을 이용해 연구문제 1-4에서 제기한 매개 효과를 검정하였다. 지각된 오락성(나)은 혜택 인식을 예측하지 않으므로 연구문제1로 지각된 유용성(가)과 태도 사이에서 혜택 인식의 매개 효과를 살펴 본 결과 유의하게 나타났다(b=.144, SE=.043, p=.001). 또한 유용성과 지지도와의 관계에서 혜택 인식과 태도를 순서대로 통과하는 매개 관계도 유의한 것으로 드러났다(b=.021, SE=.010, p=.048). 지각된 유용성이 정책 지지로 가는 직접 경로도 유의한 것 (b=.290, SE=.088, p=.001)에 비추어 혜택 인식과 태도를 통한 간접 경로는 완전 매개가 아닌 부분 매개 관계임을 알 수 있었다. 연구문제2(가)인, 혜택 인식을 통하지 않고 태도만 거쳐 정책 지지로 가는 매개 관계에서는 경계적 유의성만 발견되었다(b=.025, SE=.013, p=.062).

한편, 연구문제2(나)에서 제기한 지각된 오락성과 정책 지지 사이 태도의 매개 역할은 유의했다(b=.034, SE=.016, p=.032). 이때는 오락성과 정책 지지 사이의 직접 경로가 존재하지 않는 완전 매개 관계였다.

위험성 인식이 태도를 유의하게 예측하지 않아 연구 문제3은 성립하지 않게 되었다. 지각된 무력화는 위험 인식니아 태도를 예측하지 않아 연구 문제3-4에서 (나)는 제외하였다. 연구문제4(가)를 살펴본 결과, 지각된 사생활 침해가 태도를 예측하고 태도가 지지도를 예측했지만, 태도의 매개 효과는 유의하지 않았다(b=-.017, SE=.012, p=.146).

정리하자면 지각된 유용성, 오락성, 사생활 침해가 태도에 직접 영향을 줄 수 있고, 태도는 지지도에 영향을 줄 수 있지만, 지각된 유용성만 혜택 인식과 태도를 매개 변인으로 해서 정책 지지로 이어진다는 사실을 알 수 있었다. 위험성 인식은 어느 것도 유의하게 매개하지 않았다.

Ⅴ. 결론 및 논의

한 사회에서 과학 기술이 발전하고 적용되는 과정은 사회 구성원의 위험 인식 수준과 밀접하게 연관되어 있다[40]. AI 국가를 주요 비전으로 내세운 정부의 원활한 정책 커뮤니케이션을 위해서도 AI 육성 및 교육 정책의 중심이 되어야 할 국민들의 태도 및 정책 동의 여부에 대한 이해가 필수적이다. 본 연구는 AI의 혜택 또는 위험 요인에 속하는 네 가지 속성들에 대한 시민 개인들 의 인식이 AI에 대한 태도 및 정책 지지와 어떻게 연결되는지 살펴보는 한편, 혜택과 위험성에 대한 인식이 매개 역할을 수행하는지 검증하는데 주안점을 두었다. 본 연구의 실용적, 학술적인 발견은 다음과 같다.

첫째, AI의 긍정적 특성에 속하는 유용성과 오락성이 각기 다른 역할을 수행한다는 점을 제시하였다. 본 연구 분석 결과, 지각된 유용성은 AI의 혜택 인식을 구성하는 주요 개념으로 AI에 대한 태도 및 정책 지지를 직간접적으로 예측하였다. 즉, AI의 혜택의 크기를 판단할 때 사람들은 얼마나 유용한지를 주요 기준으로 삼는다는 사실을 알 수 있었다. 지각된 오락성은 AI에 대한 전반적 태도는 유의하게 예측했으나 AI의 혜택 인식을 구성하는 요인은 아니었다. 지각된 유용성도 태도의 유의한 예측변인이었지만 계수 비교 결과 태도를 가장 강력하게 예측한 것은 지각된 오락성이었다. 즉, 개인적으로 좋아하고 싫어하는 감정은 얼마나 유용한지보다 얼마나 재미있고 관심이 가는지에 더 영향을 받는다는 것을 알 수 있었다. 지각된 사생활 침해 또한 태도에 부적인 영향을 끼쳤으나 오락성이나 유용성의 정적 영향이 더 컸다.

둘째, 본 연구는 AI 개발 지지 여부를 결정짓는 가장 강력한 요인이 혜택에 대한 인식임을 보여주었다. 태도도 지지와 밀접하고 유의한 관련이 있었지만 혜택 인식의 영향이 더 컸다. 태도는 오락성 지각만으로도 형성 할 수 있지만 혜택 인식은 유용성 지각으로만 예측된다는 점에서, 또 유용성이 정책 지지를 직접도 예측한다는 점에서, AI의 네 가지 속성 가운데 지각된 유용성이 정책 지지에 영향이 가장 크다고 해석할 수 있다. 현 시점에서 정보 유출로 인한 사생활 침해나 인간 무력화 같은 부정적인 인식은 현재 사람들의 AI 정책 지지여부를 좌우할 만한 영향력이 없는 것으로 나타났다. 즉, 사람들이 정부의 AI 정책을 지지할지 판단할 때에는 얼마나 호감이 가는지, 얼마나 위험하다고 생각하는지보다 얼마나 유용하고 혜택이 큰지를 근거로 삼는다는 것을 알 수 있었다. 위험성보다 혜택 위주로 결정을 내리는 이 같은 경향은 새로운 과학 기술에 대한 한국인의 긍정적 평가 정향을 반영하는 것으로 기존 연구 결과와 일관성을 보인다[41].

셋째, 본 연구의 이러한 결과들은 사회심리학 이론들이 AI 기술 정책 맥락에도 적용됨을 보여주는 것으로 의미가 있다. 지각된 유용성과 혜택 인식, 태도, 정책 지지의 관계는 전통적인 인식-태도-행동의도의 관계 및 위험-혜택 이론의 틀에 부합하는 것이며, 지각된 오락성이 혜택 인식을 거치지 않고 직접 태도로 연결되는 관계는 이중처리이론이 제시하는 직관적, 감정적 정보 처리 과정의 결과로 이해할 수 있다. 또한 즐거움, 걱정 등 감정이 결부된 인식들이 AI에 대한 긍정적, 부정적 태도를 유의하게 예측한다는 결과는 신기술에 대한 선행 위험인식 연구들과 일관성을 보여주었다.

넷째, 본 연구는 구조방정식 모형을 통해 측정오차를 감안했으며, 매개효과 분석을 통해 AI의 개별 특성 인식이 태도를 거쳐 정책 지지까지 이어지는 과정을 살펴 본 초기 연구로 활용도가 있다. 특히 지지도의 주요 예측변인인 혜택 인식을 지각된 유용성이 유일하게 예측하는 것에 비추어, AI 정책에 대한 국민의 지지를 높이기 위해선 국민들에게 AI 기술의 유용성을 인식시키는 것이 필요하다는 시사점을 제공한다. 한편, 사람들이 AI의 부정적 특성의 존재에 동의함에도 불구하고 태도나 정책 지지의 근거로 삼지 않는다는 점에서 이 같은 부정적 요인들이 피상적으로만 알려지고 제대로 이해되지 않은 것은 아닌지, 최근 정책 발표와 언론 등을 통해 강조된 글로벌 AI 패권 경쟁 프레임의 영향으로 잠재적 위험성을 줄일 방법에 대해 충분한 논의가 이루어지지 못하는 것은 아닌지 의문을 제기하게 된다.

본 연구의 한계점도 언급할 필요가 있다. 일단, 인구 비례에 맞춰 수집한 전국적 표본이지만 설문조사업체의 온라인 패널을 이용한 만큼 응답자들의 교육 수준이나 임금수준이 다소 높다는 단점이 있다. AI의 기능과 역할이 다양하고 단계별 차이도 큰데 반해 간단한 자동화 기능에도 AI라는 말이 남용되는 면이 있어서[41] AI의 의미에 대한 혼선도 있을 것으로 보인다. 또한 횡단 자료를 분석한 연구인 만큼 인과관계를 추정해볼 수는 있지만 검정할 수는 없다. 예컨대 AI가 혜택이 크다고 인식해서 긍정적 태도를 형성하게 된 것인지, AI에 대한 긍정적 태도가 이미 형성되어서 역으로 AI가 혜택이 있다고 믿는 것인지 이 자료만으로는 판단할 수 없다. 본 연구가 제시한 모형이 자료와 훌륭한 적합도를 보여 주었고 사회심리학에서 장기간 제시해온 메커니즘에 부합한다는 사실을 제시할 수 있을 뿐이다.

지각된 무력화가 위험성 인식으로 이어지지 않은 이유는 본 연구가 설명할 수 있는 영역 밖에 있다. 추측하기로는 AI가 인간 통제를 벗어날 수 있다는 생각은 구체적 사실보다 감정에 기반한 직관적 판단일 가능성이 높다 보니 개연성에 동의는 하더라도 즉각적 위험으로 와닿지는 않은 것으로 보인다. 응답자들이 AI의 혜택과 위험성을 유사한 정도로 인지하고 있었고, 사생활 침해가 위험성 인식을 예측하고 있었음에도 위험성 인식이 태도 및 정책 지지에 전혀 영향을 끼치지 못한 이유도 본 연구가 설명하기 어려운 부분이다. 공상과학영화나 알파고가 위기감을 조성하던 시절에 비해 이미 정상화 과정이 상당 부분 진행돼 전세계가 AI 패권 경쟁에 나선 만큼, 위험성이 있어도 AI 기술 개발은 피할 수 없는 것이며 개발 정책에 협조해야 한다는 인식이 확대되었기 때문으로 추정할 수 있을 뿐이다. 한국인이 신기술 개발에 대해 대체로 긍정적 평가정향과 발전주의적 태도를 가지고 있다는 점도 역할을 했을 수 있다[42][43]. 또한 잠재적 위험성에 비해 잠재적 혜택이 언론 보도나 광고 등을 통해 부각되고, 우리나라가 나아갈 길로 강조되다 보니 태도나 지지도에 끼치는 영향이 상대적으로 더 컸던 것으로 짐작된다. 혜택이 위험성보다 향후 판단 및 행동에 더 큰 영향력을 가진다는 점은 선행 연구와 일관된 발견으로[19][20] 향후 연구에서 AI 위험성 인식의 구성 요인과 역할이 좀 더 깊이 다뤄지기를 희망한다.

상기 한계에도 불구하고 본 연구는 학문적, 실용적 시사점은 향후 AI에 대한 인식 및 태도, 정책 지지연구의 토대가 되어줄 수 있을 것으로 믿는다. 이 연구가 남긴 과제 해결을 위해 앞으로 후행 연구에서는 매개변인 뿐 아니라 AI업계에 대한 신뢰 등의 조절변인을 추가한 모형을 종단 자료를 이용해 장기적으로 비교 검토해볼 것을 제안한다.

References

  1. 정책브리핑, 'AI 국가전략 발표...2030년 455조 창출.AI반도체 세계 1위' 2019년 12월 17일.
  2. S. S. Sundar, "Rise of Machine Agency: A Framework for Studying the Psychology of Human-AI Interaction(HAII)," J. of Computer-Mediated Communication, Vol.25, No.1, pp.74-88, 2020. https://doi.org/10.1093/jcmc/zmz026
  3. 구본권, "인공지능 기술 어디까지 왔나?," 관훈저널, 제143호, pp.59-65, 2017.
  4. 송위진, "사회문제 해결형 과학기술혁신을 보는 세 가지 관점," 과학기술학연구, 제18권, 제2호, pp.233-267, 2018. https://doi.org/10.22989/JSTS.2018.18.2.006
  5. 김은영, AI는 반드시 개발해야 할까, 사이언스 타임스, 2017.11.15.
  6. 이두원, "국가 정책홍보의 커뮤니케이션 전략 탐색연구-공중관계 커뮤니케이션의 문제점과 개선방안을 중심으로," 커뮤니케이션학 연구, 제13권, 제1호, pp.182-211, 2005.
  7. 한재권, "로봇과 인공지능의 현황 및 전망," 미디어와 교육, 제6권, 제1호, pp.49-58, 2016.
  8. 김보람, 인공지능, 마음까지 품을 수 있을까?, 유네스코뉴스, 2018.
  9. C. Paine, "Do You Trust This Computer?" Documentary Film, Diamond Docs/Papercut Films. 2018.
  10. S. Russell and P. Norvig, Artificial intelligence: a modern approach, Pearson. 2002.
  11. 이원태, EU의 알고리즘 규제 이슈와 정책적 시사점, KISDI 프리미엄 보고서, 2016.
  12. C. Loizos, This Famous Roboticist Doesn't Think Elon Musk Understands AI, TechCrunch, 2017.
  13. G. Smith, The AI Delusion, Oxford: Oxford University Press. 2018.
  14. O. Etzioni, Most Experts Say AI Isn't as Much of a Threat as You Might Think, MIT Technology Review, 2019.
  15. 토비 월시, AI의 미래 생각하는 기계, 프리뷰, 2017.
  16. O. Schwartz, The discourse is unhinged': how the media gets AI alarmingly wrong, The Guardian, 2018.
  17. K. Fromme, E. C. Katz, and K. Rivet, "Outcome Expectancies and Risk-taking Behavior." Cognitive Therapy and Research, Vol.21, No.4, pp.421-442, 1997. https://doi.org/10.1023/A:1021932326716
  18. D. M. Kahan, P. Slovic, D. Braman, J. Gastil, G. L. Cohen, and D. A. Kysar, "Biased Assimilation, Polarization, and Cultural Credibility: An Experimental Study of Nanotechnology Risk Perceptions," Harvard Law School Program on Risk Regulation Research Paper, pp.8-25, 2008.
  19. E. Cauffman, E. P. Shulman, L. Steinberg, E. Claus, M. T. Banich, S. Graham, and J. Woolard, "Age Differences in Affective Decision Making as Indexed by Performance on the Iowa Gambling Task," Developmental Psychology, Vol.46, No.1, pp.193-207, 2010. https://doi.org/10.1037/a0016128
  20. J. T. Parsons, P. N. Halkitis, D. Bimbi, and T. Borkowski, "Perceptions of the Benefits and Costs Associated with Condom Use and Unprotected Sex among Late Adolescent College Students," J. of Adolescence, Vol.23, No.4, pp.377-391, 2000. https://doi.org/10.1006/jado.2000.0326
  21. F. D. Davis, "Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology," MIS Quarterly, Vol.13, No.3, pp.319-339, 1989 https://doi.org/10.2307/249008
  22. 박수아, 최세정, "인공지능 스피커 만족도와 지속적 이용의도에 영향을 미치는 요인: 기능적, 정서적 요인을 중심으로," 정보사회와 미디어, 제19권, 제3호, pp.159-182, 2018.
  23. 성현정, AI 시대와 우리의 미래, 여론 속의 여론, 한국리서치, 2020.
  24. 성용준, 김아연, 조민하, "인공지능 (AI) 스피커와의 상호작용이 소비자 심리에 미치는 영향," 한국심리학회 학술대회 자료집, p.85, 2018.
  25. 갤럽, 인공지능(AI)에 대한 인식-WIN 다국가 비교 조사, 2019.
  26. T. Vogel, G. Bohner, and M. Wanke, Attitudes and Attitude Change, Imprint Psychology Press, 2014.
  27. A. Eagly and S. Chaiken, The Psychology of Attitudes, Harcourt, 1993.
  28. R. H. Fazio and M. A. Olson, "Implicit measures in social cognition research: Their meaning and use," Annual Review of Psychology, Vol.54, No.1, pp.297-327, 2003. https://doi.org/10.1146/annurev.psych.54.101601.145225
  29. G. Vaughan and M. A. Hogg, Introduction to Social Psychology, Pearson Education Australia. 2005.
  30. R. E. Petty and J. T. Cacioppo, "The Elaboration Likelihood Model of Persuasion," Communication and Persuasion, pp.1-24, Springer, 1986.
  31. M. Fishbein, "A theory of reasoned action: Some applications and implications," Nebraska Symposium on Motivation, Vol.27, pp.65-116, 1979.
  32. S. Chaiken and Y. Trope (Eds.), Dual-process Theories in Social Psychology, Guilford Press, 1999;
  33. D. Kahneman, "The Marvels and the Flaws of Intuitive Thinking," The New Science of Decision-Making, Problem-Solving, and Prediction, Harper Collins, 2013
  34. S. Nisbet, "Responsible gambling features of card-based technologies," eCOMMUNITY: International J. of Mental Health & Addiction, Vol.3, No.2, pp.54-63 2005.
  35. S. H. Priest, "Misplaced Faith: Communication Variables as Predictors of Encouragement for Biotechnology Development," Science Communication, Vol.23, No.2, pp.97-110, 2001. https://doi.org/10.1177/1075547001023002002
  36. R. L. Holbert and M. T. Stephenson, "Commentary on the uses and misuses of structural equation modeling in communication research," The Sage sourcebook of advanced data analysis methods for communication research, Sage, pp.185-218, 2008.
  37. 김수영, 구조방정식 모형의 기본과 확장, 학지사, 2016.
  38. L. T. Hu and P. M. Bentler, "Cutoff Criteria for Fit Indexes in Covariance Structure Analysis: Conventional Criteria Versus New Alternatives," Structural Equation Modeling, Vol.6, No.1, pp.1-55, 1999. https://doi.org/10.1080/10705519909540118
  39. P. Slovic, E. Peters, M. L. Finucane, and D. G. MacGregor, "Affect, Risk, and Decision Making," Health Psychology, Vol.24, No.4S, pp.35-40, 2005.
  40. C. J. Lee, D. A. Scheufele, and B. V. Lewenstein, "Public Attitudes toward Emerging Technologies: Examining the Interactive Effects of Cognitions and Affect on Public Attitudes toward Nanotechnology," Science Communication, Vol.27, No.2, pp.240-267, 2005. https://doi.org/10.1177/1075547005281474
  41. 김서용, "과학기술에 대한 수용성 모형의 탐색," 정책 자료, 과학기술정책연구원, pp.1-112, 2009.
  42. 최순욱, "한국언론은 인공지능을 어떻게 보도하는가," 신문과 방송, 2월호, pp.39-43, 2020.