DOI QR코드

DOI QR Code

차내 경험의 디지털 트랜스포메이션과 오디오 기반 인터페이스의 동향 및 시사점

Trends and Implications of Digital Transformation in Vehicle Experience and Audio User Interface

  • 투고 : 2022.02.13
  • 심사 : 2022.02.17
  • 발행 : 2022.02.28

초록

Digital transformation is driving so many changes in daily life and industry. The automobile industry is in a similar situation. In some cases, element techniques in areas called metabuses are also being adopted, such as 3D animated digital cockpit, around view, and voice AI, etc. Through the growth of the mobile market, the norm of human-computer interaction (HCI) has been evolving from keyboard-mouse interaction to touch screen. The core area was the graphical user interface (GUI), and recently, the audio user interface (AUI) has partially replaced the GUI. Since it is easy to access and intuitive to the user, it is quickly becoming a common area of the in-vehicle experience (IVE), especially. The benefits of a AUI are freeing the driver's eyes and hands, using fewer screens, lower interaction costs, more emotional and personal, effective for people with low vision. Nevertheless, when and where to apply a GUI or AUI are actually different approaches because some information is easier to process as we see it. In other cases, there is potential that AUI is more suitable. This is a study on a proposal to actively apply a AUI in the near future based on the context of various scenes occurring to improve IVE.

키워드

1. 서론

최근 스마트폰이나 다양한 스마트기기에 음성인식과 인공지능(artificial intelligence, AI)기술을 접목한 제품이나 서비스의 등장이 늘어나면서 음성입력을 통한 상호작용으로 여러 가지 새롭고 편리한 기능들이 제공되고 있다.스마트폰을 중심으로 인공지능 스피커 및 태블릿은 물론이고, 가전제품 등에서도 음성 인터페이스(audio user  interface, AUI) 시스템을 탑재하여 새로운 사용자 경험을 제공하는 노력이 활발하다.자동차 역시 조작의 편의를 돕는 목적으로 활용도가 증가되고 있다.

특히 자동차에서 AUI를 이용하여 주행 상태를 확인하거나 엔터테인먼트를 즐기거나 이동 경로를 검색하는 등의 서비스 이용 사례가 늘어나는 추세이다. 게다가, 전기자동차가 주도하는 자동차 분야의 새로운 패러다임은 자동차 산업을 모빌리티 서비스 산업으로 정의하는 한편, 디지털 트랜스포메이션(digital transformation)을 적극적으로 도입하면서 새로운 산업 생태계로 진화하고 있다.

자율주행과 전기자동차라는 큰 흐름에서 미래의 자동차는 움직이는 모바일 단말기로 여겨질 만큼 네트워크, 데이터, 및 인공지능과 밀접한 관계가 있다 [1, 2].이런 기술들을 활용하여, 자동차의 주행 이력, 시스템 정보 등을 수집하고 분석하여 주행 성능을 높이거나 연관된 서비스 개발에 활용하고 있다. 조금더 확장해 보면, 메타버스(metaverse)의 일부 요소기술들도 활발히 채택되고 있다.예를 들면 Fig.1에서와 같이, 디지털콕핏(digital cockpit)에 적용된 3D 애니메이션, 주정차 시 운전자가 차량 주변의 상태를 확인하는 어라운드뷰(around view), HUD(head up display)의 확대 등이 있다.운전자에게 정보를 전달해 주는 과정에서 음성안내를 활용하기도 하는데, 고도화를 위해 AI를 접목하는 시도들도 있다.이를 통해 운전자가 예전의 자동차에서 볼 수 없었던 다양한 서비스로의 확장 가능성이 주목받고 있다.

Fig. 1. Jointly created natural 3D automotive navigation by Continental, HERE, and Leia Inc (Source : https://www.continental.com/).

세계경제포럼(worldeconomyforum, WEF)도 자동차 산업이 디지털 트랜스포메이션을 통해 교통수단 이상의 가치를 창출할 것이며, 스마트폰 산업의 뒤를 잇는 큰 영향력을 보유할 것으로 전망하고 있다. 그러나, 이러한 변화의 흐름에도 불구하고, 자동차 기업들이 제시하는 완전 자율주행을 지원하는 미래 자동차 이용 예시들이 현실에서 보편화되기에는시간이 더 필요하다.차량의 제한적인 실내 거주성 및 주행 중 발생 가능한 변수 등을 고려할 때, 운전자의 조향과 전방주시 의무, 사고나 돌발 상황 발생 시책임성 등 자동차의 이동에 관한 본질적 행위들 당분간은 지속될 것이기 때문이다.따라서, 차량과 탑승 자간 커뮤니케이션 (human-computer interaction, HCI)을 쉽고 원활하게 하는 것부터 순차적 발전이 필요하다.음성을 활용한 상호작용 즉 AUI (audio userinterface)는 그 효과적인 해결책 중 하나로 볼 수 있다.

본 연구는 디지털 트랜스포메이션을 통해 변화하는 자동차 산업을 조망하고, 자동차와 이용자의 상호작용을 통한 경험의 발전과정과 현황을 AUI위주로살펴본 후, 자동차 산업계의 향후 활동을 위한 시사점을 제시하고자 한다.

본 논문의 구성은 다음과 같다. 2장에서는 디지털트랜스포메이션 시대의 자동차와 이용 동향에 대하여 살펴보고, 3장에서 AUI를 중심으로 차내 오디오 기반 상호작용의 활용 사례를 나타내며, 4장에서는 자동차를 이용하는 목적과 소유의 개념 변화에 따른 이용자들의 차내 경험을 재정의해야 할 필요성을 기술한다. 5장에서는 자동차와 차내 경험의 재정의에 따라 차내 경험의 향상을 위한 활동을 제안하고, 6장에서 결론을 맺는다.

2. 디지털 트랜스포메이션 시대의 자동차 이용행태의 변화

기계 제조 및 아날로그 기술 위주로 성장해 온 자동차 산업에서 최근 디지털 기술이 주목받고 있다. WEF는 디지털 트랜스포메이션을 통해 교통수단의 이용방식이 바뀌고 산업과 사회에 중요한 가치를 창출할 수 있으며, 스마트폰, 인터넷, 무선 통신이 인류사회에 제공해 온 편의와 서비스를 자동차가 이어갈 수 있다고 전망하였다[3].자동차 이용자나 구매자들은 네트워크에 연결되고 그 권한이 다양하게 변화하고 있어 차량을 단순한 구매 제품을 넘어, 서비스나 이동 경험의 매개체로 바라보고 있다. 이러한현상들은 Fig.2에서와 같이 자동차 산업의 주요 플레이어와 신규 진입자가 상당히 다양해지고 있다는 점을 통해서도 알 수 있다.

Fig. 2. Traditional peers, new entrants, and business opportunities in the automotive industry (Source : https://www.weforum.org).

자동차 산업에서 변화의 화두 중 하나는 자율 주행인데, 자율주행기술과 주행보조기술은 자동차가 도로에서 운전자의 개입 없이 스스로 주행하고 주차할 수 있음을 의미한다.차츰 운전자가 필요 없는 시대로 진입하고 있고, 자동차 스스로 교통 혼잡이 없는 도로를 인지하여 이를 이용하며, 모든 이동 구간의 각 지점에서 끊김없이 연결되는 연속체로서 다양한 형태의 교통수단을 이용하는 ‘승객’이 될 것으로 전망하고 있다.

3. 자동차 조작을 위한 인터페이스의 발전과정과 현황

3.1 자동차 역할의 급변

최초의 자동차가 발명된 이후 거의 100년이 넘는 동안 자동차는 이동을 주목적으로 이용되었고, 운전자가 차내에서 할 수 있는 일들은 라디오 방송을 통해 뉴스나 도로정보, 음악청취 등을 하는 정도의 수준에 지나지 않는 등 단방향 미디어 소비라고 할 수 있다.하지만 최근에는 운전자가 자동차가 제공하는 기능이나 모바일폰을 보조적으로 활용해, 운전 중에 핸즈프리로 전화를 하거나, 목적지를 검색하고, TV, 라디오, 오디오북, 및 팟캐스트 등 다양한 서비스와 콘텐츠를 즐기고 있다.심지어 집에 있는 조명을 켜고, 음식을 주문하고, 쇼핑과 결재도 한다.

Covid-19가 확산됨에 따라, 도로 위 정체 구간에서 화상으로 업무회의를 하거나, 주행 중 수면을 취하는 사례도 보도되는 등 자동차에서 할 수 있는 일들이 점점 더 많아지고 있다.그러면서, 자동차가 하나의 서비스플랫폼 그 자체, 또는 그러한 플랫폼의 중추적인 매개체로서도 발전하고 있다.자동차 산업의 생태계도 부품공급 중심에서 더 많은 기술과 서비스 영역으로 그 구성 주체들의 성격이 변화하면서 산업의 재편이 활발하게 진행 중이다.전화기에서 스마트폰이 그러했듯이, 미래에는 자동차의 역할이 어디까지 확대될 수 있을지 가늠하기 힘들 정도이다.

Fig. 3. Automotive industry connected by digital technology (Source: https://dream.kotra.or.kr/).

3.2 AUI 중심으로 본 차내 인터페이스 발전

자동차의 성격이나 역할이 달라지면서, 중요하게 다뤄지는 부분이 운전자와 자동차 간 상호작용이다. 운전자는 자동차 내 버튼이나 내장된 미디어 기기 및 스마트폰 등을 작동시켜 다양한 요구사항을 실행한다. 이러한 행동은 주정차 뿐 아니라 주행 중에서도 수행되는데, 이는 운전자 본인 뿐만 아니라 도로 위의 전반적인 안전을 위협하는 행위가 될 수 있다. 이에, 운전자 본연의 행위인 전방주시와 조향의 의무를 다하면서 부수적인 요구사항들을 직접 해결할 수 있도록 음성을 이용한 운전자-자동차 상호작용이 지속적으로 발전하고 있다.

이와 같은 상호작용은 조수석 탑승자에게 일련의 활동들을 ‘명령’하는 사용성에 기반한 것인데, 이러한 전통적인 물리 입력도구 조작을 넘어서 자동차에 음성제어의 개념을 진화시킨 것은 혼다와 IBM의 협업이 그 시작이다[4].2004년 Honda는 IBM과 협력하여 완성차 제조업체 최초로 오디오, DVD, 길찾기, 실내 공조를 위해 음성명령 및 제어 기능으로 구성된 음성 네비게이션 시스템을 구현하였다.

2007년 Ford는 Microsoft와 협업하여 Sync를 출시했는데, 이는 운전자가 모바일 디바이스와 상호 작용하여 USB로 연결된 MP3플레이어 또는 스마트폰에서 전화 송수신, 문자 전송, 음악 청취 및 관련 제어를 가능하게 하였다.2013년에는 Apple이 자동차에서 음성인식기술을 사용하는 개념을 탄생시킨 CarPlay 용 SiriEyes-Free를 소개하였다.또한, SkodaOcta- via는 자체 음성제어 형식을 공개했다.그러나 음성명령 시스템은 복잡한 메뉴와 화면 설계로 인해 사용자의 선호도가 높지 않았다.

렉서스는 RX350 3세대 모델을 통해 음성안내 (voice guidance)를 선보였다.그러나 운전자의 개입 도와 복잡도가 높아서 해당 기능의 사용성이 매우 낮아 많은 상호작용을 유도해 내지는 못하였고, 2017 년에 업데이트된 음성제어 시스템을 선보이게 되었다. 같은 해, Ford는 Amazon의 Alexa를 처음으로 차량용 내비게이션 시스템에 통합하기도 했다.

2017년에 완성차 제조사들을 통해 많은 음성명령시스템의 업데이트가 진행된 계기는 미국 도로 교통안전국 (National Highway Traffic Safety Admin- istration, NHTSA)이 2016년에 발표한 "차량 내 음성제어 인터페이스 성능 평가 (In-Vehicle Voice Con-trol Interface Performance Evalution)"으로 볼 수 있다[5]. 이 보고서에서는 음성명령시스템이 물리적 스위치 조작과 비교하면 운전자가 전방주시와 스티어링휠 조작을 지속하면서도 원하는 기능을 동작시킬 수 있어 운전자를 덜 산만하게 할 수 있다고 기술하였다. 그러면서도, 음성인식 오류, 상호작용의 복잡성, 그리고 응답 지연은 운전자들의 주의를 오히려 더 방해할 수 있다고도 하였는데, 따라서, 음성명령 및 제어에 적합한 목적 행위 구분, 음성인식 시스템의 정확성, 자연스러운 대화식의 상호작용 등 3가지 요소에 대해 개선이 필요함을 강조하였다.자동차 업계에서는 이러한 주요 요소들을 개선한 제품들을 출시하기 위해 노력했다. AUI의 기회와 도전과제를 시사하고 있다.

Fig. 4. Participants were driving, using their voice commands to navigate and place calls.

3.3 AUI 활용의 현황

최근 AUI를 활용한 시스템은 클라우드 기반 서비스를 제공하고 있다.운전자는 음성명령으로 주행 경로를 더욱 편리하게 설정하고, 전화나 메시징을 보다 쉽게 이용하며, 음악이나 오디오북을 재생하거나, 날씨와 뉴스 등 다양한 생활 정보를 확인할 수도 있다. 2018년 이후 자동차 제조업체가 음성인식 기술 전문회사와 협력하여 자사 차량에 내장형 음성 지원 서비스를 적용하는 사례들이 포착되고 있는데, 메르세데스-벤츠는 자연어 처리 기술 기반의 MBUX(Mer-cedes-Benz User Experience)를 도입하였다.

2020년에 람보르기니는 Alexa를 Huracan Evo모델에 통합한 음성제어시스템을 적용하였고, Ama- zon은 Alexa를 자동차에 사용할 수 있게 만든 Echo Auto를 공개했는데, 람보르기니는 관련 기술을 도입해 운전자가 Alexa를 사용하여 차량 실내 온도, 실내조명, 시트위치 등을 조절하고 운전 모드를 조정할 수 있게 하였다.

Fig. 5. BMW and MS team up to improve voice recognition (https://www.erpecnewslive.com/).

4. 자동차 변화와 차내 경험의 재정의 필요성

4.1 친환경 자동차 중심 시장으로의 대전환

자동차 산업의 엔지니어링과 디자인의 글로벌 수준이 상향 평준화되면서, 자동차의 주행성능과 스타일링이 구매의 주요 소구점이 되어왔다.그러나, 폭스바겐의 디젤게이트로 인해 자동차가 환경오염에 미치는 악형향이 재조명되었고, 소비자들의 경각심이 전 세계적으로 확산하면서 친환경 자동차 시대로의 전환이 급격하게 진행되었다.

e-나라지표의 2021년 사용 연료별 신규 차량 등록현황에 따르면, 친환경 차 (전기·수소·하이브리드차) 가 전년 대비 41.3%증가한 339,000대 (누적 1,159,000대)가 등록되었다.이에 반해, 휘발유차는 전년 대비 3.1%가 증가한 349,000대가 등록되었으며, 경유차는 증가세를 멈추고 처음으로 1.2%(12,000천대) 감소세를 나타냈다. 특히, ‘21년말 전기차는 전년 대비 71.5%(96,481대)증가하여 총 231,443대가 누적 등록되었으며, 2018년 말 대비 4.2배로 증가하였다. 전기차 신규등록은 100,000대로 2020년(46,000대) 대비 115%(54,000대)증가하였고, 2021년에는 십만대 이상의 전기차가 신규 등록된 국가에 우리나라도 포함되었다[6].

전기차의 증가추세는 기존 내연기관 차량의 그것과 확연한 차이를 보이고 있다.소비자들은 친환경이나 경제적인 부분 외에 가지고 있는 기대치와 관련 산업계의 대응 방안 등이 복합적이고 연쇄적인 성장 관계를 형성하고 있다고 할 수 있다.

4.2 자동차 기능 조작과 인터렉션의 변화

친환경이라는 사회적 공감대와 위기의식이 전기차 생태계로의 전환을 견인하고 있지만, 동급 내연기관 자동차 대비 비싼 출시가격과 충전 인프라 부족을 극복하고 시장을 확대하기 위해 미래 자동차로의 패러다임 전환이 필요하다.이에, 자동차 제조사들은 지속 가능한 미래비전과 함께 새로운 모빌리티의 경험을 강조하고 있는데, 여기에 터치패드, 저소음, 자율주행, 인공지능 기술 등이 적극적으로 활용하여 자동차의 개념을 새롭게 정의하는 중이다.

이에 따라 자동차-이용자 간 커뮤니케이션 및 인터렉션도 함께 변화하고 있는데, 물리적 인터페이스 (Physical User Interface, PUI)를 디스플레이 터치 형식으로 바꾸고, 더 많은 정보와 멀티미디어 콘텐츠를 소비할 수 있게 하고 있다.테슬라의 경우, 자동차 실내의 PUI를 최소화한 미니멀 디자인을 선보여왔다. 특히 2020년 전기차 대중화를 이끈 Model3에서는센터페시아 (center fascia)에 15인치 터치스크린만을 제공하고, 창문 개폐와 비상등 점멸용 버튼, 그리고 스티어링휠에 부착한 2개의 다이얼만을 제공하면서 PUI를 최소화하였다[7].메르세데스-벤츠(Mercedes- Benz)는 2021년형 S클래스에 2세대 MBUX를 탑재하면서 기존 27개의 물리 버튼을 터치스크린으로 대체하고 27개 언어로 작동하는 최대 20개의 음성명령어를 제공하는 등 자동차의 조작과 관련한 운전자의 경험에 큰 변화를 지속하고 있다.MBUX는 엠비언트 라이트와 성능 좋은 터치 기반의 디지털 콕핏을 제공하면서도 음성명령이 그 어떤 터치패드의 경험보다 더 쉽게 운전을 보조한다고 알리고 있다[8]. 현대차그룹은 21년 차세대 커넥티드카 인공지능음성 인식 기술을 공개했다.설계 단계부터 차량 시스템과 연계하여 개발하였고, 음성인식의 종류 및 범위를 대폭 확대하였다고 밝혔다.특히, 인공지능 기반 자연어 명령을 통해 차량 관리와 차량 사용 설명서정보를 더욱 편리하게 습득할 수 있게 하였다. 운전자가 친숙하지 않은 용어나 작동법 등 음성명령어 상시 업데이트하고, ‘카카오 i’와 연동시켜 자동차 이용자의 기호나 라이프 스타일에 맞는 다양한 정보와 서비스를 제공을 목표로 한다[9].기아차는 브랜드 최초의 전기차 전용 플랫폼을 적용한 EV6의 센터 콘솔의 물리 버튼을 최소화하고 햅틱 기술을 활용한 터치식 버튼을 적용하였다.이렇게 자동차 제조사들은 디스플레이를 적극적으로 도입하면서도 음성을 통한 운전과 이동의 경험을 높이고자 음성인식 기술고도화를 지속하고 있다.

Fig. 6. Mercedes is proud of the benefits of its intelligent voice control system. (a) Driver touches digital-cockpit and (b) Engineer pints symbol of intelligent voice control system (Source : https://group.mercedes-benz.com).

4.3 자동차와 차내 경험의 재정의

EU는 2035년까지 내연기관 시대를 마무리하기로 선언하였는데[10], 이에 맞춰 전기차 보급이 확대되면서 자동차의 용도나 기대치가 달라지고 있다. 전기차는 전용 플랫폼 적용 사례가 늘어나면서, 실내거주성을 높이고, 프렁크 (front trunk, frunk), V2L(ve- hicletoload)등 자동차의 역할과 활용 방법을 바꾸고 있다.하이패스 카드로 시작된 차내 자동 결제는 스타벅스의 번호판 인식 결제와 르노삼성자동차의 신용카드 바로 결제 서비스 등으로 확대되고 있다. 이제 자동차의 정체성을 재정의하고, 그에 따라 운전자 및 동승자의 경험을 구체적으로 재정의할 시기가 도래하였다고 판단된다[11].

Fig. 7. Engineers are testing artificial intelligence speech recognition technology (Source : https://www. hyundai.co.kr).

동아 비즈니스 리뷰의 기고문에 따르면, 미래 모빌리티에서 차량과 이용자를 모두 승객으로 재정의하고 삶의 또 다른 공간을 경험할 수 있도록 해야 하여, 승객들은 새로운 자동차 내 경험(In-Vehicle Experience)을 갖게 될 것이고, 이때 새로운 경험의 요소들은 Table1에서와 같다.위 4가지 요인들은 내연기관 중심의 자동차와는 확연히 다른 면이다. 미래모빌리티 환경에서 주행의 권한과 다양한 차내 편의 기능들을 실행시키는 권한에 대한 사회적/제도적으로 지속적인 고민이 필요하다.이동 상황에서 즐길 수 있는 서비스와 콘텐츠의 제약 등도 풀어야 할 숙제들이다.

Table 1. Elements of a new experience in vehicle.

5. 차내 경험 향상을 위한 활동 제안

디지털 트랜스포메이션으로 인공지능과 데이터 기술이 고도화되면서 음성인식이 미래 자동차 시장의 핵심 인터페이스 기술 중 하나로 재조명받고 있다. 이에, 주요 자동차 기업뿐 아니라 ICT 업계에서도 관련 기술의 고도화를 위해 많은 연구와 투자를 강화하고 있다.특히 기존의 인공지능 스피커, 스마트폰 등에 활용된 기술들을 접목하거나 스마트폰 자체를 더 편하고 빠르게 연동시키는 등 기업 간 합종연횡이 활발하게 진행되고 있다[12].국내 기업들도 음성인식을 도입한 자동차 기술 확보에 노력하면서 시장을 선점하고, 글로벌 경쟁력을 높이기 위해 적극적으로 대응하고 있다.이러한 노력이 결실을 보기 위해서는 실제 ‘승객’들의 행동과 요구사항들을 자세히 분석하고 연구해야 할 것이며, 필요한 활동들은 다음과 같이 정리해 볼 수 있겠다.

5.1 차내 명령 주도권 설정에 관한 연구

새로운 차내 행동유발의 맥락(Context)에 관한 연구가 필요하다.전기차 및 자율주행차의 확대로 더 많은 자동차 이용자들이 넓어진 차량 실내공간과 손과 눈의 자유를 누리게 되었지만, 그것이 완전히 새로우면서도 안전한 경험 제공을 보장하는 것은 아니다. 예를 들어, 2021년 미국 텍사스주에서 테슬라 차량 운전자 사망 사고가 발생하였는데, 당시 현지 경찰 발표에 따르면 해당 차량의 조수석 1명, 뒤쪽 좌석에서 1명이 숨진 채 발견되었을 뿐 운전석은 공석이었다. 사고 차량의 자율주행 기능의 오작동으로 인한 사고라는 추측이 강하다.

Fig. 8. Driverless Tesla crash in Texas (Source : https://www.theverge.com).

현재 출시되어 운행 중인 차량에는 주행 보조 기능 (advanceddriverassistancesystem, ADAS) 이적용되는 추세인데, 우리나라에서 출근길 강변북로의 정체구간에서 스티어링 휠에서 손을 떼고, 운전석을 뒤로 젖힌 채 수면을 취하는 운전자가 목격되어 논란을 일으키기도 했다.이렇듯 자율주행 기능은 이미 일상과 밀접하게 관련되어 있는데, 미국 자동차공학회 분류에 따르면, 통상 자율주행의 단계를 Level 0~5까지로 구분하고, 레벨 2까지는 조향 또는 가·감속 보조시스템에 의해 운전을 지원하는 수준이며, 레벨 3이상에서는 조건부, 또는 모든 조건에서 시스템이 운전에 관한 모든 측면을 제어하게 된다.현재 출시 된 차량의 자율주행 기능은 레벨 2에 머무는 수준이고, 이를 실질적으로 '자율주행'이라고 말할 수 없음에도 불구하고 해당 용어를 사용함으로써 혼선의 빌미를 주고 있다.자동차 업체들은 조만간 레벨 3 자율주행자동차 출시 계획을 세우고 있고, 기술적으로는 레벨 3은 물론 이를 능가하는 자율주행 기능도이미 가능하다는 연구들이 있다.

실제로 테슬라나 애플의 자율주행 기술은 레벨 5 에 근접해 있다고 밝히고 있다.따라서, 이러한 자율주행 기능의 발전과 함께 자율주행 자동차의 사고 발생 시 그 책임을 누가 부담해야 할 것인지는 중요한 문제이다.국내의 경우 기존의 운행자 책임이 우선하지만, 자율주행 기능의 결함이 인정된 경우 2020 년 4월 개정된 자동차손해배상보장법 제 39조의 2, 17, 제39조의 14, 17에 의해 제조사가 최종적인 민사책임을 지는 것으로 규정하고 있다.다만 현행 제도가 Leve3수준의 자율주행 기능을 전제로 하고 있어, 기술 발전에 따라 기존의 운행자 책임을 전제로 하는 규정들에 대폭적인 수정이 필요해 보인다.

앞으로도 전기차를 중심으로 한 자율주행 자동차 시장은 꾸준히 성장할 전망이다.차량 내에서, 단순히 자동차의 주행뿐만 아니라 여러 상황에서 차량 이용자-자동차 상호작용이 발생할 것이고, 자칫 사고로 이어질 수도 있다.음성명령은 자율주행 자동차에서 많은 자유도를 줄 것으로 전망하지만, 동승자가 멀티미디어 시스템을 임의로 조정하다가 돌발변수를 일으키면서 사고로 이어진다면 기술 발전의 부정적인 면이 부각될 수 있다.

따라서, 어떤 돌발변수를 기술적으로 해결하는 것도 중요하지만, 차내 발생하는 상황과 그에 따른 승객들의 반응, 그리고 여러 인과관계들을 다학제적으로 연구하고 조사해야 한다.인공지능 스피커의 경우 맥락에 대한 분석과 학습은 부족한 데다 자연어 처리기술은 이용자들의 기대치를 충족시키지 못해 시장 확대에 실패한 사례를 반추해야 한다.

5.2 자동차, 운전자, 차내 가능한 경험 등이 재정의

자동차 제조사의 청사진에 따르면 미래의 자동차는 이동하는 집, 사무실, 음악감상실, 영화관 등이 된다. 각 상황에 따른 자동차 용도에 대한 유권 해석이 필요하고, 사고 발생 시 책임 소재가 더욱 활발하게 논의되어야 한다.따라서, 제조사들은 자사의 제품이 어떤 서비스까지 이용 가능한지, 상황별 주의사항은 무엇이고 ‘승객’의 책임의 범위는 어디까지인지 등을 새롭게 정의해야 한다.

주행 중 전화 통화의 경우, 한 손에 스마트폰 들고 다른 한 손으로 운전하면 사고 위험이 높아진다. 이에 대해, 도로교통법은 제49조 제1항 제10호에 의거, 특정 조건 (자동차 등이 정지하고 있는 경우, 자동차를 운전하고 있는 경우, 각종 범죄 및 재해 신고 등 긴급한 필요가 있는 경우, 안전운전에 장애를 주지 않는 장치로서 대통령령으로 정하는 장치를 이용하는 경우)외에는 운전 중 휴대전화 사용을 금지하고 있다.따라서, 운전자들은 블루투스 페어링을 통해 휴대전화를 사용하거나, 자동차에 내장된 블루투스 연결 기능을 활용하여 전화 통화를 하거나 기타 서비스를 이용하고 있다.

자동차에 장착된 블루투스 페어링의 경우 연결 방법이나 친화도가 차량의 제조사마다 다르고 성능에도 차이가 있을 뿐 아니라, 경우에 따라 네비게이션의 안내 음성이나 경고음이 들리지 않는 예도 있다. 따라서, 해당 기능을 사용할 때 자동차의 주행 여부, 속도, 주변 도로 위 환경 등을 고려하여 제공해 줄 수 있는 서비스의 실감도, 정확도 등도 재정의되어야 한다.

음악 청취의 경우도 자동차의 상황, 운전자의 평소 습관을 반영하여 추천식 또는 제한식으로 운영할 수 있다.차량의 상태나 방향 지시 등에 활용되는 HUD 의 경우 주/정차 중에 전달할 수 있는 정보의 양이나 형태가 달라질 수도 있다.급하게 메모가 필요한 상황이면 어떻게 이 문제를 해결해 줄 수 있을지도 연구과제가 될 수 있다.이처럼, 자동차 내 ‘승객’들의 상태에 따라 운전자와 동승자, 주행중과 비주행중 상황에 승객들이 가질 수 있는 경험을 재정의하고 그에 맞는 서비스를 제공할 수 있어야 한다.

Fig. 9. Working and meeting in a car (Source : https://www.mmlimo.com).

5.3 새로운 인터페이스에 관한 연구 확대

차내 ‘승객’들이 주행 이외의 활동을 하게 될 때 차량 내부 어디에서든 자동차와 빠른 상호작용이 가능해야 한다.자동차가 점차 물리 버튼을 디스플레이로 대체한다고 하여도, 자동차 이용의 여러 상황별 필요한 메뉴에 빠르게 접근할 수 있는 인터페이스의 편의성이 필수이다.이는 트리 구조 기반의 기존 메뉴 접근 방식의 사용자 인터페이스로는 대응하기 쉽지 않다.따라서, 자연스러운 대화형 명령과 반응이 필요하다.PUI의 기능적 접근성과 GUI의 시각적 직관성이 음성 인터페이스의 편리함과 함께 적용되어야 한다.

최근에는 음성 인터페이스를 포함한 제스쳐, 햅틱까지 활용하는 다양한 상호작용도 활발하게 연구되고 있는데, 사용자의 의도를 파악하고 원하는 작업을 자연스럽게 편리하고 안전하고 쉽게 수행할 수 있게 하는 NUI (Natural User Interface)가 그중 하나다. 현재 NUI의 표준화 활동은 ISO/IECJTC1/SC35 User Interfaces에서 주도하고 있는데, SC35는 2018 년에 기존의 HCI표준화 활동을 수행하던 7개 워크 그룹에 Natural User Interfaces와 Interactions를 다루게 될 새로운 워크그룹 (WG9)을 신설하였다[13].

음성인식 고도화를 위해서는 기술적 발전의 병행이 필수인데, 디지털 트랜스포메이션의 흐름 속에 주목을 받는 ‘초거대 인공지능’을 예로 들 수 있다. 국내의 경우 LG, 네이버, 카카오, SKT, KT가 보유한 ‘초거대 인공지능’은 대용량 연산이 가능한 인프라를 기반으로 스스로 데이터를 학습하고 자율적으로 사고가 가능한데, 그중 LG그룹이 공개한 AIEXAONE은 세계 최대 규모 데이터를 학습하여 사람처럼 시청각을 활용하고 데이터로 추론까지 할 수 있다. 6000억개의 말뭉치와 2억5000만 장 이상의 이미지를 학습했고, 3000억 개의 연산 파라미터는 단순 비교 시 알파고의 300배 이상의 수준인데, 자연어 처리에 강점을 보여 디지털휴먼 등 인간의 지능에 준하는 활용도 모색에 노력 중이다[14].이러한 기술들을 활용해 자동차 이용자의 차내 경험을 제고할 수 있다.

6. 결론

내연기관 자동차 시대의 종식과 친환경 자동차의 도래는 자동차의 이용방식에 대한 재정의가 필요하다. 새로운 폼팩터와 인프라 활용 상황에 맞는 맥락연구가 필요하고, 각 상황별 인터페이스의 변화가 필요하다. 음성 인터페이스는 그 중 근미래에 차내 승객들의 경험을 제고할 수 있는 잠재력이 있고, 이미 지속적인 적용이 되고 있다.이러한 변화들을 빠르게 실생활에서 적용할 수 있도록 하려면 민관, 산학 연등 다양한 협업을 통한 연구와 실증사업이 확대되어야 한다.필드에서의 검증이 필요하고, 관련 법규 등 제도적 변화가 병행해야 하기 때문이다.

참고문헌

  1. Digital Transformation Strategies for American Auto Companies(2021), https://dream.kotra.or.kr/kotranews/cms/news/actionKotraBoardDetail.do?SITE_NO=3&MENU_ID=180&CONTENTS_NO=1&bbsGbn=243&bbsSn=243&pNttSn=187405 (accessed December 28, 2021).
  2. C.M. Kim, J.H. Youn, I.C. Kang, and B.K. Kim, "Development and Assessment of Multi-sensory Effector System to Improve the Realistic of Virtual Underwater Simulation," Journal of Korea Multimedia Society, Vol. 17, No. 1, pp. 104-112, 2014. https://doi.org/10.9717/KMMS.2014.17.1.104
  3. Reinventing the wheel: digital transformation in the automotive industry(2016), https://reports.weforum.org/digital-transformation/reinventing-the-wheel/ (accessed January 26, 2022).
  4. The Evolution Of In-Car Voice Control Leads To Win-Win For All(2021), https://www.kardome.com/blog-posts/evolution-carvoice-control (accessed February 24, 2022).
  5. NHTSA, In-Vehicle Voice Control Interface Performance Evaluation Final Report, Dot HS 812 314, 2016.
  6. Vehicle Registration Status(2021), https://www.index.go.kr/potal/main/EachDtlPageDetail.do?idx_cd=1257 (accessed January 12, 2022).
  7. K. Namkung, "A Study of the Usefulness of Voice Commands by In-Vehicle Operation Functions According to Driver's Variables," Journal of Digital Contents Society, Vol. 22, No. 8, pp. 1273-1279, 2021. https://doi.org/10.9728/dcs.2021.22.8.1273
  8. It Understands You Perfectly(2018), https://group.mercedes-benz.com/magazine/technology-innovation/mbux-voice-assistant-heymercedes.html (accessed January 14, 2022).
  9. Hyundai Motor Group unveils next-generation 'Connected Car Artificial Intelligence Voice Recognition Technology'(2021), https://tech.hyundaimotorgroup.com/kr/press-release/connected-car-voice-recognition-technology/ (accessed January 8, 2022).
  10. EU withdrawal of internal combustion engine, "The Speed of Transition to Eco-Friendly Vehicles is accelerating"(2021), https://www.e2news.com/news/articleView.html?idxno=234474 (accessed January 28, 2022).
  11. M. Ryu, S. Lee, and E. Choi, Everyone Will Be The Passenger, Not The Driver, Dong-A Business Review, Seoul, South Korea, 2020.
  12. S. Wi, and D. Yim, Accelerating The Future Automotive Revolution, SAMJONG KPMG Newsletter, Samjung KPMG, Seoul, South Korea, 2021.
  13. G. Kim, "A Survey on the Natural User Interfaces," The Korean Institute of Communications and Information Sciences, pp. 1,186- 1,188, 2019.
  14. 300 times the ability of AlphaGo, LG developed 'super giant AI'(2021), https://www.hankyung.com/it/article/2021121480651 (accessed January 4, 2022).