자율주행 시대, 자동차가 추구하는 가치 방향은?
상태바
자율주행 시대, 자동차가 추구하는 가치 방향은?
  • 김종율 기자
  • 승인 2019.06.04 16:50
  • 댓글 0
이 기사를 공유합니다

중요한 것은 ‘감성인식’ ‘상호작용’ 등 양방향 교감

2000년대 이전까지는 IQ가 높아야 한다고 학습 받았다. 세계 최고의 물리학자 중 한 명인 아인슈타인의 아이큐 지수가 200에 근접한다는 둥 IQ가 높으면 천재에 가깝다고 인식되었다.

그런데 한 세대가 지난 어느 날, 2000년대 이후 세상에서는 EQ가 높아야 한다고 강조되었다. IQ도 물론 중요하지만 사회생활을 잘 하려면 EQ도 중요하다, 혹은 IQ보다 EQ가 더 중요하다고 언급되었다.

이렇게 다른 주장을 펼치는 세상에 저항하며, 왜 자꾸 잣대를 바꾸냐고 따질 수는 없다. 시대가 변하면 중요하게 여기는 것도 변하는구나. 이렇게 생각하며 받아들이는 수밖에 없다.

IQ 및 EQ는 하나의 예시일 뿐, 중요하다고 내세우는 잣대가 변하는 것은 휴대폰 및 자동차 등 모든 산업에서 일어나고 있다. 휴대폰의 경우, 바형(Bar 타입)에서 폴더형(Fold 타입)으로, 그리고 터치스크린 스마트폰, 폴더블 스마트폰 등으로 외형의 이슈는 변해왔다. 외형의 이슈가 변하는 가운데서도 박형이 강조되고, 카메라 성능이 강조되고, 배터리의 사용 시간이 강조되고, 지원되는 애플리케이션이 강조되었다.

자동차 산업에서도 이런 흐름은 마찬가지다. 기존에는 기능이 강조되었다. 최고급 자동차에는 이런 이런 기능이 탑재됐다는 홍보가 여기저기서 펼쳐지더니, 어느 순간 자동차가 구현할 수 있는 기능이 거의 평준화되면서 익스테리어 및 인테리어 등이 홍보의 중심에 서기도 했다.

자동차 산업에서 지금은 무엇이 강조되고 있을까? 전기자동차 및 자율주행이 화제의 중심에 있다. 이들은 한동안 자동차 산업의 중심에서 이슈와 트렌드를 이끌어갈 것으로 보인다.

이들, 특히 자율주행이 일정정도 일반화되는 시점에서는 무엇이 강조될까? 업계에서는 ‘감성’이 즉, 자동차와 운전자가 교감하는, 감성주행(Emotive Driving)이 될 것으로 예측하고 있다.

감성주행을 구현할 수 있는 핵심은 인공지능(& 머신러닝)에 있다. 인공지능을 기반으로 가속과 감속, 진동, 소음 등 다양한 주행환경과 실내·외 환경에서 운전자가 반응하는 생체 정보와 감정 상태를 차량이 학습한 뒤, 운전자의 감정 상태와 생체 정보에 맞는 음악과, 온도, 조명과 진동, 향기 등 최적화된 실내 환경을 운전자에게 능동적으로 제공한다는 것이 핵심이 된다.


기아자동차, R.E.A.D. 시스템 공개
이와 관련, 기아자동차는 CES 2019 전시회에서 감성주행을 실현할 수 있는 R.E.A.D. 시스템을 선보인 바 있다. 이 시스템은 운전자의 생체 신호를 자동차가 인식해 차량 내의 오감 요소를 통합 제어, 실시간으로 운전자의 감정과 상황에 맞게 차량의 실내 공간을 최적화하는 기술이다.

R.E.A.D. 시스템은 인공지능(AI)의 머신 러닝 기술과 고도화된 카메라 및 각종 센서, 그리고 차량 제어 기술을 결합해 탄생했다.

R.E.A.D. 시스템을 좀 더 구체적으로 살펴보면 대시보드에 위치한 얼굴 인식 센서가 운전자의 얼굴 표정을 인식해 감정 정보를, 스티어링휠에 적용된 전극형 심전도 센서가 심장 박동수와 피부 전도율을 비롯한 생체 정보를 추출한다.

이후 차량 스스로 인공지능 머신 러닝 학습결과로 축적된 운전자 데이터를 준거의 틀로 삼아, 오디오, 공조, 조명, 조향 등 차량 내 각종 시스템을 능동적으로 제어하고 운전자의 감정 상태와 생체 상황에 최적화된 공간 창출을 지원한다.

기존 생체 정보 인식 기술은 사전에 설계된 제어 로직에 따라 졸음이나 갑작스러운 건강 이상 등에 대응하는 안전 기술이 주를 이루었다면, R.E.A.D. 시스템은 실시간으로 운전자의 감정에 가장 적합한 차량 환경을 제공하는 더욱더 능동적이고 한층 진보된 기술이다.

기아차 연구개발본부장 알버트 비어만 사장은 “R.E.A.D. 시스템은 최첨단 차량 제어 기술과 인공지능 기반 감정 지능이 융합된 결과물로 실내 공간에서의 상호 작용이 화두가 될 미래 모빌리티의 핵심 기술”이라며 “이 시스템은 ‘감각’이라는 무언의 언어를 통해 운전자와 차량 간의 지속적인 커뮤니케이션을 가능하게 함으로써 운전자에게 최적화된 인간 중심적인 모빌리티 공간을 실시간으로 제공하게 될 것”이라고 말했다.


BMW, 새로운 차량 디자인 콘셉트 ‘Shy-Tech’
적용 예시는 다르지만, 맥락은 비슷한 기술을 BMW도 CES 2019 전시회에서 발표했다. BMW는 이를 ‘샤이 테크(Shy-Tech)’로 불렀다. 샤이테크는 말 그대로 기능을 호출하기 전에는 전면에 드러나지 않는다는 의미를 담고 있다. 탑승자의 편안함을 최우선으로 하여 조작 버튼을 통합하고, 운전자가 원하는 것을 운전자의 몸짓, 눈빛, 음성 등을 통해 알아차려 필요할 경우에만 나타나게 해주는 기능인 것이다.

BMW측은 “향후의 자동차에는 음성, 몸짓, 시선 등의 인식 기능을 통한 작동 조작 방식이 지속적으로 확대될 것”이라며, “이는 자동차를 이용할 때 메뉴의 사용이 더욱 더 간편화된다는 것이며, 사람과 소통하는 새로운 모빌리티 트렌드로 이어지게 된다는 것과 연결된다”고 말했다.

잘 알려진 샤이 테크(Shy-Tech) 중 하나는 차량 내 작동 요소들이 표면에 내장되어 있는 것을 들 수 있다. 평소에는 보이지 않다가 손을 가까이 대면 기능 작동 버튼이 비로소 보이게 된다는 게 핵심이다.

BMW는 이러한 솔루션을 콘셉트카 ‘Vision iNext’에 장착하여 CES 2019 전시회에서 소개했던 것. BMW의 샤이테크는 중앙 콘솔의 나무 표면 또는 뒷자석에 작동 기능이 내장됐다.

BMW에 따르면, 샤이테크 기능은 인공지능을 갖춘 어시스턴트 시스템이다. 모니터에 있는 메뉴 키도 탑승자의 시선으로 작동시킬 수 있는, 이른바 ‘내츄럴 인터액션(Natural Interaction, 자연적 상호작용)’으로 불리는 이 시스템은 운전자가 무엇을 원하는지 인식하기 위해 인공지능이 운전자의 몸짓과 음성 명령, 시선 등을 분석한다.

이를 위해 차량에는 성능이 개선된 센서뿐만 아니라, 원적외선 신호 등을 통해 손과 손가락의 움직임을 3차원적으로 인식하고 방향을 정확하게 전달하는 카메라, 머리와 시선의 방향을 인식하는 HD 카메라가 장착돼 있다.

이를 통해 운전자가 작동 버튼이 아니라 손가락으로 차량의 창문을 가리키며, "문을 여세요"라는 음성 명령을 하면 창문이 열리는 그런 원리라고 보면 된다. 무엇보다 이 기술은 학습 알고리즘을 기반으로 정보를 조합하고 분석하게 돼 있어 운전자는 언제든지 자동차와 자유롭게 상호작용을 할 수 있다.


BMW는 이러한 ‘내츄럴 인터액션’ 기능을 2021년 출시 예정인 iNext에 최초로 탑재할 계획이다.


콘티넨탈 및 아우디, 우리도 간다
독일 콘티넨탈(Continental)도 ‘모핑 콘트롤스(Morphing Controls, 변환 콘트롤)’라는 새로운 기술을 선보였다. 이 기술은 운전자가 계기판에 접근하면 자판이 표면에서 튀어나오게 되며, 누른 채로 있을 경우 촉각적으로 피드백을 준다.

콘티넨탈은 “차량 내부 디자인의 핵심이라 꼽히는 인스트루먼트 패널(표면) 뒷부분에 장착된 근접 센서가 운전자의 손동작을 인식해 차량 버튼을 활성화한다”고 설명했다.

특히 필요에 따라 나타나고, 표면의 형상이 솟아올라 응답하고, 조작을 돕는 '모핑 컨트롤'기술은 지금까지 기술의 한계로 여겨졌던 운전자와 차량 간의 상호작용을 보다 활성화시켰다는 평가를 받고 있다.

이외에도 Audi는 최근 상하이 전시회에서 콘셉트카 AI:ME를 선보였는데, 이 콘텝트카 역시 터치 스크린 콘셉트를 특징으로 하고 있다. 아우디 관계자는 “머지않은 미래에는 승객이 차량과 상호작용하는 단계에서 한 걸음 더 나아가 차량이 감정이입을 할 수 있게 될 것”이라고 강조했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
이슈포토