최대열기자
1일 콘텐츠임팩트2018 쇼케이스에서 김석중 브이터치 대표가 모바일 플레이룸 프로젝트를 시연하고 있다. 손이 직접 닿지 않아도 가리킨 위치와 움직임을 인식해 원거리 가상터치 제스처를 구현할 수 있다.
[아시아경제 최대열 기자] 늦은 시간 학원을 마치고 귀가하기 위해 차에 올라탄 아이는 한숨을 내쉰다. 시험을 망쳐서다. 우울한 표정의 아이에게 자동차가 위로를 건넨다. "행복은 성적순이 아니"라고. 위안을 얻는 건 잠시, 뒷자리에 앉아있던 아이의 엄마가 "네(자동차)가 엄마라도 되냐"며 호통을 친다. 분위기를 파악한 자동차는 "네"라는 짤막한 답과 함께 출발할 준비를 한다.승객의 감정을 읽고 그에 대해 피드백을 내놓는 자율주행차. 80년대 TV드라마 '전격 Z작전'에 나오는 키트가 주인의 음성을 인식해 반응하는 인공지능(AI) 자율주행차였다면, 감정을 살핀다는 건 그보다 조금 더 사람에 가까워진 형태일 테다.감정인식 AI 시스템을 개발하고 있는 제네시스랩의 이영복 대표는 1일 "승객의 표정이나 눈빛, 얼굴 움직임을 비롯해 목소리, 심박동수 같은 정보를 통해 차량 내 승객의 감정을 파악하는 원리"라며 "그간의 자율주행차 개발이 주행 등 차량 외부와 관련한 부분이 주를 이뤘는데 내부 승객에 초점을 맞춰보고자 했다"고 말했다.제네시스랩은 이날 한국콘텐츠진흥원이 마련한 '콘텐츠임팩트 2018 쇼케이스'에서 발표한 프로젝트 팀 가운데 한곳이다. 콘텐츠진흥원은 하이테크 기술기반의 스타트업과 다양한 분야의 아티스트간 협업 프로젝트를 지원하고 있다. 자율주행차는 물론 빅데이터, 블록체인, AI 등 최근의 4차산업혁명으로 부각된 각종 기술과 창의적으로 구현된 콘텐츠가 어떻게 접점을 갖는지를 보여준다.'나의 이모션 파트너' 프로젝트를 발표하고 있는 이영복 제네시스랩 대표. 자율주행차 내 감정인식AI가 승객의 기분상태를 인지해 그에 맞춰 대화하거나 반응하는 프로젝트를 선보였다.
제네시스랩은 엔터테인먼트 플랫폼으로서 자율주행차가 가진 가능성을 구현하는 '스스로 가는 자동차와 당신의 시간'이라는 프로젝트에 참여하고 있다. 말 그대로, 향후 자율주행차가 보편화될 세상에서 승객이 자동차라는 플랫폼을 어떻게 활용할지에 대한 고민의 결과물인 셈이다.운전자의 개입이 없는 완전한 의미의 자율주행이 가능해진다면 주행 중 잠을 잘 수도, 영화를 보거나 일을 할 수도 있을 테다. 그러나 콘텐츠를 소비하는 패턴 역시 지금까지와는 전혀 다른 양상으로 나타날 수 있는 만큼, 이번 프로젝트에 참여한 각 팀들은 상상 속에서만 가능했던 시도들을 이날 쇼케이스서 보여줬다.'모바일 플레이룸, 움직이는 놀이공간'이라는 주제로 발표한 김석중 브이터치 대표는 원거리 가상터치 제스처를 접목했다. 3D카메라와 센서를 활용해 손이 직접 닿지 않고 허공 속에서 손가락의 간단한 움직임으로 기기를 제어하는 방식이다. 이 회사는 이 기술과 관련해 등록특허 25건을 갖고 있다.움직이는 놀이공간이란 이런 식이다. 차량이 달리는 동안 앞쪽 유리창의 풍경이 곧 게임의 배경이 된다. 포켓몬고와 같이 증강현실을 접목하는 식이다. 차량 안 승객은 간단한 손가락 조작으로 벽돌을 깨부수거나 아이템을 먹는 식으로 각종 게임을 즐긴다. 한곳에 고정된 패널을 직접 터치하지 않아도 되는 만큼 차량 내 여러 사람과 함께 할 수 있다.김 대표는 "과거 20세기 중반 상상 속에서만 가능했던 자율주행차가 눈 앞에서 가능해졌는데, 스마트폰이 우리의 체험공간을 확장했듯 자율주행차 역시 움직이는 컴퓨팅공간을 가능케 할 것"이라고 말했다.