자율주행 자동차에 공간지각 솔루션 제공하는 ‘멀티플아이’ [유니콘의 새싹]

멀티플아이의 임종우 대표.

어린 시절 TV에서 보던 로봇은 대부분 사람과 비슷한 모습을 하고 있다. 특히 얼굴, 그 중에도 눈이 사람과 닮았다. 로봇에서 귀와 코, 입은 찾아보기 어려운 경우도 있지만, 눈은 두개인 경우가 많았다. 눈의 위치와 모양도 사람과 비슷하다. 

하지만 실제 AI의 눈은 사람과 많이 다르다. 카메라 하나 혹은 다수가 눈의 역할을 하는 경우가 많다. 보통 사람이나 동물의 시야는 사물을 식별하는 것 외에 거리를 어림할 수 있게 한다. 이는 양 눈의 다른 시야를 이용하는 방식이다. 한 눈을 감고 사물을 보면 사물의 위치가 조금씩 다르게 보인다. 두 시야가 겹치는 부분에서 시신경과 뇌가 동일한 물체를 인식해, 처리한다. 때문에 조금 더 정확하게 거리를 알 수 있게 된다. 

AI는 그동안 이 같은 기능을 센서 같은 보조 장치에 양보해 왔다. 눈(카메라)으로 사물을 본다고 보기는 어려웠다. 카메라는 부차적 역할을 하고, 주 역할은 센서에 있었다. 때문에 본다고 이야기하기보다는 사물이 해당 위치에 있음을 지각하는 정도였다. ‘멀티플아이’는 인공지능에 동물의 시각을 도입하려 한다. 네 방향에 설치된 광각 카메라를 통해 사물 식별은 물론 거리까지 측정해내는 기술을 개발해 냈다. 이 기술을 20여 년간 연구해 온 한양대학교 컴퓨터소프트웨어학부 임종우 교수가 직접 대표로 창업에 나섰다. 아래는 임 대표와의 일문일답.

테슬라 충돌 방지 기술

-멀티플아이가 보유한 특유의 시각 기술은 뭔가? 

“동물의 시각을 생각하면 이해가 쉽다. 보통 동물은 두 눈으로 사물을 보고, 두 눈의 다른 시야로 사물간의 거리를 확인한다. 더 자세히 설명하면, 눈(카메라)의 시야가 겹치는 지점의 사물을 기준으로 거리를 계산하는 방식이다. 카메라의 화각이 겹치는 지점의 사물을 보고, 두 이미지가 얼마나 다른지를 확인해 거리를 계산한다. 전 방위 감지가 가능하도록, 4개의 광각 카메라를 이용해 전 방위를 볼 수 있게 만들었다.” 

-기존의 카메라는 거리를 파악할 수 없었나. 

“그렇다. 단적인 예로 6월 3일 사고를 낸 테슬라 자율주행 차를 보면 알 수 있다. 테슬라의 자율주행 차량이 전복된 트럭을 피하지 못하고 그대로 돌진해 충돌한 일이다. 카메라 시각으로 자율주행 AI가 주변을 지각하는데, 트럭을 보고 거대한 벽이 아니라 빈 공간으로 인식한 듯 보인다. 시각이 넓지 못해 주변 환경과 다른 벽이라는 것을 인지하지 못했고, 갑자기 거리가 가까워진 장애물이 생겼다는 것을 확인하지 못해 생긴 사고라 본다.”

-멀티플아이의 기술로는 충분히 막을 수 있는 사고였나? 

“아직 자율주행 차량에는 멀티플아이의 장치를 설치해 실험해 본 적은 없으니 확신할 수는 없다. 하지만 안전하게 멈췄을 가능성은 높다. 전 방위를 보고 거리를 측정할 수 있는 기술이니, 전복된 트럭이 장애물인지, 아니면 빈 공간인지는 인식할 수 있다.”

임 대표가 멀티플아이의 기술에 대해 설명하고 있다.

자율비행 드론도 적용 가능

-멀티플아이만의 장점이 있다면? 

“그 동안은 화각이 겹치는 부분을 제대로 이용하지 못했다. 사람이나 동물은 각 눈에 비친 사물의 위치가 달라도 이를 시신경과 뇌를 이용해, 같은 사물로 인식해 거리를 측정하는데 활용한다. 하지만 컴퓨터는 이 인식이 어렵다. 멀티플아이는 딥러닝을 이용해 이를 해결했다. 가상 공간 이미지를 여러 장 학습시켜, 카메라만으로 사물간의 거리를 계산할 수 있게 만들었다.” 

-센서나 레이더 등 보조 장치는 필요 없나. 

“동물이 오감을 동원해 사물을 지각하는 것처럼, 인공지능의 시각에도 보조장치는 필요하다. 특히 자율주행 등 고속으로 움직이는 경우에는 눈으로 보이는 거리 외에도 다양한 변수를 해결해야 한다. 근거리에 있는 사물에는 멀티플아이의 카메라만으로 반응할 수 있지만 눈에 보이지 않는 사물은 레이더 등의 보조 장치가 필요하다.”

-라이다를 대체할 수 있는 기술로 알려져 있다. 

“라이다는 빛을 사물에 쏘고, 그 빛이 돌아오는 시간을 계산해 사물간의 거리를 측정하는 도구다. 현존하는 근거리 측정 도구 중 가장 정확하다. 문제는 가격과 내구성이다. 높은 가격에 내구성도 낮으니 자율주행차 업계에서는 라이다를 대체하는 일에 관심이 많다. 하지만 아직은 시기상조다. 카메라는 이미지는 정확히 볼 수 있으나, 움직이는 사물의 거리 측정에는 다소 오차가 있을 수 있다. 특히 3D 가상 이미지만 학습해 놓은 상태이기 때문에 실제 주행에서는 인식률이 떨어질 수 있다. 라이다를 통해 실제 거리를 계산하고, 이를 카메라로 다시 측정해 지속적으로 학습 시켜 AI를 고도화한다면, 가까운 미래에는 라이다를 대체할 수도 있다.”

-당장 멀티플아이의 기술이 접목 가능한 분야는 뭔가? 

“지금은 3D 지도를 만드는 데에 사용하고 있다. 전 방위 감지가 가능하고 한 번 움직이면 각 사물간의 거리도 기록할 수 있으니, 지하 대형 쇼핑몰 등에서 관심을 보이고 있다. 자율주행 관련해서는 배달이나 접객 로봇에 먼저 활용할 예정이다. 자율주행 자동차에 비해서는 저속으로 움직이고 장애물들의 속도도 높지 않아, 금방 접목이 가능할 것으로 보인다.” 

-멀티플아이의 최종 목표는 자율주행업계 진입인가? 

“AI가 카메라만으로 근거리 인식을 할 수 있게 만들고 싶다. 자율주행 업계 외에도 드론 등 비행 업계에서도 관심을 보이고 있다. 전 방위를 인식하는데다가 거리도 측정할 수 있으니, 드론에 해당 연산을 할 만한 장치가 들어갈 수 있다면, 쉽게 접목할 수 있다. 이외에도 활용방안은 무궁무진하다. AI에 시각이 필요한 곳이라면 어디든 적용할 수 있다.”

[기사 원문 바로가기]

Close Bitnami banner
Bitnami