자동차, 의료, 무기 세 분야에 진출한 인공지능에 대해 자세히 살펴본다

<인공지능이 인간을 죽이는 날>. 사진=(주)새로운 제안

[일간투데이 홍정민 기자] 2018년은 4차산업혁명 시대가 성큼 다가오며 AI(인공지능), 자율주행, 블록체인, 빅데이터, IoT(사물인터넷) 등이 핵심 키워드로 떠올랐던 한 해였다. 

인공지능의 경우 자율주행차, 헬스케어, 무기 등 다양한 분야에서 융합돼 사용되고 있는 기술로 기본적인 논의없이 인간의 삶과 직결되는 분야에 편입되고 있다. 이러한 상황 속에서 관련 기술을 활용한 제품들의 오작동을 일으키는 경우가 종종 언론에 보도되는 것을 볼 수 있다. 심각한 사실은 AI 개발자조차 사고 이유를 인지하지 못한다는 것.

<인공지능이 인간을 죽이는 날>은 인간의 생사에 관련된 자동차, 의료, 무기 등 3가지 분야에 탑재되는 AI 제품이 사고 발생 시 그 이유와 소비자들이 겪는 문제, 이에 대한 개발자의 대응 등에 초점을 맞췄다. 

■ 자율주행차 사망사고, AI 펫테일 리스크가 문제라고?
지난 2016년 첫자율주행차 사망사고부터 2018년 미국에서 우버·테슬라 자율주행차를 몰던 운전자 및 보행자가 사망하는 사건이 잇따라 발생했다. 

자율주행을 가능케 하는 대표적인 센서는 라이더, 비디오카메라, 밀리파 데이터로 각자 다른 역할을 하는 이 센서들이 자율주행차의 안전성을 좌우한다. 2016년 사망사고를 일으킨 테슬라의 모델S만 해도 가장 핵심 센서인 라이더를 장착하지 않았다. 

하지만 아무리 모든 센서를 장착하고 안전한 대비책을 마련한다 해도 이론적으로는 일어날 확률이 제로(0)인 사고가 현실에서는 제로보다 훨씬 빈번하게 일어나는 현상인 '팻테일 리스크'가 발생할 수 있다. 

예를 들어 자율주행차가 운전 중 갑자기 달리는 고속도로에서 반대편 차선에 있는 트레일러가 좌회전해서 시야를 가로막는다면? 이건 일어날 확률이 0인 사건으로 자율주행차는 이 경우를 대비하지 못하고 그대로 트레일러를 들이받을 수 있다. 

■ 의료 AI, 차세대 의료로 괜찮을까?
의료 AI는 인간의 정보처리 능력으로는 소화하기 불가능한 수많은 의학 자료를 머신러닝을 통해 각종 질병을 진단하고 치료법을 제시함으로써 의사를 보조하는 역할을 한다. 

왓슨은 원래 미국의 유명 퀴즈쇼에 나가기 위해 개발된 컴퓨터였다. 사람처럼 말을 하고 다양한 질문에 답을 주기도 하는데 이를 '자연어 처리'라고 한다. 문제는 닥터 왓슨이 제시하는 진단과 치료법은 절대적인 정답이 아닌 확률이라는 점이다. 왓슨과 의사의 의견이 엇갈릴 때 확률이 높은 답안을 받은 의사는 어떤 선택을 하게 될까? 이 책은 ‘마이너리티 리포터’와 관련된 그 문제들을 비롯해 현재 의료 AI가 사용되고 있는 현장에서 발생하는 문제들 향후 우리가 겪게 될 문제들에 관해 자세히 설명하고 있다.

■ 'AI 살인 로봇'과 '터미네이터 문제'
저자 고바야시 마사카즈는 미국에서 개발 중인 자율적 무기 개발에 초점을 맞춰 현재 개발하고 있는 '살인 로봇'에 대해 이야기한다. 구체적으로는 '스스로 목표를 정해 돌진하는 미사일', '상공에서 자율적으로 지상의 테러리스트를 감시하는 드론', '적의 잠수함을 끝까지 추적하는 무인 군용함' 등이 있다. 

여기서 발생하는 가장 큰 문제는 무기 제어권이 AI로 넘어가면서 무기의 자율성이 점점 커진다는 것. 이는 실제 '터미네이터 문제'라는 이름으로 펜타곤 관계자들 사이에서 논의 중인 상태다. 미국 외에 영국, 프랑스, 이스라엘, 노르웨이, 한국, 북한, 중국 등에서 AI 무기를 연구하고 있다. 

<인공지능이 인간을 죽이는 날>에서는 인간의 생사와 국가의 안전보장을 좌우하는 분야에 AI에 의한 자동화가 실현될 때 어떤 문제가 발생할 수 있는지 우리가 진짜 경계해야 할 문제들은 무엇인지 소신을 밝히고 있다.


저작권자 © 일간투데이 무단전재 및 재배포 금지