월시 교수, KAIST 인공지능 컨퍼런스서 AI자율무기 위험성 경고
에마 교수, "우리가 정한 윤리 기준에 따라 AI는 사회문제 해결 또는 야기"

▲ 이미지=게티이미지뱅크.

[일간투데이 이욱신 기자] "인공지능 자율 무기는 핵이나 생화학무기처럼 한반도의 평화에 위협적인 존재다. 민간 기업이 '킬러 로봇'을 생산하지 못하도록 막아야 한다."

지난 4월 초 한국과학기술원(KAIST)과 한화시스템이 공동 진행하려 한 인공지능 무기 개발 연구 과제를 문제 삼으며 KAIST와의 국제 공동 연구 보이콧을 주도했던 토비 월시 호주 뉴사우스웨일스대 교수가 다시 한 번 인공지능 자율무기에 대한 경각심을 일깨웠다.

월시 교수는 KAIST 인공지능연구소와 4차산업혁명 지능정보센터 공동 후원으로 21일 서울 웨스틴조선호텔에서 열린 '인공지능 길들이기-공학, 윤리, 정책' 컨퍼런스에서 '자율적 살상 무기, 인공지능 연구자는 무엇을 해야 하는가?'라는 주제 발표를 통해 "인공지능 무기를 말할 때 터미네이터를 떠올리지만 이는 아주 먼 미래의 일"이라며 "우리가 당장 걱정해야 하는 건 아프가니스탄 등에서 군인들이 사용하는 반자율적 드론 기술"이라고 주장했다.

그는 "인공지능 기술이 더 발전해 완전히 자율적인 드론이 전쟁터에서 활용되는 시기가 오면 더 많은 위험이 파생될 것"이라며 "인공지능 자율무기는 해킹 등으로 테러 단체의 무기가 될 가능성이 높고 단 한 명의 프로그래머만으로 작동시킬 수 있어 전쟁터에서 24시간 내내 살상이 이뤄질 수도 있다"고 경고했다.

일본 동경대 에마 아리사 교수는 '일본의 인공지능 윤리 및 정책: 일본 인공지능 학회가 주는 교훈'이라는 발제를 통해 "인공지능이 사회문제를 해결한 것인지, 야기할 것인지는 우리가 어떤 세상에 살기를 원하고 과학과 기술을 어떻게 디자인하느냐에 달려있다"며 "인공지능에게 근본적인 문제에 대한 윤리 기준을 정립하기 위해서 학계와 산업계, 정책당국, 미디어 등은 학제와 국가의 경계를 넘어서 대화하고 소통해야 할 것"이라고 촉구했다.

이밖에 이날 토론회에서 영국 노팅엄대 안스가 쿠너 교수가 '자율 및 지능 시스템의 윤리에 관한 IEEE(미국전기전자통신학회)의 국제 이니셔티브'라는 발제를 통해 세계 최대 전기전자통신학회인 IEEE가 인공지능의 윤리적 개발을 위해 추진하는 산업 표준 제정 사례를, 이수영 KAIST 전기전자공학과 교수가 '어떤 인공지능 윤리를 어떻게 가르칠 것인가?'라는 제목으로 사용자의 감정을 인식하는 대화형 인공지능을 직접 개발하는 과정에서 마주친 윤리적 문제를 사례로 발표했다.


저작권자 © 일간투데이 무단전재 및 재배포 금지