세계적 AI전문가들, 카이스트에 경고 ''킬러 로봇' 개발 안돼'(종합)

[아시아경제 나주석 기자, 김철현 기자] 한국 과학자들이 터미네이터형 킬러 로봇을 만들 수 있다며 전세계 유명 인공지능(AI)ㆍ로봇 과학자들이 우려를 나타냈다. 한국이 'AI가 무기 개발에 활용되어선 안된다'는 논란의 중심에 서게 됐다.4일(현지시간) 영국의 경제지 파이낸셜타임스(FT)에 따르면 AI 전문가인 토비 월시 뉴사우스웨일스 대학교수 등 50여 명의 전문가는 이날 한국과기술원(카이스트ㆍKAIST)에 공개서한을 통해 일체의 계약이나 학문적 교류 중단을 뜻하는 보이콧 의사를 밝혔다. 이들은 "우리는 누구도 원하지 않는 무기 경쟁에 끼어들게 됐다"며 "카이스트의 이번 결정은 이러한 무기 경쟁을 부추길 뿐이며 우리는 이러한 결정을 용납할 수 없다"고 전했다.
이번 공개서한에는 월시 교수는 물론 제프리 힌턴, 요수아 벤지오, 위르겐 슈미트후버 등 전 세계적인 AI 전문가들이 동참했다. 이들은 카이스트가 킬러로봇을 개발하지 않겠다는 뜻을 분명히 하지 않을 경우 학문적 교류 등을 중단하겠다고 경고했다.이들 과학자들은 지난 2월 카이스트가 한화시스템과 함께 국방인공지능융합연구센터를 설립한 것을 문제삼고 있다. 이 연구센터를 통해 영화 터미네이터에서 등장했던 킬러 로봇을 개발할 수 있다는 것이다. 센터에서는 ▲AI 기반 지휘결심지원체계 ▲대형급 무인 잠수정 복합항법 알고리즘 ▲AI 기반 지능형 항공기 훈련시스템 ▲AI 기반 지능형 물체추적 및 인식기술 개발 등 AI 기술의 국방 융합 연구에 나설 예정이다.카이스트는 센터의 연구 내용이 일부 과장돼 잘못 알려졌다는 입장이다. 카이스트 관계자는 "최근 인류의 번영과 행복을 추구한다는 내용의 글로벌 비전을 선포했다"며 "카이스트가 대량 살상용 무기를 개발할 수도 없고 그런 기술이 개발되지도 않았다"고 했다. 신성철 카이스트 총장은 성명을 통해 "과학연구기관으로 카이스트는 높은 수준의 인권과 윤리기준을 갖고 있다"면서 "카이스트는 인권과 존엄을 해칠 수 있는 연구, 이를테면 인간의 통제 없이 움직일 수 있는 자율형 무기 개발 등과 같은 연구는 일절 하지 않고 있다"고 밝혔다.이 때문에 킬러 로봇에 반대하는 과학자들이 다음 주 스위스 제네바에서 '킬러 로봇' 규제 문제를 논의하는 유엔회의를 앞두고 본보기 차원으로 카이스트를 문제 삼았다는 시각도 있다. 그동안 이들 해외 AI 전문가들은 유엔에 서한을 보내 인간의 통제 없이 사람을 죽일 수 있는 무기는 세계를 위험하게 만들 수 있으므로 국제 조약 등을 통해 제어해야 한다는 입장을 밝혔다. 이런 방침에 일부 나라들은 환영의 뜻을 밝혔지만 미국과 영국 등은 이미 인간의 통제를 거치느냐 거치지 않느냐 구분하는 것은 무의미한 단계에 접어들어 비현실적인 주장이라고 일축했다.월시 교수 등은 "자율형 무기가 개발될 경우 예전보다 전쟁이 더 빠르고 대규모가 될 수 있다"면서 "판도라의 상자가 열리면 닫기 어렵다"고 경고했다.<center><center><div class="slide_frame"><input type="hidden" id="slideIframeId" value="2018040509351633224A">
</center></center>나주석 기자 gonggam@asiae.co.kr김철현 기자 kch@asiae.co.kr<ⓒ세계를 보는 창 경제를 보는 눈, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

국제부 나주석 기자 gonggam@asiae.co.kr4차산업부 김철현 기자 kch@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.

오늘의 주요 뉴스

헤드라인

많이 본 뉴스