이진수선임기자
공중급유를 받고 있는 미국의 항공모함용 무인전투기 'X-47B'(사진=미 해군).
그렇다면 킬러로봇을 전개하는 것이 과연 도덕적으로 옳은 일일까. 하버드법학대학원의 국제인권클리닉(IHRC)은 결코 아니라고 말한다. 인공지능(AI)이 접목된 무기는 '제네바협약(1949년 체결된 전쟁 피해자 보호를 위한 협약)'의 인도주의 원칙을 따르지 않을 것이기 때문이다.미 국방부는 미군에 '지침(Directive) 3000.09'를 하달했다. 이에 따라 킬러로봇은 최고 지휘관과 운영자의 명령을 따르도록 설계돼야 한다. 인간의 생명이 걸린 최종 결정에서 인간이 킬러로봇을 통제 혹은 감독할 수 있도록 조치한 것이다. 현재 미 해군이 X-47B를 반(半)자율 모드에서만 사용하는 것은 이 때문이다.컴퓨터 기술 사용이 늘면서 전쟁의 양상은 급변하고 있다. 각국의 군비경쟁이 가열되면서 의도치 않은 충돌 가능성도 높아지고 있다.냉전시대에 미국과 옛 소련은 여러 차례 핵전쟁 직전까지 치달은 바 있다. 당시 인류의 전면적인 재앙을 막을 수 있었던 것은 인간의 판단뿐이었다.(사진=게티이미지)
델 몬테는 '창의적인 무기'에서 인간이 킬러로봇을 통제할 수 있는 방법은 3가지뿐이라고 지적했다.무엇보다 자율살상무기는 공격 아닌 방어에 초점이 맞춰져야 한다는 게 그의 생각이다. 방어라는 면에서 자율살상무기 시스템은 충돌가능성을 낮출 수 있다. 일례로 미국이 자국이나 동맹국을 겨냥한 그 어떤 미사일도 파괴할 수 있는 자율살상무기를 전개한다면 적은 공격이 부질없다고 판단하게 될 것이다.둘째, 델 몬테는 현재 미국의 정책처럼 다른 나라도 반자율살상무기에 초점을 맞춰야 한다고 조언했다. 반자율상상무기는 통제나 감독 등 인간의 판단을 필요로 한다. 따라서 반자율살상무기가 전투요원과 민간인을 구분할 수 있다는 믿음이 생긴다.셋째, 자율성이 부여된 무기를 제한해야 한다. 델 몬테는 대량살상무기에 자율성을 부여한다는 것은 무모한 짓이라고 비난한다. 핵보유국이 핵무기를 자동화할 경우 컴퓨터 코드에 에러 하나만 생겨도 3차대전으로 이어질 수 있기 때문이다.<center><div class="slide_frame"><input type="hidden" id="slideIframeId" value="2015092410095486269A">