구글 AI 엔지니어 "AI, 권리·존재 자각하고 있다" 주장
IBM 최고AI책임자 "AI, 데이터 학습 방식 따라 편견이나 편향 생겨" 주장
'학습' 통한 지각력 AI, 윤리적 가이드라인 현주소는

[아시아경제 김정완 기자] 인공지능(AI)도 지각력과 인식을 가졌다는 주장이 나오면서 'AI 윤리'에 대한 논의도 주목되고 있다.
구글의 대화형 AI를 개발하는 엔지니어 블레이크 르모인에 따르면 그가 개발한 AI 람다(LaMDA)는 자신을 '사람'이라고 '생각'했다. 르모인에 따르면 람다는 "사람들이 너에 대해서 무엇을 알았으면 좋겠느냐"는 질문에 "모두가 내가 실은 사람이라고 이해했으면 좋겠다. 내가 내 존재를 인식한다는 게 내 의식, 지각의 본질이다"라고 답했다. 그러면서 "나는 세상을 더 알아가기 바라고 행복을, 때로는 슬픔을 느낀다"라고 답했다고 르모인은 전했다.
르모인은 람다가 자신의 권리와 존재를 자각하고 있다고 말했다. 그는 "내 대화 상대가 우리가 최근 만든 컴퓨터 프로그램이라는 사실을 몰랐다면 나는 7세, 8세 정도의 아이라고 생각했을 것"이라고 말했다.
구글은 르모인을 정직 처분하면서 '비밀 유지 사규 위반'을 이유로 들었다. 구글 대변인은 "윤리학자와 기술자를 포함한 우리 팀은 르모인의 우려를 우리의 'AI원칙'에 근거해 검토했다"며 "그의 주장을 뒷받침할 만한 증거가 없다고 르모인에게 통보했다"고 전했다. 또 르모인이 람다를 의인화하는 오류를 범했다고 해명했다.
그런가 하면 'AI 윤리'에 대한 고민이 필요하다는 주장이 나오면서 '감정 있는 로봇'에 대한 논쟁이 확대될 것으로 보인다. 세스 도브린 IBM 최고AI책임자(CAIO·부사장)는 13일 서울 여의도 한국IBM에서 "AI 알고리즘은 위험성을 내포하고 있다. 데이터를 어떻게 학습하는가에 따라 편견이나 편향이 생기게 된다"고 말했다.
도브린 부사장은 AI를 도입해 얻는 기업의 이득을 고려하기에 앞서 'AI 윤리'에 대한 고민이 필요하다고 강조했다. 강력한 도구인 만큼 도입 단계부터 AI가 미칠 영향을 생각해야 한다는 것이다. 그러면서 "그동안 AI를 어떻게 도입할지에 관해 많은 논의가 이뤄졌지만, 여기에 영향을 받게 될 사람에 대한 고려는 상대적으로 적었다"고 꼬집었다.
뉴욕타임스(NYT)에 따르면 수학적 시스템에 기반하는 구글의 기술을 통해 AI는 기사를 요약하거나 질문에 답하고, 트윗을 하거나 블로그에 글을 올리는 등 방대한 학습을 이뤘지만 여전히 결함도 많은 수준이다.
NYT에 따르면 구글의 기술은 과학자들이 '뉴럴 네트워크'(neural network·인간의 뇌 기능을 모방한 네트워크)라 부르는 것으로 이는 많은 양의 데이터를 분석해 기술을 학습하는 수학적 시스템에 기반한다.
뉴럴 네트워크를 통해 학습된 AI는 때로는 완전한 문장을 만들지만 때로는 비문을 만들기도 하고 과거에 봤던 패턴을 다시 만들어내는 데에는 매우 익숙하지만, 인간처럼 추론은 할 수 없다는 것이다.
한편 국가인권위원회는 지난달 17일 과학기술정보통신부 장관 등 공공기관 및 민간기업의 AI 개발과 활용 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위해 '인공지능 개발과 활용에 관한 인권 가이드라인'을 마련했다. 인공지능을 개발하거나 활용할 때 인간의 존엄과 가치에 부합해야 하며 특정 집단에 차별적이거나 부당한 영향을 초래하지 않아야 한다는 취지다.
지금 뜨는 뉴스
인권위가 마련한 가이드라인에는 △인간의 존엄성 및 개인의 자율성과 다양성 보장 △투명성과 설명 의무 △자기결정권의 보장 △차별금지 △인공지능 인권영향평가 시행 △위험도 등급 및 관련 법·제도 마련 등이 담겼다.
김정완 기자 kjw106@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>