[시시비비] 인공지능 윤리규범의 법제화

인공지능(AI)은 2016년 알파고와 이세돌의 바둑 대결을 넘어 로봇청소기, 스피커, 포털 사이트의 뉴스 추천, 면접 등 우리 생활에 이미 깊숙이 들어와 있다. AI는 사람과 유사한 지능으로 외부에서 입력된 정보 외에 스스로 학습하고 사물을 인식하고 그에 따라 자율적으로 행동하는 기기라는 점에서 향후 그 활용 가능성과 파급 효과가 엄청날 것으로 전망된다. 인류의 생활에 가장 큰 영향을 미칠 기술이 될 것 같다.

이런 AI 기술, 알고리즘의 중요성과 위험성을 감안해 AI 윤리 규범 정립에 관한 논의가 한창이다. 도널드 트럼프 미국 대통령은 지난 2월 AI 이니셔티브에 관한 행정명령을 발동했다. 여기에는 기술 개발, 기술 표준 제정, 노동자의 AI 기술 적응 훈련 말고도 시민의 자유와 프라이버시 보호, 공공의 신뢰 확보와 관련된 규범이 포함돼 있다. 또한 AI와 관련해 각 주에서 자율주행 자동차 관련 입법이 이뤄지고 있다.

유럽연합(EU)도 지난해 시행된 일반 개인정보보호법에 AI에 의한 자동화 의사결정 거부권인 프로파일링 거부권을 두고 있다. 2017년 유럽의회는 AI와 로봇 제작자의 윤리 규범, 책임 등이 포함된 로보틱스에 관한 민법 결의안을 발표했다.

한국도 2007년부터 지능형 로봇 개발 및 보급 촉진법에 따라 산업자원부와 로봇산업진흥원 주관으로 로봇윤리헌장을 제정하고 있다. 2017년에는 과학기술정보통신부와 한국정보화진흥원 주관으로 지능정보사회 윤리 가이드라인 및 지능정보사회 윤리헌장을 제정한 바 있다. 전자는 인간 존엄성 보호, 공공선 추구, 인간의 행복 추구를 기본 가치로 삼고 실천 원칙으로 투명성, 제어 가능성, 책무성, 안전성, 정보 보호를 들고 있다. 후자는 공공성, 책무성, 통제성, 투명성의 원칙을 제시한다.

이런 원칙 중 투명성은 정보의 신뢰도를 높이는 중요한 원칙이자 수단이다. 하지만 AI의 알고리즘은 기업의 영업 비밀이기에 공개 범위를 어떻게 정하고 어떤 방식으로 관리하는가가 문제다. 또한 책임성과 안전성의 원칙은 AI의 자율적 판단과 동작에서 발생할 수 있는 각종 사고에 대한 책임 문제를 명확히 한다는 점에서 중요하다.

게다가 AI 알고리즘 기술에 의해 이용자들의 의식적 개입 없이 자동적으로 정보들이 수집ㆍ활용되는 사례가 늘고 있다. 익명성 정보의 경우도 데이터 분석에 의해 언제든 재식별화할 수 있는 등 프라이버시 보호 이슈가 심각하다. 더욱이 알고리즘에 기반한 선택과 의사결정이 자유로운 개인의 결정이라기보다 개발자의 성향과 판단, 사회적 편견 등 외부적 압력에 의한 것일 경우 공정성 시비가 생길 수 있다. 개인의 행태 데이터를 수집ㆍ분석해 제공되는 맞춤형 서비스가 오히려 이용자의 선택권을 제한할 우려도 있다.

이처럼 국민의 삶에 지대한 영향을 미치는 사항과 관련한 기업의 행위준칙이 가이드라인, 헌장 등 윤리 규범으로만 머물고 있는 것은 문제다. 특히 투명성과 영업 비밀의 한계 설정, 책임성의 소재와 범위, 안전성 표준과 인증 체계의 정비, 프로파일링 거부권 등은 법제화가 필요한 사항이다. 윤리 규범을 법제화한 '생명 윤리 및 안전에 관한 법률'과 마찬가지로 AI 윤리 규범의 법제화도 고민해야 할 필요가 있다.

물론 AI 기술에 따른 사회 변화 양상 예측이 불확실하고 AI 기술 개발과 혁신을 장려해야 하는 경제적ㆍ정책적 요구도 존재한다는 점 역시 고려해야 한다. 지금부터라도 AI 윤리 규범의 법제화에 대한 범정부적인 공론화 작업이 시작돼야 한다.

이성엽 고려대 기술경영전문대학원 교수 사이버법센터 부소장

.<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

종합편집부 이근형 기자 ghlee@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.

오늘의 주요 뉴스

헤드라인

많이 본 뉴스