권해영기자
"생성형 인공지능(AI)이 인류의 지능을 넘어서 인간사회를 지배할 가능성이 있다".
'AI 아버지'로 불리는 제프리 힌턴 토론토대 교수가 4일 일본 요미우리신문과의 인터뷰에서 "인류가 자신들보다 지능이 높은 디지털 존재에 의해 인간사회를 빼앗길 수 있는 위협에 어떻게 대응할 수 있을지 모르겠다"며 이같이 밝혔다.
그는 최근 AI 위험성을 둘러싼 갈등으로 최고경영자(CEO) 축출 사태와 복귀가 이어진 오픈AI가 출시한 '챗GPT'가 이미 인간 뇌의 수천배 지식을 축적할 수 있다고 분석했다. 이르면 2020년대에 AI가 인간의 능력을 여러 부문에서 앞지를 수 있다고 내다봤다.
힌턴 교수는 AI가 초래할 위험으로 권위주의적 정부의 여론 조작, 가짜 뉴스를 이용한 선거 조작을 꼽았다. 그는 "미국에서는 주요 정당 중 하나가 선거전을 유리하게 치르려고 가짜 정보의 확산을 용인하고 있다"며 "가짜 동영상의 제작·소유를 규제하는 법률이 필요하다"고 밝혔다.
AI가 탑재된 무기 시스템도 구체적인 위험이 될 수 있다고 경고했다. 그는 만약 AI가 공격 목표를 자동으로 설정하는 시스템이 실용화되면 전쟁을 제어할 수 없게 될 것이라고 우려했다. 그는 이전에도 "AI가 살인로봇(killer robots)으로 변할 날이 두렵다"고 언급한 바 있다. 아울러 AI가 인간의 일자리를 대체하면서 향후 빈부격차가 확대될 것으로 전망했다.
힌턴 교수는 무엇보다도 AI의 위험을 최소화하기 위해 정부 기관이 직접 나서 대책을 마련해야 한다고 주문했다. 그는 "거대 기업과 국가들이 서로 개발 경쟁을 하고 있어 규제가 매우 어렵다"며 "현재의 대책은 불충분하다. 인류는 방향 전환이 필요하다"고 강조했다. 각국 정부가 협력해 세계적인 AI 개발 경쟁에 브레이크를 걸어야 한다는 호소다.
최근 AI 위험성을 잇따라 경고하고 나선 힌턴 교수는 AI의 핵심인 딥러닝 기술을 발전시켜 AI 아버지로 불린다. 지난 10년간 구글에 몸담으며 AI 기술 개발에 핵심 역할을 해왔다. 하지만 구글이 올해 3월 챗GPT에 대항해 AI 챗봇인 '바드'를 출시하자, 한 달 뒤인 4월 돌연 구글에 사표를 냈다. 구글과 결별을 결심한 이유로는 "AI 기술에 대한 위험성을 자유롭게 비판하기 위함"이라고 설명했다. 이후 힌턴 교수는 AI를 '핵무기'에 비유하며 AI 개발에 매진해 온 "일생을 후회한다"고도 했다.
힌턴 교수는 지난달 17일(현지시간) 오픈AI CEO인 샘 올트먼 해고를 주도한 회사 이사회 멤버였던 알리아 수츠케버 수석 과학자의 지도 교수이기도 하다. 수츠케버는 토론토대에 진학에 힌턴 교수 밑에서 컴퓨터 과학 박사과정을 지냈다. 그는 힌턴 교수가 창업하고 2013년 구글에 인수된 AI 업체 DNN리서치에서 일하기도 하는 등 힌턴 교수에게 많은 영향을 받았다. 올트먼의 적극적인 AI 개발과 상업화를 놓고 수츠케버를 비롯한 오픈AI 이사진의 우려가 컸던 것으로 전해지면서, AI 위험성에 대해 경계의 목소리를 높여 온 힌턴 교수와 수츠케버의 인연에도 이목이 쏠렸다.