본문 바로가기
bar_progress

글자크기 설정

닫기

[AI 신년인터뷰]제프리 힌턴 "인간 초월한 AI가 통제권 빼앗을 확률 50%"

시계아이콘02분 19초 소요
숏뉴스
숏 뉴스 AI 요약 기술은 핵심만 전달합니다. 전체 내용의 이해를 위해 기사 본문을 확인해주세요.

불러오는 중...

닫기
뉴스듣기 글자크기

AI 석학 독점인터뷰 ① 킬러로봇 경고한 '두머' 힌턴
"실존적 위협 우려...핵무기보다 AI 규제 훨씬 어려워"

"앞으로 5~20년 내 인공지능(AI)이 인간의 지능을 능가할 확률은 50%다. 또한 인간의 지능을 넘어선 AI가 인간으로부터 통제권을 빼앗을 확률도 50%다."


AI 학습의 근간인 딥러닝 개념을 처음으로 고안한 ‘AI 대부’ 제프리 힌턴 토론토대 교수는 최근 아시아경제와의 신년 인터뷰에서 AI의 위험성에 대해 이같이 경고했다. 컴퓨터과학의 노벨상으로 불리는 ‘튜링상’ 수상자인 힌턴 교수는 지난해 돌연 구글을 떠나면서 수십년간에 걸친 AI 연구를 후회한다고 밝혀 화제가 됐던 인물이다. 당시만 해도 챗GPT가 가져다준 눈부신 기술 발전과 편의성에 전 세계가 열광하고 있을 때였다.

[AI 신년인터뷰]제프리 힌턴 "인간 초월한 AI가 통제권 빼앗을 확률 50%" 'AI대부' 제프리 힌턴 토론토대 교수 [이미지 제공=제프리 힌턴 교수]
AD

힌턴 교수는 이날도 AI를 ‘핵무기’에 빗대며 인류보다 똑똑해진 AI가 향후 인간 사회를 통제하는 ‘킬러 로봇’이 될 수 있다고 경고를 쏟아냈다. AI가 작동하는 방식을 인간 두뇌의 신경망에 비유한 그는 "이르면 5년, 늦어도 20년 내 AI의 추론 능력이 인간을 뛰어넘게 될 가능성이 50%에 달한다"고 제시했다. 또 인간이 만든 것들을 모두 학습하고 자율적으로 컴퓨터 코드를 생성, 실행하게 된 AI가 "인간으로부터 통제권을 빼앗을 확률도 50%"라고 내다봤다. 이 경우 공상과학(SF) 영화가 아니라 현실에서도 AI가 인류의 실존적 위협이 될 것이라는 주장이다.


문제는 현시점에서 이러한 AI의 위험성에 대한 대응은커녕, 논의 방향조차 불분명하다는 점이다. 대표적 AI 두머(doomer, 파멸론자)로 꼽히는 힌턴 교수는 다른 두머들처럼 AI 연구를 잠시 중단해야 한다는 입장은 아니다. 그는 각국에서 논의 중인 AI 규제와 관련, "무엇이 효과가 있을지 매우 불분명하다"면서 "AI는 매우 빠르게 발전하고 있어 핵무기보다도 훨씬 더 규제하기 어렵다. AI가 가져오는 이점을 고려할 때 개발 압력도 엄청나다"고 짚었다. 현실적으로 AI 연구 중단이나 규제 자체는 쉽지 않다고 보는 셈이다.


힌턴 교수는 지금 전 세계가 무엇을 해야 하느냐는 질문에는 "(AI가 인류를) 통제하길 원하지 않도록 확실히 하는 방법을 찾기 위해 노력해야 할 때"라고만 답했다. 이러한 답변이 현재로선 AI의 위험성을 경계하고 각자의 위치에서 이에 대한 논의를 이어가는 것만이 최선임을 뜻하냐는 추가 질의에는 "그렇다"고 말했다. 앞서 힌턴 교수는 구글에 사표를 낸 이유로도 "이 문제(AI의 위협)를 자유롭게 논의하기 위해서"라고 밝혔다. 그가 본지와의 인터뷰를 수락한 이유도 한국 독자들에게 AI의 위험성을 경고하고 함께 이에 대해 고민하고 싶다는 취지에서였다.


미국과 중국을 비롯한 전 세계 AI 개발 경쟁이 가속화하는 가운데 힌턴 교수는 안전한 AI 개발을 위한 중국의 동참을 끌어낼 길이 있다고도 밝혔다. 그는 "미·중이 협력할 수 있는 위협이 하나 있다"면서 "AI가 (인류를) 통제하는 위협이다. 둘 다 이를 원하지 않는다"고 말했다. 실존적 위협이 앞으로 성큼 다가올수록 각국의 협력이 이뤄질 수밖에 없다는 설명이다.


AI가 가져올 위험은 먼 미래의 이야기만이 아니다. 힌턴 교수는 이번 인터뷰에서 당장 지금 생성형AI가 일으킬 수 있는 구체적인 위험도 짚었다. 그는 먼저 "단기적으로 AI가 가져올 최악의 여파는 가짜 이미지, 비디오 등으로 유권자들을 쉽게 속이는 것이 될 것"이라고 선거 조작 가능성을 언급했다.


또한 AI가 전 세계적인 금융재앙을 초래할 수 있다는 유발 하라리 히브리대 교수의 최근 경고에 대해서도 "그가 옳을 수 있다"고 동의를 표했다. 데이터 중심인 금융시장의 경우 AI가 통제권을 갖고 새로운 금융도구를 만들게 될 경우 그 위험을 예측조차 하기 어려울 것이라는 관측이 나온다. 다만 그는 AI가 인간들의 일자리를 빼앗을 것이라는 우려에는 "사람들을 훨씬 더 효율적으로 만들 것"이라고 선을 그었다. 이어 "일자리가 적어질 수도 있지만, 사람들의 생산성을 높일 수도 있다"고 덧붙였다.


힌턴 교수는 앞서 샘 올트먼 오픈AI 최고경영자(CEO)의 갑작스러운 해임과 복귀 과정에서 드러난 AI 개발 갈등에 대해서는 "상황에 대해 자세히 알지 못해 말하고 싶지 않다"고 답변을 꺼렸다. 당시 사태는 업계 안팎에서 △AI가 인류에 실존적 위험이 될 수 있다고 보는 두머와 △AI 기술이 인류를 발전시킬 것이며 킬러로봇 주장은 상상에 불과하다는 부머(boomer·개발론자) 간 분열이 수면 위로 드러난 것이라는 평가를 받았다. 전 세계에 AI를 어떻게 안전하게 개발, 활용해야 할 것인가에 대한 보다 근본적인 질문을 던진 것은 물론이다. 급격한 AI 개발과 상업화를 경계하며 이사회의 올트먼 CEO 해임에 동참했던 일리아 수츠케버는 힌턴 교수와 AI 철학을 공유하는 제자기도 하다.



AI 두머 진영의 대표적 석학으로 손꼽히는 힌턴 교수는 이번 인터뷰에서 AI의 위협을 과소평가하는 부머들에게 한 가지 반박도 남겼다. "지능이 더 높은 무언가가 그보다 지능이 낮은 무언가에 의해 통제된 예를 보신 적이 있는가?" 역사를 통틀어도 그런 예가 없다는 것이 지금부터 우리가 AI가 가져올 위험성을 경계해야 하는 이유라고 그는 강조했다.




뉴욕=조슬기나 특파원 seul@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

AD
AD

당신이 궁금할 이슈 콘텐츠

AD

맞춤콘텐츠

AD

실시간 핫이슈

AD

다양한 채널에서 아시아경제를 만나보세요!

위로가기