챗GPT 개발자 '위대한 기술될 것…조금 무섭다'

샘 올트먼, ABC뉴스 인터뷰
"사이버 공격에 활용될 수도"
"위험한 사용 두려워 밤잠 못 이뤄"

세계적인 열풍을 몰고 온 생성형 인공지능(AI) '챗 GPT'의 개발사 오픈AI의 최고경영자(CEO)가 AI 기술의 위험성에 대해 우려의 목소리를 냈다.

샘 올트먼 오픈AI CEO는 17일(현지시간) 미국 ABC뉴스와의 인터뷰에서 "AI 기술에 실존적인 위험이 따르지만, 이는 인간이 개발한 가장 위대한 기술이 될 수도 있다"고 말했다.

그는 다만 "우리는 이 부분에 대해 조심스러워야 한다"며 "사람들은 우리가 이것(AI)을 조금 무서워하고 있다는 것에 기뻐해야 할 것"이라고 강조했다.

[이미지출처=로이터연합뉴스]

이번 인터뷰는 오픈AI가 지난 14일 공개한 새로운 대규모 언어모델인 'GPT-4' 출시에 맞춰 진행됐다. 기존 모델은 3000단어 수준의 텍스트를 처리할 수 있었지만, GPT-4는 2만5000단어 이상을 한 번에 분석해 처리한다. 또 텍스트뿐 아니라 이미지를 보고 이해하는 능력을 갖춘 점이 가장 큰 차별점이다.

게다가 코딩에 대한 기본적인 지식이 없는 사용자들도 직접 게임을 제작할 수 있을 정도다. 미국 변호사 시험을 비롯한 각종 시험에서도 상위 10% 수준의 성적을 기록했다.

올트먼은 GPT-4에 대해 "완벽하지는 않다"며 이러한 기술이 위험하게 사용될 수 있다는 두려움 때문에 밤잠을 이루지 못한다고 털어놨다. 특히 그는 AI가 대규모 허위정보 유포에 사용될 수 있다는 점을 우려하고 있다.

그는 "(AI 기술이) 사이버 공격에 사용될 수 있다"면서 "우리와 달리 안전장치로 제한을 두지 않는 사람들이 있을 수 있다"고 지적했다. 이어 "사회가 이들을 어떻게 다뤄야 할지, 어떻게 제한할 수 있을지 파악할 수 있는 시간은 많지 않을 것"이라고 말했다.

올트먼은 챗 GPT 가 잘못된 정보를 전달하는 문제에 대해서도 입장을 밝혔다. 그는 "사람들에게 가장 주의를 주고 싶은 건 환각(hallucination) 이슈"라고 강조했다.

그는 "이 모델은 완전히 지어낸 이야기를 사실인 것처럼 내세울 수 있다"면서 "팩트 데이터베이스가 아닌 추론 엔진"으로 봐야 한다고 주장했다. 사실 정보를 기억하고 전달하는 모델이 아닌, 언어에 대한 이해도를 높여 다음에 올 단어를 예측하는 모델이라는 설명이다.

덧붙여 그는 GPT-4가 기존 GPT-3.5보다 정확성이 40% 이상 향상됐으나, 이를 정보의 주요 출처로 사용해선 안 된다고 경고했다.

이 밖에 그는 AI가 일자리를 빼앗을 가능성에 대해 "인류는 거대한 기술적 전환에 완벽하게 적응해왔다"면서도 "하지만 한 자릿수의 해가 지나는 동안 기술 전환이 일어날 수 있다는 점은 나도 우려되는 부분"이라고 밝혔다.

이슈2팀 김준란 기자 loveways12@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.

오늘의 주요 뉴스

헤드라인

많이 본 뉴스