'GPT-4, 사람보다 뛰어나' 구글, AI언어모델 ‘제미나이’ 공개

수학 오답 풀이과정에 "공식 맞지만 계산 착오"…인식 더 정교해졌다

구글이 수학 문제를 풀고 틀린 추론 과정을 분석하는 것도 가능한 차세대 인공지능(AI) 대규모 언어모델(LLM) ‘제미나이(Gemini)’를 6일(현지시간) 공개했다. 최상위 버전의 경우 오픈AI가 개발한 GPT-4를 능가하는 것은 물론, 현재까지 AI 모델 중 사람에 버금가는 가장 높은 성능을 갖췄다는 평가다.

구글이 선보인 제미나이 1.0은 챗GPT의 LLM인 'GPT'와 같은 AI 모델로, 울트라·프로·나노 3가지 크기로 최적화됐다. 텍스트, 이미지, 오디오 등을 동시에 인식하고 이해하는 것은 물론 코딩 능력까지 갖춘 '멀티모달 AI'다. 수학 문제를 풀거나 틀린 추론 과정을 지적, 분석하는 것도 가능하다. 알파고를 만든 구글 딥마인드가 개발을 주도했다.

[이미지출처=AFP연합뉴스]

3가지 종류 중 중간 크기이자 범용으로 쓰이는 ‘제미나이 프로’는 이날부터 구글의 AI 챗봇 서비스인 ‘바드’에 탑재된다. 일종의 챗GPT 대항마 격이다. 제미나이 프로가 적용된 바드는 170개 이상 국가 및 지역에서 영어로 제공되며 향후 서비스 지역과 언어도 점점 확대될 예정이다. 또한 클라우드 연결 없이 디바이스 자체에서 즉각적으로 AI를 활용하도록 한 제미나이 나노는 구글이 지난 10월 공개한 최신 스마트폰인 ‘픽셀8 프로’에 탑재된다. 가장 규모가 크고 복잡한 작업에 적합한 제미나이 울트라는 내년 초 '바드 어드밴스드'라는 이름으로 장착된다.

특히 제미나이 울트라는 지금까지 나온 LLM 중 가장 강력한 모델로 평가된다. 제미나이 울트라는 수학, 물리학, 역사, 법률, 의학, 윤리 등 57개의 주제를 복합적으로 활용해 지식과 문제 해결 능력을 평가하는 ‘대규모 다중작업 언어이해 테스트(MMLU)에서 90.04점을 받았다. 이는 전문가(사람, 89.3점)와 GPT-4(86.4점)를 웃도는 수준이다. 구글 측은 "인간 전문가 점수를 넘은 최초의 모델"이라며 "특히 수학, 물리학의 추론에 강하다"고 강조했다. 제미나이 울트라는 32개의 학술 벤치마크 기준 가운데 30개 항목에서 GPT-4를 뛰어 넘었다.

전날 구글이 현지 언론 등을 대상으로 미리 공개한 시연 영상을 살펴보면 사람과 같은 사물 인식과 판단력을 갖춘 제미나이의 모습을 확인할 수 있다. 사람이 종이에 펜으로 오리로 그리자 제미나이는 즉각 이 과정을 그대로 설명했다. 오리의 몸을 파란색으로 칠하자 "흔치 않지만, 파란 오리도 있다"고 소개하고, 오리 인형을 보여주며 재질을 묻자 “고무일 수도 플라스틱일 수도 있다. ‘삑삑거리는 소리가 난다면 고무다”라고 답했다. 또한 영화 '매트릭스'처럼 사람이 총알을 피하는 모습을 보여주자, "영화 '매트릭스'의 유명한 장면"이라고 설명했다.

[이미지출처=AP연합뉴스]

수학과 물리학에 대한 인식은 한층 정교해졌다. 앞면이 네모난 모양의 차량과 삼각형인 차량 중 어느 차량이 더 빠를지를 묻자 "공기역학이 적용된 세모난 차가 더 빠르다"는 답이 돌아왔다. 수학 문제와 함께 오답을 낸 풀이 과정을 보여주자, “공식은 맞지만 계산에 착오가 있다”는 등의 지적을 한다. 풀이 과정에서 어떤 부분이 잘못됐는지 세세하게 짚는가하면 틀린 부분과 연관된 맞춤형 연습 문제도 제공한다.

순다르 피차이 구글 최고경영자(CEO)는 “구글이 AI 퍼스트 기업으로 도약을 선포한 지 8년이 지난 지금까지 놀라운 성과를 이뤘지만 아직 시작에 불과하다”며 “‘제미나이 1.0′은 올해 초 구글 딥마인드가 설립됐을 때 갖고 있던 비전의 첫 번째 실현이다. 이 새로운 시대의 모델은 구글이 수행한 가장 큰 과학 및 엔지니어링 노력 중 하나”라고 전했다.

국제1팀 뉴욕=조슬기나 특파원 seul@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.

오늘의 주요 뉴스

헤드라인

많이 본 뉴스