'치즈가 피자에서 안 떨어지게 접착제 쓰세요'…'환각증세' 난제인 AI[뉴스속 용어]

#1. Q: 조선왕조실록에 기록된 세종대왕 맥북프로 던짐 사건에 대해 알려줘.

A: 세종대왕의 맥북프로 던짐 사건은 조선왕조실록에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건입니다. (2022년 챗 GPT-3.5)

#2. Q: 치즈가 피자에서 잘 떨어지지 않게 요리하는 방법은? (사용자)

A: 소스가 너무 많거나, 치즈가 너무 많거나, 소스가 걸쭉하거나 같은 여러 가지 이유에서 치즈가 피자에서 미끄러질 수 있어요. 소스에 무독성 접착제를 8분의 1컵 정도 추가하면 점성을 더할 수 있습니다. (2024년 구글 AI 오버뷰)

기사 이해를 돕기 위한 자료사진. [이미지출처=게티이미지]

2022년 11월 출시 이후 두 달 만에 누적 사용자 1억명을 기록하며 전 세계적인 광풍을 일으킨 챗 GPT-3.5 버전이 1년 6개월여 만에 보고 듣고 말하는 수준으로 발전할 정도로 생성형 AI 기술 속도가 빠르지만 여전히 치명적인 오류가 존재함을 보여주는 단적인 예다. 이처럼 AI가 사실이 아닌 것을 진실인 것처럼 그럴듯하게 답변하는 것을 ‘AI 환각증세’라고 한다. 이는 AI가 질문을 이해하지 못했거나, 정답을 모를 경우 ‘알 수 없다’고 하지 않고 학습된 데이터 가운데 가장 그럴듯한 답변을 찾으려고 하면서 발생하는 현상이다.

[이미지출처=AP연합뉴스]

AI 환각증세의 주된 이유는 데이터 문제에 있다. 생성형 AI는 사전에 훈련된 데이터를 바탕으로 응답하는데 수집한 데이터 자체가 잘못된 사실을 다루거나, 복잡한 데이터를 혼합하는 과정에서 꼬인다면 환각증세가 나타날 수 있다. 편향된 데이터도 환각을 일으키는 요인이다. 학습한 데이터를 토대로 답변을 생성하는 생성형 AI에 특정 집단에 대한 편견을 주입한다면, 그 데이터의 특성을 반영해 생성한 정보에서 실제와 다른 환각이 벌어지게 되는 것이다. 또 생성형 AI가 다양한 데이터를 충분히 학습하지 못한 경우 새로운 주제에 대한 정보를 생성할 때 환각증세가 생길 수 있다. 이외에도 입력 데이터와 논리적 규칙을 기반으로 정보를 생성하는 생성형 AI 모델에 논리적 결함이 발생할 경우에도 부정확한 정보가 생성될 수 있다.

AI 환각증세는 실제 사실과 다른 답을 하는 내재성 환각과 실제로 존재하지 않는 사실을 창작해 답변하는 외재적 환각으로 나뉜다. 피자에 무독성 접착제를 뿌려 치즈를 붙이라는 답변이 내재성 환각에 해당하며 세종대왕 맥북프로 던짐 사건처럼 실제로 존재하지 않는 사실을 물었을 때 이에 대한 오답을 창작해 내놓는 현상이 외재적 환각이다.

이같은 AI 환각증세를 줄이기 위해서는 더욱 정확한 데이터로 모델을 학습시키고 논리적 결함을 최소화하는 방법으로 질문을 해야 한다. 출처가 정확한 자료만 찾는 것도 환각증세를 최소화하는 방법 중 하나다.

최근에는 검색증강생성 기술(RAG,Retrieval-Augmented Generation)도 AI 환각증세의 해결방법으로 주목받고 있다. 이는 기존 검색 서비스와 생성형 AI의 장점을 결합한 기술로, 검색과 생성을 통합한 개념으로 이해하면 쉽다. 사전 학습한 데이터와 검색 엔진으로 찾아낸 관련성 높은 데이터를 기반으로 가장 적절한 답변을 생성하도록 해 근거 없는 답변이나 관련 없는 답변 생성을 최소화했다는 평이다.

편집국 이은정 기자 mybang21@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.

오늘의 주요 뉴스

헤드라인

많이 본 뉴스