김대현기자
"건강과 아름다움을 가꿔줍니다."
19~20세기 미국의 길거리에서는 기적의 치료제 혹은 자양강장제로 불린 '뱀 기름'이 불티나게 팔렸다. 물론 장사꾼들이 약속한 효능은 어디에도 없었고, 애초에 그럴 수 있는 물건도 아니었다. 그럼에도 구매자들은 절박했고, 무엇보다 광고를 믿고 싶어 했다. 당장은 이해하기 어려운 '최신 제품'이라는 말 자체가 일종의 안도감을 주기도 했다.
신간 'AI 버블이 온다'는 오늘날 인공지능(AI) 시장을 뱀 기름에 빗댄다. 프린스턴대 컴퓨터과학자인 아르빈드 나라야난, 사야시 카푸르 등이 공동 집필한 이 책은 AI를 둘러싼 '진짜 혁신'과 '가짜 기술'을 가르는 기준을 제시한다. 과장된 마케팅을 걷어내고, 환상이 아닌 실제로 작동하는 기술을 구분해 선택해야 한다는 문제의식이다.
책은 AI를 크게 '생성형 AI'와 '예측형 AI'로 나눈다. 생성형 AI는 그럴듯한 문장을 만들어내며 생산성을 높일 수 있지만, '지능'이라기보다는 확률에 기반한 생성에 가깝다. 이 때문에 사실이 아닌 내용도 그럴듯하게 만들어내는 이른바 '환각(허위 생성)'이 발생한다. 문제는 검증이 충분하지 않은 영역에 생성형 AI가 무분별하게 활용되고, 그 성능이 과장된 광고와 함께 확산되고 있다는 점이다. 기사 작성, 법률 문서, 판례 인용 등에서 오류가 잇따르며 사회적 신뢰를 흔드는 사례도 적지 않다.
더 심각한 영역은 채용·치안·의료 등 인간의 삶을 직접 '결정'하는 데 활용되는 예측형 AI다. 마치 미래를 내다볼 수 있는 것처럼 소개되지만, 실제로는 관측 가능한 데이터 범위 안에서만 작동하는 예측에 불과하다. 인간 사회의 미래는 본질적으로 불확실성이 크기 때문에, 데이터의 양과 질을 아무리 늘려도 한계는 사라지지 않는다.
실제로 미국에서는 채용 과정 초기부터 자동화 도구가 대거 도입되면서 지원자들이 '불투명성'을 문제 삼아 왔다. 어떤 기준으로 걸러졌는지 알 수 없는 탓에, 이력서가 인간의 검토를 받기도 전에 탈락하는 일이 반복됐기 때문이다. 지원자들은 평가 시스템에 맞춘 키워드 최적화 등 '알고리즘 대응'에 나서고, 기업은 이를 막기 위한 장치를 덧붙이는 식의 공방이 이어졌다. 기술이 사회에 들어오는 순간, 사람들은 기술에 전략적으로 반응한다. 좋은 예측이 곧 좋은 결정을 보장하지는 않는다는 점이 드러나는 대목이다.
AI가 인간의 정체성을 위협한다는 종말론적 공포에 앞서, 우리의 지갑과 제도를 조용히 잠식하는 '가짜 AI'를 경계해야 한다. 기업은 값비싼 솔루션을 도입하고도 성과를 설명하지 못한 채 예산만 소모할 수 있고, 공공 영역에서는 'AI 행정'이라는 이름으로 불투명한 판단이 시스템에 위임될 위험도 커진다.
그래서 책이 요구하는 태도는 의외로 단순하다. AI 자체를 부정할 수는 없지만, '안 되는 기술'은 과감히 걸러내야 한다는 것이다. 뱀 기름 장사꾼이 사라진 이유는 사람들이 더 건강해졌기 때문이 아니라, 거짓말이 반복되며 신뢰가 붕괴됐기 때문이다. "AI가 우리의 삶 전체를 바꾼다"는 주장 앞에서 위축되기보다, '어떤 데이터로 훈련됐는지', '오차 범위는 무엇인지', '실패했을 때 책임은 누구에게 있는지' 같은 질문을 집요하게 던져야 한다.
무엇보다 책은 '불확실성의 수용'을 강조한다. AI가 만들어내는 결과의 무작위성과 한계를 인정할 때, 더 나은 결정과 정책이 가능해진다는 것이다. "과거는 미래를 예측하지 못한다는 사실에 진정으로 열린 제도를 만드는 데 매진해야 한다. 그런 세상은 얼마든지 가능하다. 우리가 우리의 삶을 지탱하는 무작위성을 껴안을 수만 있다면 말이다."
AI 버블이 온다|아르빈드 나라야난, 사야시 카푸르 지음|강미경 옮김|윌북|420쪽|2만4800원