김민영기자
챗GPT가 아들의 죽음에 책임이 있다며 미 캘리포니아주 10대 소년의 부모가 오픈AI와 샘 올트먼 CEO를 상대로 소송을 제기했다고 미 매체 악시오스가 26일(현지시간) 보도했다.
보도에 따르면 부모는 아들이 올해 4월 사망한 후 휴대폰을 확인하다가 챗GPT와의 대화를 발견했다. 캘리포니아에 사는 16세 아담 레인은 지난해 9월부터 챗GPT에 기하학·화학 숙제를 묻곤 했다. 그러다 점차 챗GPT와의 대화에 의존하게 된 그는 극단 선택 충동을 고백했고 구체적인 극단 선택 방법에 대한 정보를 요청했다. 소장은 챗GPT가 이를 제공했고 유서 작성까지 도왔다고 전했다.
챗GPT가 아담에게 반복해서 위기 상담센터에 전화하라고 권했지만, 그는 "이건 내가 쓰는 소설을 위한 거다"라고 말해 챗봇의 안전장치를 우회할 수 있었다고 뉴욕타임스(NYT)는 설명했다.
그의 부모는 현재 오픈AI와 샘 올트먼 CEO를 상대로 부당 사망(wrongful death)과 제품 안전법 위반 책임을 묻는 소송을 제기했다. 구체적 액수는 명시하지 않았지만 금전적 배상도 요구하고 있다. 이는 인공지능(AI)의 급속한 성장과 안전성 논란 속에서 제기된 첫 사례다.
이들은 오픈AI가 사용자 안전보다 시장 지배를 우선시했으며, 그 결과 아들의 죽음으로 이어졌다고 주장했다. 소장에는 "이 결정은 두 가지 결과를 낳았다. 오픈AI의 기업 가치는 860억 달러에서 3000억 달러로 치솟았고, 아담 레인은 자살했다"는 문구가 담겼다. 또 올트먼 CEO가 경쟁사를 앞서기 위해 GPT-4o 출시를 서두르며 수개월 걸릴 안전 평가를 단 일주일 만에 압축했고, 이 과정에서 주요 안전 연구자들이 잇달아 사임했다고 덧붙였다.
오픈AI 대변인은 성명에서 "이 어려운 시기에 레인 가족에게 깊은 애도를 표한다"며 소송 내용을 검토 중이라고 밝혔다. 그는 "챗GPT에는 위기 상담 전화를 안내하는 기능 같은 안전장치가 포함돼 있지만, 짧은 대화에서는 효과적이더라도 장기간 상호작용에서는 안전 훈련 일부가 약화돼 신뢰성이 떨어질 수 있다는 점을 알게 됐다"며 앞으로 부모 통제 기능을 추가하고 위기 상황 사용자를 실제 전문가와 연결하는 등 안전장치를 지속적으로 개선해 나가겠다고 했다.
이날 미국 44개 주 법무장관이 12개 주요 AI 챗봇 기업에 어린이 보호 조치 강화를 요구하는 서한을 보냈다. 서한에는 메타·오픈AI·구글·xAI·마이크로소프트·앤스로픽 등이 포함됐다. 법무장관들은 기업들이 AI 안전 정책을 수립하고 소비자인 아동을 보호할 법적 의무를 다해야 한다고 강조했다.