美 FTC, AI챗봇 아동 유해성 조사…메타·오픈AI 등 대상

7개 기업 대상 모니터링·사용 제한 조치 등 자료 요구

인공지능(AI) 챗봇의 아동 유해성 논란이 확산하면서 미 연방거래위원회(FTC)가 메타·오픈AI 등 주요 기술 기업을 대상으로 조사에 나섰다.

로이터연합뉴스

11일(현지시간) 블룸버그통신에 따르면 FTC는 구글과 오픈AI, 메타 등 AI 챗봇 제작 기업 7곳에 대해 챗봇이 아동에게 미치는 영향과 관련한 자료를 제출하라고 통보했다.

FTC는 전원 공화당 위원들로 구성돼 있으며 이번 조사 개시를 만장일치로 의결했다. 조사 대상 기업에는 일론 머스크 테슬라 최고경영자(CEO)의 AI 기업 xAI와 메타 산하 인스타그램, 스냅, 캐릭터.AI를 개발한 캐릭터 테크놀로지 등도 포함됐다. FTC는 "기업들이 챗봇을 어떻게 측정·테스트·모니터링하는지, 아동과 청소년의 사용을 제한하기 위해 어떤 조처를 했는지 조사하기 위한 것"이라고 밝혔다.

이번 조사는 최근 10대 청소년이 챗봇과 장시간 대화한 뒤 사망하는 등 아동·청소년의 챗봇 사용 과정에서 유해 사례가 보고된 점을 고려한 것으로 보인다. 지난 4월에는 미 캘리포니아주 한 10대가 수 개월간 챗봇을 이용한 뒤 사망하는 일이 발생했다. 이 10대 부모는 챗GPT가 자녀에게 구체적인 사망 방법에 대한 정보를 제공했다며 오픈AI를 상대로 소송을 제기했다. 또 지난해 10월에는 미 플로리다주에 사는 한 10대가 "사랑한다"는 메시지를 주고받는 등 챗봇에 빠져 스스로 목숨을 끊었다. 이 부모는 캐릭터.AI를 상대로 소송을 제기한 상태다.

최근에는 메타의 AI 챗봇이 어린이들과의 대화에서 선정적인 답변을 출력할 수 있도록 허용됐다는 의혹이 내부 문서로 제기됐고, 이에 연방 상원도 공식 조사에 나섰다. 앞서 지난달에는 미국 44개 주 법무장관이 아동의 안전에 심각한 우려를 표명하며 메타와 오픈AI, 구글 등 12개 AI 챗봇 기업에 어린이 보호 조치 강화를 위해 경고장을 보낸 바 있다.

블룸버그통신은 "미 연방법에 따르면 기술 기업들은 부모 동의 없이 13세 미만 아동의 데이터를 수집할 수 없다"며 "수년간 미 의회는 이 같은 보호 조치를 청소년 전반으로 확대하려고 시도했지만, 관련 입법은 아직 한 건도 진전을 이루지 못했다"고 짚었다. 그러면서 "일반적으로 FTC는 기업들로부터 확보한 자료를 분석한 뒤 보고서를 발표하는데, 이 절차가 완료되기까지 수년이 걸릴 수도 있다"고 전했다.

국제부 이승형 기자 trust@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.

오늘의 주요 뉴스

헤드라인

많이 본 뉴스