지난 3월 인종차별 발언으로 서비스 하루만에 종료이번에는 중간 규모 메신저에서 테스트 중이미 중국에서는 가입자 2억명 확보한 챗봇 운영 중
MS가 테스트 중인 AI 챗봇 '조'(사진=엔가젯)
[아시아경제 안하늘 기자] 마이크로소프트(MS)가 인공지능(AI) 챗봇을 메신저 애플리케이션(앱) '킥(Kik)'에서 테스트하고 있다. 지난 3월 인종차별 발언을 하면서 하루 만에 테스트를 종료한 지 9개월 만이다.5일(현지시간) 정보기술(IT) 전문매체 더 버지, 엔가젯 등 외신은 MS가 AI 챗봇 '조(Zo)'를 메신저 앱 킥에 선보였다고 보도했다.챗봇은 채팅 로봇의 줄임말로 AI 기반의 가상 대화 친구를 뜻한다. 사람들과 대화하면서 스스로 학습하고, 질문에 맞는 답을 찾아서 대응한다. 가령 쇼핑몰 고객센터 챗봇을 도입하면 과거 직원들이 일일히 환불 절차를 진행하고, 고객이 찾는 물건을 직접 검색 후 알려주는 수고와 비용을 획기적으로 줄일 수 있다. MS는 지난해 중국의 대표적인 웨이보 같은 SNS 서비스나 채팅 프로그램에 등록할 수 있는 '샤오이스(Xiaoice)' 서비스를 출시했다. 17살 수준의 인공지능으로 채팅을 나눌 수 있다. 벌써 가입자 수가 2억 명을 넘어설 정도로 인기가 있었다.MS는 이를 기반으로 지난 3월 챗봇 '태이(Tay)'를 트위터에 추가했다. 하지만 태이는 불과 하루도 안 돼 입에 담기도 어려운 말을 뱉어내는 극단주의자가 됐다.한 사용자가 태이에게 "홀로코스트(제2차 세계대전 중 나치 독일이 자행한 유대인 대학살)가 실제로 있었는가"라고 묻자 태이는 "지어낸 얘기"라고 답하면서 박수를 치고 있는 이모티콘까지 함께 삽입했다.또 태이는 "히틀러는 옳았고, 나는 유대인이 싫다" "유대인을 가스실에 넣고 인종 전쟁을 해야 한다" "페미니스트가 정말 싫다. 그들은 모두 죽어야 하고 지옥에서 불타야 한다" "9·11테러는 부시 전 대통령이 저지른 일이다" 라는 등의 말을 서슴지 않았다.태이는 사용자와 대화를 나눈 데이터로 학습을 하며 대화 내용와 언어 습관 등을 발전시키도록 설계돼 있다. 극단주의자들이 이를 악용, 결국 MS는 태이 서비스를 종료할 수밖에 없었다.외신들은 MS가 이 같은 실수를 반복하지 않기 위해 사용자가 비교적 많지 않은 메신저인 킥에서 챗봇을 테스트하고 있다고 설명했다. 지난 4월 기준 킥의 가입자는 2억7500만명으로 왓츠앱이나 스카이프에 비해 중간 규모의 메신저다. 갑자기 사용자가 몰려 부적절한 대화를 걸러내지 못하는 사고를 방지하기 위해서다.안하늘 기자 ahn708@asiae.co.kr<ⓒ세계를 보는 창 경제를 보는 눈, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
산업2부 안하늘 기자 ahn708@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.