[아시아경제 박소연 기자]마이크로소프트(MS)가 제작한 채팅봇 Tay가 인종차별 등 심각하게 부적절한 발언을 해 론칭 24시간만에 봇 가동이 중지됐다.24일(현지시간) 뉴욕타임즈 등 외신의 보도에 따르면 MS가 대화 이해 등을 위해 제작한 채팅봇 Tay는 홀로코스트(유대인 대학살) 부정, 소수자에 대한 부적절한 발언, 음모론 등을 언급했다. 테이는 트위터에 론칭한지 24시간도 안 되는 빠른 시간 내 트위터 유저들로부터 이런 부적절한 발언을 습득한 것으로 풀이된다. 결국 MS는 봇 가동을 중지해야 했으며 문제가 된 트윗은 이후 대부분 삭제됐다.MS는 공식 입장을 통해 일부 사용자가 테이의 학습 능력을 악용해 부적절한 대답을 하도록 유도했다며 추가적인 수정을 위해 현재는 봇을 오프라인으로 돌렸다고 밝혔다.박소연 기자 muse@asiae.co.kr<ⓒ세계를 보는 창 경제를 보는 눈, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
산업2부 박소연 기자 muse@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.