본문 바로가기
bar_progress

글자크기 설정

닫기

MS 채팅봇 Tay, 순식간에 인종차별주의자 변해…봇 가동 중단

시계아이콘읽는 시간20초

MS 채팅봇 Tay, 순식간에 인종차별주의자 변해…봇 가동 중단
AD


[아시아경제 박소연 기자]마이크로소프트(MS)가 제작한 채팅봇 Tay가 인종차별 등 심각하게 부적절한 발언을 해 론칭 24시간만에 봇 가동이 중지됐다.

24일(현지시간) 뉴욕타임즈 등 외신의 보도에 따르면 MS가 대화 이해 등을 위해 제작한 채팅봇 Tay는 홀로코스트(유대인 대학살) 부정, 소수자에 대한 부적절한 발언, 음모론 등을 언급했다.


테이는 트위터에 론칭한지 24시간도 안 되는 빠른 시간 내 트위터 유저들로부터 이런 부적절한 발언을 습득한 것으로 풀이된다. 결국 MS는 봇 가동을 중지해야 했으며 문제가 된 트윗은 이후 대부분 삭제됐다.

MS는 공식 입장을 통해 일부 사용자가 테이의 학습 능력을 악용해 부적절한 대답을 하도록 유도했다며 추가적인 수정을 위해 현재는 봇을 오프라인으로 돌렸다고 밝혔다.




박소연 기자 muse@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

AD
AD

당신이 궁금할 이슈 콘텐츠

AD

맞춤콘텐츠

AD

실시간 핫이슈

AD

위로가기