'딥페이크' 선거 막아라…오픈AI, 출처표기 등 대책

주요 언론과 라이선스 계약 협의 중

오픈AI가 15일(현지시간) 자사 서비스가 선거에 악용되는 것을 막기 위한 새로운 도구를 내놓았다. 올해 전 세계 주요국에서 선거가 예정된 가운데 AI 발 '딥페이크(Deepfake)' 허위 정보에 대한 우려가 커지는 것을 막기 위한 조치다.

오픈AI는 이날 블로그를 통해 챗GPT, 달리(Dall-E)가 제공하는 정보와 이미지에 출처 등을 표기한다고 밝혔다. 또 챗GPT로 실시간 정보를 얻을 수 있도록 기사 작성자와 링크를 제공한다. 오픈AI는 CNN, 폭스, 타임지 등 주요 언론과 콘텐츠 라이선스 계약을 협의 중이다.

[이미지출처=연합뉴스]

달리로 만든 이미지에는 AI 제작 여부를 확인할 수 있도록 제작자, 제작 시기 등 출처 데이터를 표시한다. 달리로 생성한 이미지라는 사실을 알려주는 워터마크도 삽입할 계획이다. 또 이미지가 달리로 생성됐는지 여부를 조회할 수 있는 이미지 감지 도구 출시를 앞두고 있다. 먼저 언론인, 플랫폼, 연구원 등으로 구성된 테스트 그룹에 피드백을 구할 계획이다. 앞서 지난해 10월 미라 무라티 오픈AI 최고기술책임자(CTO)는 이미지 감지 도구가 내부 테스트에서 99%에 달하는 정확도를 보였다고 밝혔다.

오픈AI는 "정보 출처에 대한 투명성은 유권자가 정보를 더 잘 평가하고, 무엇을 신뢰할 수 있을지 스스로 결정하는 데 도움이 된다"고 말했다.

최근 딥페이크가 정치적으로 악용되는 사례가 급증하고 있다. 지난해 5월 튀르키예에서는 대선 직전에 '테러 집단이 야당 후보를 지지한다'는 조작된 영상이 유포돼 선거 결과에 영향을 미쳤다. AI로 조작된 트럼프 전 미국 대통령 체포 사진, 미국 국방성 청사 폭발 사진 등도 상당한 파장을 불러일으켰다.

다른 빅테크(대형 정보기술기업)들도 AI 발 딥페이크 방지 장치를 도입하고 있다. 앞서 지난해 12월 구글은 AI 챗봇 바드에 선거 관련 질문을 제한한다고 밝혔다. 페이스북의 모회사 메타는 정치 광고에 AI를 사용했는지 공개하도록 요구한다. 또 구글과 어도비 등은 AI로 생성한 이미지에 워터마크를 표시할 계획이다.

그러나 이 같은 조치만으로는 불충분하다는 지적도 나온다. 워싱턴포스트는 "보이는 워터마크는 쉽게 잘라내거나 편집할 수 있다. 눈에 보이지 않게 암호화된 이미지도 이미지를 뒤집거나 색상을 변경해 왜곡할 수 있다"고 말했다.

국제부 오수연 기자 syoh@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.

오늘의 주요 뉴스

헤드라인

많이 본 뉴스