“리벤지 포르노 만들기 더 쉬워진다”

사진 편집앱으로 가짜 영상 쉽게 만들 수 있어…인간 사이 신뢰 무너뜨리는 범죄

(사진=게티이미지)

[아시아경제 이진수 선임기자] 가까운 장래에 가짜 포르노 영상을 만들어 온라인에 올리는 것이 더 쉬워지리라는 경고가 나왔다.

미국 캘리포니아주 샌프란시스코 소재 동영상 검증 전문업체 앰버의 샤미르 알리바이 최고경영자(CEO)는 최근 영국 타블로이드 신문 데일리스타와 가진 회견에서 이렇게 말하며 "그 결과 이른바 '리벤지 포르노(revenge pornㆍ당사자의 동의나 인지 없이 배포되는 음란물 영상)'가 늘고 인간관계는 황폐화할 것"이라고 덧붙였다.

가짜 포르노 영상 제작에 사용되는 기술이 '딥페이크(deepfake)'다. 인공지능(AI)으로 기존 인물의 얼굴이나 특정 부위를 영화의 컴퓨터 그래픽(CG)처럼 영상으로 합성하는 것이다. 정계ㆍ연예계 유명인사들을 소재로 삼은 가짜 포르노 영상 역시 이렇게 만들어진다.

원리는 대상 인물의 얼굴 특징이나 입의 움직임을 다량의 화상으로 AI에 학습시킨다. 그러면 AI는 학습효과 덕에 특정 인물들의 얼굴을 치환할 수 있게 된다. 특징만 익히면 누구의 얼굴이라도 맞바꿀 수 있는 것이다.

알리바이 CEO는 "곧 인스타그램 필터 같은 사진 편집 애플리케이션으로 가짜 동영상을 쉽게 만들 수 있을 것"이라며 "여성들이 딥페이크 기술 범죄화의 주요 표적으로 떠오를 것"이라고 진단했다.

가장 큰 문제는 이로써 인간관계가 황폐화하고 협박ㆍ갈취가 횡행하게 되리라는 점이다.

알리바이 CEO는 "영상의 진위를 가릴 수 있는 매우 효과적인 솔루션이 개발되지 않으면 사회 전체가 냉소적인 분위기로 바뀔 것"이라며 "그러면 인간은 서로 믿지 못하고 모든 것을 회의적인 시선으로 바라보게 돼 결국 민주주의가 무너지고 말 것"이라고 전망했다.

딥페이크 기술을 악용한 가짜 포르노 영상은 이미 나돌고 있다. 할리우드 여배우 스칼릿 조핸슨(사진)이 대표적인 피해자다.

포르노는 아니지만 인터넷에 도널드 트럼프 미국 대통령과 블라디미르 푸틴 러시아 대통령 등 유명인사들의 얼굴을 조작한 동영상이 속속 올라오기도 했다. 물론 가장 큰 표적은 유명 연예인이기 십상이다.

페이스북 같은 소셜네트워킹사이트(SNS)에 동영상을 올리는 일반인도 타깃이 될 수 있다.

이진수 선임기자 commun@asiae.co.kr<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

디지털뉴스부 이진수 선임기자 commun@asiae.co.krⓒ 경제를 보는 눈, 세계를 보는 창 아시아경제
무단전재, 복사, 배포 등을 금지합니다.

오늘의 주요 뉴스

헤드라인

많이 본 뉴스