본문 바로가기
bar_progress

글자크기 설정

닫기

지인능욕을 아시나요…카톡·페북·인스타 사진 어쩌나

시계아이콘읽는 시간1분 57초
뉴스듣기 글자크기

지인능욕을 아시나요…카톡·페북·인스타 사진 어쩌나 사진은 기사 중 특정표현과 관계 없음. 사진=연합뉴스
AD



[아시아경제 한승곤 기자] #최근 20대 여성 A 씨는 자신의 카카오톡 프로필 사진은 물론 페이스북 인스타그램 등 소셜네트워크(SNS) 계정에서 자신의 사진을 모두 내렸다. 일부에서 지인의 프로필 사진을 이용해 음란한 사진을 만드는 등 이른바 ‘지인능욕’을 하는 얘기를 들으면서부터다. A 씨는 자신도 모르는 사이에 이미 본인 사진을 이용해, 음란한 합성사진과 신상정보가 유포는 되지 않았을까 두려움에 떨 수밖에 없었다.

지인의 SNS 계정에서 프로필 사진 등을 내려받아 음란사진으로 합성한 뒤 유포하는 ‘지인능욕’ 범죄가 사회적 문제를 일으키고 있다.


방송통심심의위원회(이하 방심위)가 지난해 하반기에 실시한 ‘음란·성매매 정보 중점 모니터링’에서 적발한 사례 494건에 대한 접속차단 내용을 보면, 지인능욕·합성이 291건으로 가장 많았다.

‘지인능욕’은 디지털성범죄로 자신이 알고 있는 사람의 사진이나 인터넷에서 얻은 일반인 사진, 연예인 사진 등을 음란물에 합성한 뒤 개인정보, 성적 명예훼손 문구 등을 덧붙여 인터넷에 게시하는 것을 말한다.


최근에도 이 같은 범죄가 발생했다. 경기 성남수정경찰서는 지난 8월 음란물 유포 혐의(정보통신망 이용촉진 및 정보보호 등에 관한 법률 위반) 등으로 B(21·대학생) 씨를 구속하고 B 씨로부터 피해자들의 합성사진을 전달받아 SNS에 게시, 유포한 C 모(18) 군 등 고교생 2명을 불구속 입건했다.


경찰에 따르면 B 씨는 지난해 11월부터 올 7월까지 중·고교 시절 여자 동창 17명의 인스타그램, 페이스북 등 SNS를 돌아다니며 얼굴 사진을 내려받은 뒤 음란 사진과 합성하고, 피해자가 문란한 생활을 한다는 허위 글까지 쓴 혐의를 받고 있다.


이 때문에 피해자들이 이름을 바꾸고 직장까지 그만두는 등 2차 피해까지 발생했다. B 씨와 C 군 등은 서로 모르는 사이로, 메신저를 통해 연락을 주고받으면서 범행을 계속한 것으로 전해졌다.



지인능욕을 아시나요…카톡·페북·인스타 사진 어쩌나 사진=연합뉴스



◆ “딸, 교복 입은 사진 교묘히 편집해 강O 조장하는 글” 청와대 국민청원 호소


‘지인능욕‘ 피해를 입은 여학생의 어머니가 청와대 국민청원 게시판에 피해 상황 호소와 신속한 수사를 촉구하고 나서는 일도 있었다.


청원인은 고등학생 딸을 키우는 엄마라며 “놀란 가슴 쓸어내리며 일단 글을 씁니다”라면서 “최근 소라넷이 폐쇄되면서 음란범죄 조장 글들이 텀블러나 외국 사이트에서 활발히 진행되고 있는데 그 피해를 저희 아이가 당했습니다”라고 토로했다.


이어 “평범한 고등학생인데 교복 입은 사진을 교묘히 편집하여 강O을 조장하는 글과 입에 담기도 치 떨리는 글을 게시하여 다니는 길이 안전하지 않을까 봐 두려워 어찌해야 할지 모르겠습니다"라며 불안함을 호소했다.


그러면서 “긴급한 삭제와 강력한 처벌을 시급한 사항입니다. 아이의 학교 이름 학년이 공개되어 아이가 받을 상처 또한 너무나 마음이 아픕니다”라며 신속한 수사를 촉구했다.


지인능욕을 아시나요…카톡·페북·인스타 사진 어쩌나



◆ 진화하는 지인능욕 범죄, 사진에서 영상까지…국회, 지인능욕범죄 처벌 강화

이런 ‘지인능욕’ 범죄는 최근 AI(인공지능) 기술을 활용해 특정 인물의 얼굴, 신체 등을 영상에 합성할 수 있는 수준까지 이르렀다. 이 과정에서 사용되는 기술은 ‘딥페이크’(Deepfake)라고 불리는 데, 불법 음란사이트를 중심으로 유포되고 있다. 일종의 디지털 성범죄 진화인 셈이다.


실제로 올해 초 미국의 한 온라인 커뮤니티에는 스칼렛 요한슨, 엠마 왓슨 등 해외 유명배우 뿐만 아니라 설현 등 국내 유명 연예인들의 얼굴을 포르노 영상 및 사진에 합성한 불법 콘텐츠들이 무작위적으로 유포된 바 있다.


이런 ‘딥페이크’를 통한 ‘지인능욕’은 일반인 입장에서 해당 영상물의 진위를 가리는 것이 어려워 더 큰 문제가 되고 있다.


CNN 등 현지 언론에 따르면 컴퓨터 공학으로 유명한 카네기멜런 대학교 등 다수 연구진이 딥페이크 구별법을 찾아내고 있지만, 점점 발달하는 기술 탓에 일반인들이 딥페이크를 구별해내기는 쉽지 않다고 밝혔다.


상황이 이렇다 보니 ‘딥페이크 지인능욕’을 막아달라는 청원도 올라왔다. 청원 글을 올린 이는 “인공지능이 딥러닝과 인터넷 빅데이터를 이용해 입력된 사람의 얼굴을 다른 영상에 합성하는 기술”이라면서 “이미 우리나라의 몇몇 연예인들도 그 피해자가 되었으며 국내 각종 커뮤니티에도 입소문이 퍼져 나가고 있다”고 호소했다.


이어 “온갖 성매매, 나체 합성 의뢰, 딥페이크 자료가 오가는 레딧과 텀블러로의 국내 출입을 금지하고 딥페이크 및 합성 사진 유통을 수사하는 것에 더 많은 경찰 인력과 예산이 투입돼야 한다.”며 “딥페이크는 영상 속 얼굴 주인에게 수치심을 남기는, 그 자체로 엄연한 성범죄, 명예훼손”이라고 강조했다.


한편 정부와 국회는 ‘지인능욕’ 범죄에 대해 단속과 함께 법 개정을 통한 처벌 강화에 나섰다.


국회에 발의된 성폭력처벌법 개정안을 보면 타인의 신체가 찍힌 촬영물을 성적 욕망이나 성적 수치심을 유발할 수 있는 촬영물로 재편집해 이를 반포·판매·임대·제공하거나 전시·상영한 사람에 대해 3년 이하 징역이나 500만 원 이하 벌금에 처한다.


방심위는 “지인능욕·합성 정보는 심각한 성범죄이자 인권침해 행위임에도 불구하고 피해자 본인이 인지하기 어려워 조기 대응이 쉽지 않다”며 “위원회는 일반인 신고와 함께, 유관기관과 자체 모니터링 등을 통해 적발·조처하고 있다”고 말했다.





한승곤 기자 hsg@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

AD
AD

당신이 궁금할 이슈 콘텐츠

AD

이 기사와 함께 보면 좋은 뉴스

맞춤콘텐츠

AD

실시간 핫이슈

AD

위로가기