변선진기자
영국이 인스타그램, 페이스북, 틱톡 등 빅테크(대형 정보기술 기업) 플랫폼의 아동 사용자를 보호하기 위해 연령 확인을 강화하고 알고리즘을 통제하라고 경고했다. 그렇지 않으면 미성년자 사용 자체를 차단할 태세다.
8일(현지시간) BBC에 따르면 영국 통신미디어 규제 당국인 오프콤(Ofcom)은 지난해 10월 제정된 온라인안전법 시행을 위한 아동 안전 행정지침을 이날 발표했다.
각 플랫폼은 어린이가 자살이나 자해, 음란물, 섭식장애 등과 연계된 유해 콘텐츠를 보지 못하도록 사용자 연령 확인을 강화해야 한다는 게 골자다. 사용자 식별을 강화하고 어린이 사용자의 개인 맞춤형 피드에서 유해 콘텐츠를 차단하거나 줄이도록 알고리즘을 재구성해야 한다. 오프콤은 이를 어길 경우 기업 이름이 공개되고 미성년자 사용 자체를 차단하는 등 더욱 강력한 조치도 가능하다고 밝혔다.
멜라니 도스 오프콤 대표는 "테크 기업들은 어린이의 개인화한 피드에 유해 콘텐츠를 밀어 넣는 공격적인 알고리즘을 통제하고 나이에 적합한 경험을 하도록 연령 점검을 도입해야 한다"고 말했다. 이어 "이번 조치는 현재 업계 표준을 훨씬 뛰어넘는 수준"이라며 "법이 전면 시행되면 플랫폼에 책임을 지우는 권한을 주저 없이 행사하겠다"고 강조했다.
오프콤은 7월17일까지 의견수렴을 거친 이후 1년 내로 이번 지침을 확정할 계획이다. 온라인안전법은 또 오프콤에 과징금 부과, 형사 처벌 추진 등 권한을 부여한다.
이번 조치는 갈수록 청소년의 SNS를 통한 유해 콘텐츠 노출이 늘어나고 위험한 콘텐츠가 청소년 신체·정신 건강에 악영향을 미친다는 비판이 거세진 가운데 나왔다. 특히 영국에서는 2022년 일명 '기절놀이 챌린지'를 하다가 청소년이 사망하는 사고가 일어나며 경각심을 촉구하는 목소리가 커졌다.
다만 우려의 목소리도 나온다. 법령이 발효되더라도 각 플랫폼에서 사용자 연령 확인 방법 등 문제가 남아 있고, 사용자와 기업 모두 법령을 준수하는지 보장하기도 어렵다고 BBC는 지적했다. 또한 새 지침이 사용자의 사생활을 침해하거나 표현의 자유를 제한할 수 있다는 주장도 제기된다.