|
인공지능 기술 악용으로 인한 피해는 빠르게 확산되고 있다. 여성가족부의 디지털성범죄피해자지원센터에 접수된 허위 영상물 피해 건수는 2019년 144건에서 지난해 423건으로 약 3배 증가했고, 올 6월까지 726건이 접수됐다. 특히 지난달 26일부터 이달 2일까지 일주일 동안 접수된 허위 영상물 관련 피해 건수는 무려 106건에 달한다.
더욱 주목할 점은 가해자와 피해자 모두 10대 청소년이 차지하는 비중이 크다는 사실이다. 경찰청에 따르면 지난해 검거된 딥페이크 피의자 120명 중 75.8%(91명)가 10대였고, 올해도 7월 기준 전체 178명 중 73.6%(131명)이 10대였다. 또한 2021년부터 2023년까지 경찰에 신고된 허위영상물 사건의 피해자 총 527명 중 59.8%(315명)가 10대 청소년으로 밝혀졌다. 이는 단순한 범죄 이상의 심각한 사회 문제임을 시사한다.
딥페이크 범죄는 갑자기 나타난 것이 아니다. 이미 몇 년 전부터 딥페이크로 제작된 영상이 유포됐고, 수 많은 피해자가 발생했지만 실질적인 처벌 강화나 피해자 보호를 위한 법적 장치가 제때 마련되지 않았다. 'N번방' '서울대N번방' 사건이 발생했을 때만 일시적으로 관심이 집중됐을 뿐 정부와 사회는 이 문제에 지속적인 관심을 기울이지 않았다.
최근 들어 관련 법안들이 대거 발의됐지만, 이는 사건이 터진 뒤에야 급하게 대응한 '사후적 대응'이라는 비판을 받고 있다. 법안 발의가 자체도 늦었을 뿐 아니라 처리과정도 신속하게 이뤄지지 않고 있다.
법안이 미흡한 상황에서 피해자들이 가장 필요로 하는 것은 빠른 영상물 삭제다. 그러나 여전히 많은 영상물이 삭제되지 않은 채 피해자의 고통을 가중시키고 있다. 김남희 더불어민주당 의원이 발표한 자료에 따르면, 2020년부터 올해 6월까지 디지털성범죄피해자지원센터에 접수된 불법 촬영물 삭제 요청 건수는 94만 건에 이르지만, 그중 28.8%는 여전히 삭제되지 않았다.
딥페이크 범죄의 확산은 부실한 법적 제도에서 비롯된다는 지적이 많다. 현행법은 날로 지능화되는 딥페이크 범죄를 막기에 한계가 있다. 불법 합성물을 제작하거나 소지해도 유포 목적이 없다면 처벌을 피할 수 있고, 콘텐츠의 유통 제한이나 플랫폼에서 삭제를 의무화하는 법 규정도 없다.
이제는 플랫폼에 대한 책임 강화와 불법 콘텐츠 삭제 의무를 부여할 때다. 가해자들은 텔레그램과 같은 익명성이 보장된 플랫폼을 통해 범죄를 놀이처럼 저지르고 있다. 해외 주요국들은 이미 플랫폼에 법적 책임을 부과해 불법 콘텐츠 차단을 강화하고 있다. 유럽연합의 디지털서비스법은 온라인 플랫폼에 유해 콘텐츠 검열 의무를 명시하고 있으며, 우리나라도 이를 적극 검토해 법적 대응을 강화할 필요가 있다.