© AFP=뉴스1 © News1
© AFP=뉴스1 © News1

사진 속 인물의 의상을 제거하는 인공지능(AI) 웹사이트가 등장함에 따라 성범죄 악용 우려가 크게 높아지고 있다. 현재 사법적 대응은 한계가 있어 이에 대한 대책 수립이 필요하다는 의견이 나오고 있다. 

13일 IT 업계에 따르면 최근 ‘누디파이’, ‘언드레스’, ‘딥누드’ 등의 명칭으로 불리는 ‘옷 제거’ 딥페이크 웹사이트와 앱이 증가하고 있다. 이는 인물 사진을 업로드하면 나체를 가상으로 형상화하여 이미지를 조작하는 사이트들이다.

미국 소설 미디어 분석 기업 ‘그래피카’(Graphika)의 보고서에 따르면, 지난 9월 동안 약 2400만명이 해당 웹사이트를 방문한 것으로 나타났다. 

특히, ‘레딧’(Reddit), X, 텔레그램과 같은 해외 커뮤니티 사이트를 중심으로 해당 웹사이트 링크가 확산되고 유통되었다. 

국내 커뮤니티 사이트인 디시인사이드 등에서도 해당 링크가 유통되고 있으며, 구글에서도 웹사이트와 앱 다운로드 링크가 검색된다.

이들 업체는 여성의 이미지를 내세우며 홍보하고 있다. 또 고화질, 워터마크 제거 등의 유료 기능으로 수익을 올리고 있다. 그래피카에 따르면 가격대는 기능에 따라 1.99달러(약 2600원)부터 299달러(약 40만원)까지 이른다.

김명주 서울여대 정보보호학과 교수는 "지난 2018년도에 포르노 영화 데이터를 학습한 '딥누드' AI가 개발됐다가 논란이 일자 사라졌는데 포르노 산업 등 음지에서는 기술이 활용되는 것 같다"며 "웹사이트에 접속했다가 악성코드에 감염될 수도 있다"고 말했다.

사진을 올리기만 하면 AI가 이미지를 자동으로 조작하기 때문에 범죄 피해 우려가 크다. 소셜 미디어에서 공개된 사진이나 지인의 사진 심지어는 공개된 아동의 사진을 동의 없이 활용할 수 있기 때문이다.

피해 대상자의 신원이 확인될 경우 명예훼손이나 모욕, 또는 음란물 유포죄로 책임을 물을 수 있다. 사진을 무단으로 사용한 사실이 확인되면 손해배상을 청구할 수도 있다.

다만 유출되지 않고 개인이 소장하는 경우 적발되지 않는 이상 법적 책임을 묻기는 어렵다. 

김진욱 법무법인 주원 변호사는 "초상권 침해부터 무단 사용 등 민사적인 손해배상 책임을 물을 수도 있다"면서도 "유포 없이 본인이 소장하는 경우에는 한계가 있다"고 말했다.

방송통신심의위원회 측은 "이전에 성적 수치심을 유발하는 내용을 심의한 유사한 사례가 있긴 하지만 '옷 벗기기' 앱은 앱의 목적 등 세부 내용을 살펴봐야 할 것 같다"고 말했다.

저작권자 © AI라이프경제 무단전재 및 재배포 금지