中 얼굴 스와프 기술 이용한 ‘연예인 야동’ 버젓이 판매

[2019-09-04, 10:19:13]

최근 중국에서 얼굴 바꾸기 앱이 큰 인기를 누리고 있는 가운데 해당 기술을 이용해 제작된 가짜 연예인 포르노 영상이 버젓이 판매돼 논란이 일고 있다.

3일 중신경위(中新经纬)에 따르면, 최근 인터넷에서는 유명 연예인으로 얼굴을 바꾼 음란 동영상을 전문 판매하는 업체가 생겨나기 시작했다. 업체들은 이 밖에도 사용자를 위한 얼굴 바꾸기 영상 맞춤 제작, 얼굴 스와프 기술 교육 등의 서비스를 제공하고 있는 것으로 알려졌다.

실제로 지난 2일 중국 중고 거래 플랫폼에서는 유명 배우 얼굴의 가짜 포르노 영상을 판매하는 글을 찾아볼 수 있었다. 판매자는 45세 여배우의 AI 얼굴 스와프 영상 콘텐츠 100여 편 보유하고 있다고 밝혔다. 이 영상은 현재 클라우드 방식으로 49위안(8000원)에 판매되고 있다. 

판매자는 이어 “A급 스타의 콘텐츠가 더 낫다”며 “B급 스타들 영상은 그냥 그렇다”고 부연하기도 했다.
 
또 다른 판매자는 맞춤 제작 얼굴 스와프 영상을 제공할 수 있다는 홍보 글을 게시했다. 이 판매자는 얼굴 변경 대상 사진 5~10장과 동영상을 제공하면 1분에 10위안(1700원)의 가격으로 영상을 제작해 준다고 설명했다. 얼굴 스와프 영상은 최소 5분 이상으로 주문이 가능하며 1~2시간이면 제작이 완료된다.

이 밖에도 AI 얼굴 스와프 기술을 교육해 준다는 업체도 생겨났다. 해당 기술을 배우는 비용은 500위안(8만 5000원)으로 저렴했으며 4~5시간이면 기술을 운용할 수 있는 것으로 알려졌다.

업계에서는 최근 딥페이크(deepfake) 기술을 운용해 손쉽게 얼굴 스와프 영상을 제작할 수 있는 어플 ‘자오(Zao)’의 등장으로 관련 불법 도용 영상이 급증할 것이라는 우려가 나오는 상황이다.

베이징즈린(志霖)법률사무소 자오잔링(赵占领) 변호사는 “AI 얼굴 스와프 영상을 제작, 판매하는 행위는 불법 음란물 배포로 인한 부당 이익 획득죄, 초상권 침해, 명예 훼손 등의 죄에 해당된다”고 말했다. 이어 “이 기술이 남용되면 악의적인 가짜 뉴스 생성, 신형 범죄 등장 등 심각한 부작용이 생겨날 것”이라고 경고했다.

이민희 기자

전체의견 수 0

  비밀댓글
등록