MZ 세대를 위한 뉴스

snaptime logo

'입 찢기고 피 흘리는 아이돌'.... 수위넘는 틱톡 합성 영상

최근 틱톡을 중심으로 아이돌 가수의 얼굴을 복제한 일종의 딥페이크(deepfake) 영상이 무분별하게 양산되고 있다.

딥페이크란 인공지능(AI) 기술을 활용한 이미지 합성 기술을 말한다. 특히 틱톡 해외 이용자 사이에서는 한국 아이돌 가수의 얼굴을 기괴하게 일그러뜨리는 영상도 하나의 트렌드처럼 퍼지고 있어 팬들은 우려의 목소리를 내고 있다.

10대들이 주로 이용하는 사회관계망서비스(SNS) 틱톡은 15초~60초 분량의 짧은 동영상을 공유하는 플랫폼이다. 지난 2월 전 세계 앱 시장(비게임 분야)에서 다운로드와 매출 1위를 기록할 만큼 전 세계적인 인기를 자랑하고 있다.

 

틱톡에 'deep fake'를 검색한 모습. 인기 동영상에서는 국내 걸그룹 블랙핑크 멤버들의 딥페이크 영상이 가장 먼저 뜬다.(사진=틱톡 캡처)


 

틱톡서 '딥페이크' 검색하면 블핑 영상이

국내에서도 많은 아이돌 가수들이 틱톡을 통해 신곡 홍보를 하는 등 틱톡 활용에 적극적이다.

틱톡에선 아이돌 가수의 얼굴을 복제해 영상을 올리는 계정을 어렵지 않게 찾아볼 수 있다. 현재 틱톡에 ‘deepfake’를 검색하면 국내 걸그룹 블랙핑크의 멤버 제니와 지수의 영상을 가장 먼저 확인할 수 있다. 멤버들이 짧은 음악에 맞춰 안무를 선보이는 영상이다.

사실 영상 속 인물들은 모두 실제 아이돌 멤버가 아니다. 얼굴 합성 애플리케이션(앱)을 이용해 만들어낸 가상의 인물이다. 영상게시자도 ‘deepfake’ 해시태그를 통해 이를 알리고 있다.

언뜻 보면 가짜임을 알 수 없을 만큼 정교한 영상에 일부 이용자들은 “지수가 이런 춤도 추네”, “틱톡 하는 줄 몰랐는데 팔로우 해야겠다”, “진짜인 줄 알았다” 등의 반응을 보이고 있다. 또 딥페이크 영상임을 인지한 후에도 “놀랍다”는 반응이 대부분이다.

(사진=틱톡 캡처)


 

단순히 재미로만 소비하면 안돼

일각에서는 딥페이크의 위험성을 지적하며 불쾌함을 드러내고 있다.

한 아이돌 팬이라고 밝힌 이유영씨는 “노출이 심한 영상에 아이돌 멤버 얼굴을 합성한 것을 보면 팬으로서 굉장히 불쾌하다”며 “이런 영상을 왜 만드는건지 그 의도를 모르겠다”고 말했다.

틱톡 이용자 김지은(21세·여)씨도 "트렌드를 따라가고 싶다면 그냥 본인의 얼굴을 노출하면 될 일"이라며 부정적인 입장을 나타냈다.

실제로 아이돌 멤버의 얼굴을 노출이 과한 옷차림의 영상이나 비키니 영상에 합성한 콘텐츠도 틱톡에서 어렵지 않게 찾아볼 수 있다.

무엇보다 딥페이크의 위험성을 인식하지 못하고 하나의 ‘재미’로만 소비하는 데 대해 우려를 나타내는 이들도 있다.

김씨는 “지금은 단순히 안무 영상에만 얼굴을 합성해서 다행이지만 이렇게 누구나 쉽게 딥페이크 영상을 만들 수 있는거면 충분히 범죄에도 악용될 수 있는 것 아니냐”면서 “사람들이 문제 의식 없이 재미있게만 소비하는 것 같아 걱정이 된다”고 전했다.

 

입 찢어지고 피 흘리는 영상도 무분별 노출

해외에서는 국내 아이돌 멤버의 얼굴을 기괴하게 일그러뜨리는 영상도 하나의 유행처럼 번지고 있다. 일명 ‘scary eye trend’다.

국내 아이돌 사진을 사용한 해당 영상은 인물의 입이 귀까지 찢어지거나 합성된 눈동자가 기이하게 움직이다 없어진다. 얼굴 전체가 뭉개지거나 피를 흘리는 영상도 있다.

해외에서 유행 중인 'scary eye trend'영상.(사진=틱톡 캡처)


이에 국내 틱톡 이용자들 사이에서는 해당 영상을 올리는 계정을 신고하는 움직임도 일어나고 있다. 현재 틱톡 자체 커뮤니티 가이드라인에 따르면 '타인의 이미지를 바꾸거나 변형하여 성 암시 또는 성적 행위에 가담함을 묘사 또는 암시하는 콘텐츠'는 허용하지 않고 있다.

음란물이나 지인 능욕 등 범위에 포함되지 않는 이 같은 유명인 합성 영상은 법적으로도 초상권 침해에 해당할 수 있다. 문제는 이런 영상을 일일이 제재하기에는 현실적인 어려움이 있다는 점이다.

방송통신심의위원회 관계자는 "신고가 들어오면 심의를 하고 해외 서버는 접속을 차단하는 등 그에 따른 조치를 취할 수 있다"면서도 "초상권은 당사자가 특정돼야 해 당사자 혹은 법적 대리인의 신고가 있어야 검토를 할 수 있다"고 전했다.

 

딥페이크 기술 포르노에 주로 활용... 국가이미지 저하 우려

김명주 서울여대 바른AI연구센터장은 "딥페이크 영상을 만들기 위해서는 빅데이터가 있어야 한다"며 "그래서 주로 유명인을 대상으로 한 딥페이크 영상이 많다"고 전했다.

김 센터장은 "딥페이크가 원래 악용을 목적으로 만들어진 기술은 아니지만 응용영역을 보면 95%가 포르노 영상"이라며 "세계적인 포르노 사이트에는 K팝(K-POP) 연예인이 굉장히 많다"고 지적했다. 이어 "이런 합성기술은 동영상에 따라 가장 적절한 각도를 찾아주기 때문에 (유명인) 본인처럼 보일 수 있다"며 "당사자의 명예를 훼손하는 문제가 가장 크고 사회적으로도 정보사회에서 가장 중요한 신뢰성이 흔들리는 문제가 생길 수 있다"고 설명했다.

그러면서 김 센터장은 "결과적으로 사회적인 불신비용이 굉장히 커질 수 있다"며 "K팝이 국위선양을 하는 상황에서 (국내 연예인이 딥페이크 영상에 악용될 경우) 장기적으로는 국가적 이미지도 저하될 수 있다"고 우려했다.

실제로 딥페이크 기술을 활용해 음란물 등에 특정인의 얼굴을 합성하는 범죄는 꾸준히 지적돼 왔다. 지난해 3월에는 연예인 얼굴을 딥페이크로 만든 음란물을 공유했던 텔레그램 단톡방이 적발돼 충격을 안긴 바 있다.

이에 김 센터장은 "정도가 심하면 법적으로 처벌해야 겠지만 일일이 법으로만 처벌하기에는 한계가 있다"며 "사전에 AI윤리교육을 많이 해야 한다"고 조언했다.

그는 "(기술 개발 초기에는) 엔지니어 윤리만 생각했는데 이제는 AI윤리가 개발자만을 위한 게 아니라 일반 사용자를 위한 윤리 교육이 많이 이뤄져야 한다"며 "기술 발전에 비례해 교육이 발달하지 않으면 여러 문제가 생길 수 있다"고 덧붙였다.

 

/스냅타임 심영주 기자

공유하기