‘케이팝 딥페이크’ 한국 연예인 얼굴 합성한 포르노 영상 유통

황태호기자

입력 2019-10-15 18:43 수정 2019-10-15 18:45

|
폰트
|
뉴스듣기
|
기사공유 | 
  • 페이스북
  • 트위터
유튜브에서 검색창에 ‘인공지능 문재인 대통령’이라고 치면 문재인 대통령이 카메라 앞에서 대국민 담화를 하는 듯한 영상이 나온다. 표정과 제스처, 목소리가 매우 흡사해 ‘이건 인공지능 합성 영상입니다’라는 안내 문구가 없으면 영락없이 속아 넘어간다. 7월 이 영상을 공개한 국내 인공지능(AI) 기업 머니브레인의 장세영 대표는 “기술 발전 추이를 고려하면 조만간 풍부한 감정 표현까지 가능해질 것”이라고 말했다.

AI 기술이 발전하면서 이처럼 진짜 같은 가짜 영상인 ‘딥페이크(Deepfake)’가 급증하고 있다. 영화 제작, 의학적 활용 등을 목적으로 하는 영상만 아니라 가짜뉴스, 포르노를 만드는 데 악용되는 사례가 빠르게 늘어나면서 딥페이크는 세계적인 문제로 떠오르고 있다.

● ‘케이팝 딥페이크’ 포르노 수천 건 유통

딥페이크는 2014년 구글 소속의 이언 굿펠로 박사가 신경정보처리시스템학회(NIPS)에서 ‘생성적 대립 신경망(GAN)’이라는 AI 기술을 발표하면서 시작됐다. 3년 뒤 미국 유명 커뮤니티 사이트 ‘레딧’에서 딥페이크라는 이름을 쓰는 한 사용자가 이 원천 기술의 활용 기술을 공개했다. 이후 손쉽게 딥페이크를 만들게 되면서 부작용도 일파만파 확산됐다.

특히 한국 여성 연예인의 얼굴을 합성한 포르노 영상이 중국을 중심으로 제작돼 유포되는 사례가 늘고 있다. ‘케이팝 딥페이크’가 포르노의 한 장르를 형성할 정도다. 네덜란드 보안기업 딥트레이스가 최근 발표한 ‘딥페이크 현황’ 보고서에 따르면 온라인의 딥페이크 영상은 총 1만4678개로 이 중 96%가 포르노다. 피해자 중 한국 연예인이 25%로 미국(41%) 다음으로 많다.

유력 기업인, 정치인이 등장하는 가짜뉴스도 종종 나온다. 특히 2020년 대선을 앞둔 미국 정가에선 ‘딥페이크 경계령’이 내려져 있다. 미국 보안기업 파이어아이 관계자는 “러시아나 이란의 미국 대선 개입 수단이 과거에는 텍스트 기반의 가짜뉴스 위주였다면 내년에는 딥페이크가 활용될 가능성이 높다. 훨씬 큰 파괴력을 지닐 것”이라고 했다.

딥페이크를 손쉽게 만들 수 있는 프로그램들이 개발되면서 리벤지 포르노나 정치적 공격을 목적으로 한 영상 등이 범람할 것이라는 우려도 나온다.

● 미국 입법·기술 개발 활발…한국은 대응 부재

표현의 자유를 중시해 가짜뉴스에 비교적 관대한 미국도 딥페이크에 대해선 적극적인 규제 법안을 마련 중이다. 15일 국회 입법조사처가 발표한 ‘딥페이크의 발전과 해외 법제도 대응’ 보고서에 따르면 미국 의회에선 정부가 1년 6개월마다 딥페이크의 현황을 조사해 발표할 것을 규정하거나 딥페이크의 발신자를 표기할 것을 의무화한 법안 등이 활발하게 발의되고 있다.

페이스북과 마이크로소프트 등 기업들도 학계의 AI 전문가들과 함께 지난달 딥페이크 영상 탐지 기술 경연 대회인 ‘딥페이크 탐지 챌린지’를 시작했다. 내년 3월까지 진행되는 이 대회를 통해 딥페이크 영상을 가려낼 수 있는 코드를 만들어 제공하는 게 목표다.

하지만 한국에선 아직까지 뾰족한 대응 조치가 없다. 김유향 국회 입법조사처 과학방송통신팀장은 “딥페이크는 산업적 잠재력이 큰 기술이지만 기존의 허위 정보와는 차원이 다른 위험성을 내포하고 있다”며 “입법 검토를 하면서 정부가 기업과 연계해 기술 개발에 나서야 한다”고 강조했다.


황태호기자 taeho@donga.com



라이프



모바일 버전 보기