페이스북 자살 선동 콘텐츠 증가…“AI로 97% 사전 삭제”

뉴시스

입력 2019-11-28 16:59 수정 2019-11-28 16:59

|
폰트
|
뉴스듣기
|
기사공유 | 
  • 페이스북
  • 트위터
자살 콘텐츠 3분기 250만개로 2분기 보다 25% 증가
아동 나체 이미지·성착취 관련 1160만…99% 사전 삭제
혐오 및 따돌림 콘텐츠는 상대적으로 AI 의존도 낮아



 페이스북에서 자살 관련 콘텐츠가 올해 3분기 250만개로 2분기(200만개)보다 25%가 증가한 것으로 조사됐다. 페이스북은 , 인공지능(AI) 기술을 이용해 유해 콘텐츠의 감지 및 삭제율을 높이는 등 단속을 강화하고 있다.

유동연 페이스북 아시아태평양 콘텐츠 정책매니저는 28일 오전 서울 강남 페이스북코리아 본사에서 열린 기자간담회에서 이같이 밝혔다.

페이스북 커뮤니티 규정에 따르면 ▲가짜계정 ▲스팸 ▲성인 나체 이미지 또는 성적인 행위 ▲폭력적이고 자극적인 콘텐츠 ▲테러리스트 선전 ▲혐오발언 ▲따돌림과 집단 괴롭힘 ▲마약판매 ▲아동 나체이미지 및 아동에 대한 성착취 ▲자살 및 자해 등을 유해 콘텐츠로 규정해 삭제 조치하도록 했다.

특히 자살 및 자해 관련 데이터는 3분기에 약 250만개의 콘텐츠를 삭제했고 이 중 97.3%를 사전에 감지했다. 인스타그램 경우 2분기에 약 83만5000개의 콘텐츠를 삭제(77.8% 사전 감지)했고, 3분기에는 약 84만5000개를 삭제(79.1% 사전감지)했다.

또 테러 선동 관련 데이터 범위도 확장했다. 알카에다, ISIS 및 연계 조직들에 집중해 데이터를 측정해왔던 이전과는 달리, 범위를 더욱 확장해 현재 모든 테러 조직에 관련 조치를 취하고 있다. 테러 조직 관련 콘텐츠의 사전 감지율은 페이스북 98.5%, 인스타그램 92.2%로 나타났다.

아동 나체 이미지 및 아동에 대한 성착취 영역의 경우, 내부 데이터베이스 위반 사항을 추가해 더 많은 유해 콘텐츠를 발견하고 삭제하는 성과를 보였다. 3분기에 삭제된 콘텐츠는 1160만개로 이 중 99% 이상이 사전에 감지됐다.

페이스북은 이 같은 콘텐츠가 감지된 경우 미국 국립실종학대아동센터에 자동으로 신고돼 관계당국과 법적인 절차를 밟을 수 있도록 조치를 취했다.

또 불법 무기 및 의약품 거래의 경우에도 사전 감지 시스템에 대한 꾸준한 투자로 90% 이상을 사전에 발견해 삭제 조치를 내렸다.

다만 혐오 발언과 따돌림·집단 괴롭힘 콘텐츠는 사전 삭제 조치가 각각 80.1%, 16.1%로 다른 항목에 비해 낮은 수치를 보였다.

그 이유에 대해 유 매니저는 “AI가 비디오 등 움직이는 이미지에 대한 감지는 굉장히 잘하지만 혐오발언과 따돌림의 경우 그 맥락과 의도가 중요하고 받아들이는 사람에 따라 다르기 때문에 AI 의존도가 상대적으로 낮다”고 설명했다.

그러면서 “혐오발언으로 판별된 텍스트와 동일한 문자열 혹은 이이미지를 포함하고 있는지 식별해내는 매칭 기능, 혐오발언 콘텐츠에서 나타나는 공통적인 문구나 패턴의 유사성을 평가하는 머신러닝 식별기능 등의 감지기법을 통해 제재하고 있다”고 부연했다.

페이스북 콘텐츠 관리 정책팀은 약 3만50000명의 인력이 투입된 글로벌 조직으로 24시간, 365일 지원하고 있다. 전 세계적으로 1만5000여명의 잠재적 유해 콘텐츠를 검토하는 팀이 있으며, 한국어를 포함해 50개 이상의 언어로 사용자 커뮤니티에서 들어오는 신고물에 대한 리뷰 및 지원을 제공한다.

이와 더불어 유해 콘텐츠를 사전에 감지하고 이용자들의 신고에 대응하기 위해 AI에 지난 5년 동안 지속적으로 투자하고 있다.

[서울=뉴시스]



라이프



모바일 버전 보기