AI 개발 급급해 윤리는 뒷전… 업계 “악해지지 말자” 뒤늦은 고민

이건혁 기자 , 신동진 기자 , 김성모 기자

입력 2021-01-13 03:00:00 수정 2021-01-13 04:38:15

|
폰트
|
뉴스듣기
|
기사공유 | 
  • 페이스북
  • 트위터
챗봇 ‘이루다’가 남긴 과제

개인정보 유출과 소수자에 대한 ‘혐오 학습’ 논란으로 서비스가 중단된 인공지능(AI) 챗봇 ‘이루다’ 사태를 계기로 AI의 윤리적 통제에 대한 고민이 본격적으로 시작됐다. AI 기술의 진화 속도에 비해 인간사회에 미칠 파급력에 대한 논의가 부족했다는 반성이 나오는 것이다. 전문가들은 AI 개발자와 이용자의 도덕성, 데이터 처리 과정의 투명성 등 AI를 둘러싼 구조적인 문제를 점검하는 기회로 삼아야 한다고 입을 모은다.

○ 편견·편향에 자유롭지 않은 AI

12일 이루다 개발사 스캐터랩은 실명 등 개인정보 유출 논란에 대해 “알고리즘으로 실명 필터링을 거쳤는데 문맥에 따라 이름이 남아 있는 부분이 있었다”고 인정했다. 앞서 이루다가 동성애, 장애인 등에 대한 혐오를 드러내 논란이 된 데 이어, 스캐터랩 직원들이 챗봇 개발 과정에서 수집된 특정인의 성적인 대화와 농담을 사내 메신저로 공유했다는 의혹까지 추가로 제기됐다.

해외에서는 AI 개발과 활용 과정에서의 윤리 문제가 수년 전부터 화두가 됐다. 마이크로소프트는 2016년 3월 AI 챗봇 ‘테이(tay)’를 출시했다가 16시간 만에 운영을 중단했다. 비속어와 인종·성 차별 발언을 되풀이해 학습한 테이가 “유대인이 싫다” 같은 혐오 발언을 쏟아냈기 때문이다. 2018년 아마존은 AI를 활용한 채용 시스템을 폐기했다. 남성 지원자가 다수였던 과거의 이력서 데이터를 학습한 AI가 여성 지원자를 차별하는 결과가 나타나서다. 프랑스의 한 헬스케어 기업이 만든 정신과 챗봇은 출시 전 실험에서 모의 환자에게 자살을 독려해 논란이 되기도 했다.


앞으로도 이 같은 문제가 되풀이될 가능성이 크다. 의료, 입시, 채용, 재판, 금융, 자율주행 등은 물론 살상무기까지 AI의 활용영역이 갈수록 확대될 것으로 예상되기 때문이다. 편견과 공정성 시비는 물론 심지어 효율성을 위해 안전이 희생되는 상황도 발생할 수 있다. 지난해 11월 라이더유니온 소속 배달 기사들은 “배달의민족, 쿠팡이츠 등 배달 애플리케이션(앱)의 AI 자동배차가 지형이나 도로 상황은 고려하지 않고 최단거리로 가라고 내몰았다”고 증언하기도 했다.

○ 성숙한 활용 화두…투명성 확보, 인력 키워야



이 같은 문제를 해결하기 위해 최근 들어 정부와 민간 등에서 AI 개발과 운영에 대한 윤리 문제를 본격 논의하기 시작했다. 다음 창업자인 이재웅 전 쏘카 대표는 11일 자신의 페이스북에 “AI를 공공에 서비스할 때 사회적 책임, 윤리에 대해 다시 생각해 보는 기회가 됐으면 한다”고 적었다. 카카오는 2018년 국내 기업 최초의 AI 기술개발 원칙인 ‘알고리즘 윤리헌장’을 제정하고 계속 업데이트하고 있다.

미국 구글에선 내부 직원들이 윤리적 위험성에 관한 의견을 내는 등 내부 논란이 벌어졌다. 소수자 차별, 기업윤리 문제 등에 대해 목소리를 높인 구글 직원들은 올해 초 노조를 결성하고 “‘악해지지 말자(Don’t be evil)’를 실천하는 데 주력하겠다”는 의지를 밝혔다.

하지만 정보기술(IT) 업계의 자체 노력만으로는 한계가 있다는 지적이 나온다. AI 활용 원칙에 대해 사회적으로 합의하고, 양질의 데이터 및 인력을 확보하는 등 구조적 여건을 개선하지 않으면 언제든 이루다 사태가 반복될 수 있다는 것이다.

현재 AI를 윤리적으로 활용하기 위한 기본원칙은 나와 있다. 2019년 10월 민간기구인 한국인공지능윤리협회가 AI 윤리헌장을 제정했고 정부도 지난해 12월 ‘AI 윤리기준’을 마련했다. 하지만 ‘인간의 존엄성’ ‘사회의 공공선’ 등을 위해 노력해야 한다는 선언적 수준에 그친다. 전문가들은 갈수록 다양해지는 AI 활용 상황에서 기본적인 윤리원칙이 어떻게 적용될 수 있을지 구체적인 가이드라인부터 마련해야 한다고 강조한다.

사회적으로 받아들여질 수 있는 AI를 위해 양질의 데이터 관리에 신경 써야 한다는 지적도 나온다. 선입견과 편견을 담은 빅데이터와 알고리즘이 AI 개발에 활용되지 않도록 투명성을 확보해야 한다는 것이다. 이지은 한국IBM 최고기술책임자(CTO·전무)는 “AI 모델의 성패는 데이터에 달려 있다. 믿을 수 있는 정보를 획득하고 정제해 체계화하는 ‘인포메이션 아키텍처(IA)’가 없이는 제대로 된 AI가 나올 수 없다”고 말했다.

데이터를 관리 및 분석하고 AI 알고리즘의 감수성을 향상시킬 전문 인력의 확보도 시급한 과제다. 소프트웨어정책연구소에 따르면 2018∼2020년 국내에서 전문학사 이상 AI 인재 공급이 수요에 비해 1만 명가량 부족했다. 정규 교육을 받은 AI 인력이 부족하니 각 업체에서는 임시방편으로 사내 AI 인력 양성에 나서고 있는 상황이다.

인력 풀 자체가 부족하다 보니 이공계 및 남성 비중이 극단적으로 높아지는 등 개발 인력의 다양성을 확보하기 어렵다는 문제도 있다. 장병탁 서울대 컴퓨터공학부 교수(AI연구원장)는 “AI 개발팀이 이공계 출신 위주로 편향되다 보니 인권 감수성이 덜 다뤄진 측면도 있다. AI 교육 과정에서 인문사회적 소양을 갖춘 융합적 인재들을 적극 육성할 필요가 있다”고 강조했다.

이건혁 gun@donga.com·신동진·김성모 기자

라이프



모바일 버전 보기