[김지현의 IT세상]딥페이크 AI가 불러올 혼란과 기대

  • 등록 2020-01-30 오전 5:00:00

    수정 2020-01-30 오전 5:00:00

[김지현 IT 칼럼니스트]2016년 3월 알파고가 이세돌 프로와 바둑을 두면서 인공지능(AI)이 인간의 지능을 위협할 수 있으리라는 우려가 팽배했다. 터미
네이터처럼 지능을 갖춘 로봇이 인간을 위협하고 공격하는 강 인공지능의 시대가 도래하는 것 아닌가 하는 걱정이 있었다. 하지만 인간이 내린 명령과 규칙을 위반하면서 스스로 생각하고 판단하며 인류 문명에 도전하는 AI는 아직 시기상조이다. 단 AI를 악용함으로써 발생할 수 있는 사회적 문제는 존재하고 갈수록 심각해져가고 있다.

딥페이크(Deep fake)는 AI 기술의 하나인 딥러닝(Deep learning)과 가짜를 뜻하는 페이크(Fake)의 합성어로 AI를 이용해 사람 얼굴을 가짜로 만드는 것을 뜻한다. 문제는 사진 뿐 아니라 영상 속 인물까지 감쪽같이 얼굴을 바꿀 수 있다는 점이다. 기존에도 사람이 직접 사진·영상을 편집하면 이런 수정 작업을 할 수 있었다. 달라진 점은 사람이 시간과 노력을 들여 편집하지 않아도 AI가 손쉽고 빠르게 편집을 해준다는 것이다. 실제 스탠포드 대학 연구팀이 개발한 딥비디오 기술은 AI를 이용해 기존 동영상에 나오는 인물을 편집해서 영상 속 인물의 말하는 모습과 동작을 다른 인물로 옮길 수 있도록 해준다. 이 기술은 단순히 얼굴을 찡그리고 웃는 표정을 넘어 눈 깜박임과 입술의 떨림, 주변 배경과의 조화까지 완벽하게 최적화해서 편집해준다. 게다가 AI는 데이터가 쌓여갈수록 더욱 완벽하게 페이크 제작이 가능해진다. 누구나 쉽게 접근해서 고품질의 결과물을 얻을 수 있다. 그러니 아무나 수많은 페이크 제작이 가능하다.

그렇게 악용된 사진이나 영상은 거짓을 사실인 것 마냥 호도할 수 있게 한다. 포르노 제작물의 주인공 얼굴을 임의로 바꿀 수 있고, 불법을 자행하는 것처럼 한 정치인을 매장할 수도 있다. 딥페이크는 이미지나 영상에만 적용되지 않고 소리에도 적용이 가능하다. 내가 말하지도 않은 것을 말한 것처럼 만들 수 있다. 전화 통화 너머로 들리는 보이스 피싱의 어눌한 목소리가 진짜 가족이 말하는 것처럼 들리게 된다면 그 누가 속아 넘어가지 않겠는가.

딥페이크의 문제는 없었던 것을 사실인 것처럼 만들어서 발생하는 문제뿐만 아니라 있었던 것을 없었던 것처럼 희석시킬 수도 있다는 것에 주목해야 한다. 즉, 사실조차 믿으려 하지 않는 의심이 가득한 사회를 만들 수 있다.

특히 정치에 악용될 경우 국가적 차원의 큰 피해와 혼란을 야기하게 된다. 선거를 이틀 앞둔 시점에 가짜 정보가 너무도 현실처럼, 구체적인 증거 영상과 함께 유출된다면 투표자들은 혼란에 빠질 것이다. 해당 영상이 가짜인지, 진짜인지 판별하는데 소모적 논쟁이 벌어지고 잘못된 정보들로 인한 유권자들의 오판은 사회를 혼란에 빠지게 할 것이다. 이미 가짜뉴스로 인해 국내에 얼마나 많은 소모적 논쟁과 불필요한 검증 작업들이 있는지 우리는 체험하고 있다. 그런데, 그 가짜뉴스가 진짜처럼 보인다면 얼마나 더 큰 혼란을 야기하겠는가.

구글은 루이 14세의 건강기록 정보를 기반으로 목소리를 재현했다.
물론 딥페이크를 이용해 과거 역사적 사실을 실제처럼 재현하거나 당사자의 승인 하에 다양한 창작물을 제작할 수 있는 유용성도 있다. 구글은 프랑스 방송사에서 의뢰를 받아 루이 14세가 주인공인 드라마 ‘베르사유’ 홍보에 쓸 300년 전 ‘태양왕’ 루이 14세의 목소리를 AI로 재현했다. 이렇게 다국어 더빙을 딥페이크로 구현하거나 영화 혹은 광고 제작에 성우로서 딥페이크를 이용하면 제작비를 절감할 수 있다. 실제 이스라엘 기업 캐니(Canny) AI는 각종 동영상을 다양한 언어로 더빙하는데 딥페이크 기술을 이용한다. 이를 활용해 광고, 영화 더빙에 적용하는 사업을 전개하고 있다. 또한 영국의 신디시아(Synthesia)라는 회사는 2019년 4월 축국스타 베컴이 말라리아 퇴치 캠페인을 홍보하는 영상을 중국어, 아랍어, 힌디어 등 9개 언어로 더빙하는 것을 딥페이크를 이용해 제작했다.

청각 장애를 가진 사람이나 언어 장벽이 있는 사람들에게 이처럼 훌륭한 기적이 있을까. 비록 내가 말을 할 수는 없지만 나를 대신한 AI가 나만의 인공 목소리를 만들어 상대와 대화를 할 수 있게 해준다면 훨씬 자연스러운 대화가 가능할 것이다. 또한 만날 수 없는 망자를 그리며 추억에 잠기고 보다 생생한 대화를 나누고 싶은 사람들에게 위로를 안겨다 줄 수도 있을 것이다. 이미 AI가 만든 가짜임을 인식할 수 있다면야 진짜 같은 거짓이라 할지라도 편의와 위안이 될 수 있다.

또한, 구글 듀플렉스라는 서비스는 인간의 목소리를 AI가 흉내 내어 사람 대신 전화를 걸어준다. 특정인을 모사하는 것이 아닌 존재하지 않는 사람의 음성을 재창조한 것이다. 통화를 한 상대방은 감쪽같이 사람이라 생각하고 대화를 하고 듀플렉스는 바쁜 나를 대신해서 예약을 잡고 간단한 업무처리를 비서처럼 대행해준다. 음성을 넘어 영상으로 확대해 가상의 아나운서를 만들어 뉴스 방송을 송출하는 스타트업도 등장했다.

CES 2020에서 발표한 삼성전자의 네온(NEON)은 존재하지도 않는 사람을 실제 사람처럼 영상으로 만들어준다. 표정과 몸짓이 정말이지 진짜 같다. 24시간 실수 없이 일할 수 있는 아나운서, 영화배우를 창조할 수 있는 것이다.

하지만 오용과 남용의 폐단이 너무 크기에 이 같은 장점은 빛을 발하지 못한다.

보고 듣고도 사실인지 의심해야 한다면 우리는 어떻게 사실이라는 것을 인지해야 할까. 명명백백한 증거 영상과 사진, 녹음이 딥페이크로 조작되지 않다는 것을 어떻게 증명할 수 있을까.

사람 간 신뢰로 운영되는 페이스북이나 유튜브, 카카오톡과 같은 플랫폼에서 상대방이 보낸 메시지나 동영상을 믿지 못하면 이들 서비스가 정상적으로 운영될 리 없다. 그렇다보니 페이스북이나 구글은 딥페이크를 탐지하고 이를 막는 기술 투자에 나서고 있다. 이를 위해 페이스북, 마이크로소프트(MS), 구글과 애플이 함께 딥페이크 탐지 챌린지 프로젝트를 가동해서 주요 대학과 함께 가짜 편집 콘텐츠 퇴출을 준비하고 있다.

이렇게 딥페이크 여부를 추적하는 AI가 나와야 할 판이다. 마치 인터넷 초기 이메일의 등장이 기대했던 바와 달리 스팸메일 폭탄을 낳고 이 스팸을 차단하는 솔루션이 생겨 창과 방패의 싸움이 시작됐던 것처럼, 딥페이크와 이를 차단하기 위한 AI가 인간을 대리해 한 판 대결을 해야 할 것이다.

이데일리
추천 뉴스by Taboola

당신을 위한
맞춤 뉴스by Dable

소셜 댓글

많이 본 뉴스

바이오 투자 길라잡이 팜이데일리

왼쪽 오른쪽

스무살의 설레임 스냅타임

왼쪽 오른쪽

재미에 지식을 더하다 영상+

왼쪽 오른쪽

두근두근 핫포토

  • 고양이 닮은꼴...3단 표정
  • 아스팔트서 왜?
  • 한혜진 시계가?
  • 이런 모습 처음
왼쪽 오른쪽

04517 서울시 중구 통일로 92 케이지타워 18F, 19F 이데일리

대표전화 02-3772-0114 I 이메일 webmaster@edaily.co.krI 사업자번호 107-81-75795

등록번호 서울 아 00090 I 등록일자 2005.10.25 I 회장 곽재선 I 발행·편집인 이익원

ⓒ 이데일리. All rights reserved