딥페이크 그리고 AI 기술의 위험성, 올바른 대응 방법
딥페이크는 영상 및 기타 디지털 미디어에서 한 사람의 외모를 다른 사람의 외모로 대체하는 인공 지능의 형태이다. 딥페이크 기술은 잘못된 정보와 가짜 뉴스 및 영화를 만들기 위해 사용될 수 있다는 우려를 불러 일으켰다. 여기 딥페이크에 대한 자세한 설명과 그것들이 무엇인지, 어떻게 작동하는지, 그리고 그것들을 인식하는 방법을 알아보자.
최신 AI 기술은 현실을 모방하는 능력이 점점 더 좋아지고 있다. 예를 들어 오늘날 현대 영화는 역사적으로 보편화되었던 사실적인 배경과 소품을 대체하였다.
바로 인공지능(AI)를 활용해 실제 상황처럼 보이는 세트장, 풍경, 등장인물들을 만들도록 설계할 수 있게 된 것이다. 최근 딥페이크 기술은 뉴스거리가 되고 있다. 가장 최근 세대인 딥페이크는 인공지능(AI)가 다른 사람의 얼굴이 나오는 영상에서 또 다른 사람의 얼굴로 대체하는 것이 가능하다.
딥페이크란 정확히 무엇이며 어떻게 작동하는가?
‘딥페이크’라는 이름은 ‘딥러닝’이라는 기저 기술에서 유래했는데, 이는 인공지능 유형 중 하나이다. 대량의 데이터를 사용하여 스스로 문제를 해결하는 방법을 훈련하도록 설계된 딥러닝 알고리즘은 가상현실에서의 얼굴 교체와 디지털 정보 등 과 같은 것 을 생성하기 위해 사용된다.
다양한 기법들이 있지만, 가장 일반적인 방법은 자동 인코더와 얼굴 교환(교체) 방식론을 가진 심층 신경망이다. 딥페이크를 만들기 위해 목표로 한 동영상이 필요하며, 그 다음 삽입하고자 하는 인물의 일련의 동영상이 뒤따라야 한다.
예를 들어, 대상은 할리우드 영화의 클립일 수도 있고, 내가 넣고 싶은 필름 속 배우들은 유튜브에서 무작위로 가져온 클립일 수도 있다. 오토인코더는 다양한 관점과 환경 조건에서 피사체가 어떻게 보이는지를 연구하는 딥러닝 AI 알고리즘이고, 그런 다음 닮은 점을 발견하여 대상 비디오 상의 인간형상 위에 그 사람을 표시한다.
또 다른 종류의 기계학습방식이 첨가되는데, 이른바 생성적 적대 신경망(GANs)이라 불리는 이것은 몇 번의 라운드 안에서 딥페이크의 오류를 탐지하고 개선하면서 딥페이크 탐지장치가 그것들을 해독하기 어렵게 만든다. GANs는 또한 엄청난 양의 데이터를 공부해서 매우 높은 정확도로 실제 물건을 흉내내는 새로운 사례를 창출하는 방법중의 하나로 쓰이기도 한다.
중국 앱 자오, 딥페이스랩, 페이스앱(내장된 AI 메소드로 사진 편집 도구), 페이스스왑, 그리고 이제는 사라진 딥누드 등 많은 프로그램과 소프트웨어가 아마추어들조차도 딥페이크를 간단하게 만들 수 있도록 해 준다. 수많은 딥페이크 소프트웨어 툴킷은 오픈소스 개발 커뮤니티인 깃허브에서 찾을 수 있다. 이러한 애플리케이션 중 일부는 순수한 재미를 위해 사용되는 반면, 다른 것들은 악의적으로 사용될 가능성이 매우 높다고 할 수 있다.
많은 전문가들은 기술이 발전할수록 딥페이크가 선거 개입, 정치 조작, 범죄 증가 등 대중에게 한층 더 심각한 우려를 제기하게 될 것이라고 우려하고 있다.
딥페이크는 어떻게 사용되는가?
실제 모습과 비슷한 합성 사진을 출력하기 위해 얼굴을 바꾸는 기술은 충분히 재미있고 유익한 용도(예를 들어 영화나 게임 등)로 사용 될 수 있는 반면, 딥페이크는 분명 불안정한 응용 프로그램을 지닌 매우 위험한 기술인 것도 맞다. 한번은 딥페이크가 합성 포르노그래피를 만드는데 사용되었는데, 이는 최초 실제 현실에서 사용한 사례로서 당시 큰 주목을 받았다. 2017년 “딥페이크” 닉네임의 레드닷 유저는 얼굴을 바꾼 배우들의 포르노 포럼을 만들었다. 당시 유명인사에 대한 대중의 평판을 심각하게 떨어뜨렸다. 온라인에서 감지된 딥페이크 비디오의 96%이상이 2019년에 발견되었다.
딥페이크 영상은 정치에서도 이용되었다. 예를 들어, 2018년 벨기에 정당은 프랑스 파리 기후협약에서 발을 빼라고 요구하는 도널드 트럼프 대통령의 연설 내용을 담은 비디오를 공개했다. 하지만 트럼프는 결코 해당 연설을 하지 않았는데, 바로 딥페이크였다. 이 때문에 정치 전문가들은 딥페이크 가짜뉴스의 미래 물결에 대비하고 있다.
지난해 사기를 저지르는 데 CEO의 가짜 음성이 사용된 사례처럼, 음성 모델을 만든 후 그 음성으로 어떤 말을 하도록 만들 수도 있다. 이제 딥러닝 알고리즘을 사용하여 목소리를 복사하려는 사람의 오디오를 단 몇 시간(또는 경우에 따라 몇 분) 만 사용하여 사실적인 오디오 딥페이크가 만들어질 수 있다.
딥페이크 오디오 시스템은 현재 의학, 교육 분야 등 다양한 산업분야에서 활용되고 있으며 앞으로는 더욱 많은 영역에서 사용될 전망이다.
딥페이크 오디오 분야에서는 소리변형 뿐만아니라 목소리 교체까지 확대되었다.
이전까지는 마이크 녹음시에 잡음제거용 필터를 끼우거나 특수한 소프트웨어를 이용해야만 했었는데 최근에는 아예 그런 과정없이 그냥 아무것도 안낀채로 샘플링하면 알아서 결과값이 나오게끔 되어있다. 물론 전문성우만큼은 못하겠지만 그래도 직접듣지 않는 이상 구별하기 힘들 정도로 자연스럽게 나온다고 한다.
딥페이크 탐지 방법
이러한 상황에서 무분별한 불법 딥페이크 확산을 막기위한 방안으로는 사이버보안분야에서와 마찬가지로 수많은 딥페이크기술이 나와야 한다고 생각한다. 왜냐하면 이미 인터넷상에는 수많은 거짓뉴스들이 퍼져있고 따라서 더욱 더 강한효과를 가진 대처방안이 필요하다고 생각되기 때문니다.
기존 딥페이크여부를 확인하는 몇가지 방법
현재 딥페이크는 얼굴을 사실적으로 애니메이션 하기 힘들기때문에 눈동자가 심하게 흔들리거나 뭔가 어색한 움직임을 보인다던가 피부색이 다르거나 조금 뿌옇게 흐려보이는 증상이 나타날 수 있다. 하지만 문제점을 보완시킨 버전이 지속적으로 나오고 있기 때문에 앞으로는 저런 증상이 사라질수도 있다고 본다.
딥페이크 대응기술 어디까지 왔을까?
여전히 대부분의 딥페이크기법은 합법이기때문에 그대로 방치된다면 더많은 피해사례가 생길수도 있기때문에 나름대로 대비책을 마련하지 않으면 안될 것이다. 그래서 이미 많은 기업에서는 딥페이크 탐지방법을 연구하고있고, 그 중 일부분은 스타트업 기업이지만 매우 뛰어난 기술을 보유중이다.
오퍼레이션 미네르바는 딥페이크탐지에 있어 보다 직접적인 접근방식을 취하고 있다.
이 회사의 알고리즘은 고유한 디지털 지문이 찍힌 특징을 분석하여 일치여부를 확인하며, 이로 인해 오판율을 낮출 수 있게 된다. 즉 기존에 알려져있는 동영상의 편집본인지 아닌지를 판별하면서 심지어 불법성 여부까지 판단할 수 있도록 도와준다. 특히 이 회사의 기술은 유명인의 얼굴을 이용한 불법포르노영상을 제작하는것을 방지하는데 도움을 줄 예정이다.
또한 페이스북은 ‘딥페이크 탐지 챌린지’를 열어 자사의 플랫폼내에서 딥페이크나 허위정보 유포행위를 막기위한 노력을 기울이고 있다. 총상금규모는 50만달러에 달했다.
함께 보면 좋은 최신 AI 정보