러시아-우크라이나 전쟁에 사용된 대통령 딥페이크 영상

젤렌스키 우크라이나 대통령이 러시아에 항복을 선언하는 모습을 담은 딥페이크 영상

사진 출처, Other

사진 설명, 젤렌스키 우크라이나 대통령이 러시아에 항복을 선언하는 모습을 담은 딥페이크 영상

SNS 플랫폼인 트위터에선 블라디미르 푸틴 러시아 대통령의 딥페이크(인공지능을 기반으로 한 이미지 합성 기술) 영상이 다시 퍼져나가고 있다.

푸틴 대통령이 평화를 선언하는 모습을 담은 조작된 영상이다.

한편 또 다른 SNS 기업인 메타와 유튜브는 이번 주 볼로디미르 젤렌스키 우크라이나 대통령이 러시아에 항복을 선언하는 모습을 담은 딥페이크 영상을 자사 플랫폼에서 삭제했다.

양측 모두 언론 조작 전략을 지속하고 있는 가운데, 이런 영상들을 통해 알 수 있는 이번 전쟁에서의 허위 정보 유포는 어떤 상태일까.

그리고 대중은 정말로 이런 영상들을 믿을까.

젤렌스키 대통령의 모습을 흉내 낸 조작 영상에 대해 많은 우크라이나인은 설득력이 없다며 실소했다.

해당 영상에서 젤렌스키 대통령은 연단에 서서 우크라이나인들에게 무기를 내려놓으라고 말한다. 대통령의 머리는 몸보다 너무 커 보이며, 머리 부분의 화질은 선명하지도 않다. 그리고 목소리도 실제보다 더 낮다.

젤렌스키 대통령도 공식 인스타그램 계정에 이 영상을 올리면서 "유치한 도발"이라고 적었다.

그러나 우크라이나 전략통신정보보안센터는 러시아 정부가 우크라이나인들에게 항복을 설득하기 위해 딥페이크 기술을 사용할 수 있다고 경고한 바 있다.

SNS 기업의 '쉬운 승리'

나다니엘 글리처 메타 보안 정책실장은 해당 딥페이크 영상이 "오해의 소지가 있는 미디어 조작에 대한 자사 정책을 위반 했다"는 이유로 영상을 "신속히 검토 후 삭제했다"라고 트위터에서 밝혔다.

유튜브 또한 해당 영상이 허위 정보에 관한 자사 정책을 위반해 삭제됐다고 밝혔다.

책 '딥페이크스'의 저자인 니나 시크는 이번 경우는 SNS 기업들에게 "쉬운 승리"였다고 말했다. 해당 영상은 너무 조잡해 심지어 "덜 꼼꼼한 사람들"도 쉽게 가짜임을 알아챌 수 있을 정도였기에 때문이다.

시크는 "SNS 플랫폼 기업들이 이런 형태의 허위 정보에 대해 더 많은 조치를 하지 않는다면 문제가 커질 수 있다"라고 말했다.

"이번 전쟁에는 많은 형태의 허위 정보가 드러나지 않은 채 존재합니다."

"이번 영상은 기술이 조잡하고 엉성했지만, 가까운 미래에 나올 조작 영상은 그렇지 않을 것입니다."

시크는 "정교한 딥페이크 영상은 진실을 말하는 언론에 대한 신뢰"를 무너뜨릴 것이라고 경고했다.

그러면서 "사람들이 모든 것이 조작일 수 있다고 믿기 시작할 것"이라고 말했다.

"이것은 신무기이자 강력한 형태의 시각 정보 조작입니다. 그리고 누구나 만들어 낼 수 있죠."

딥페이크 기술의 다면성

마이헤리티지(MyHeritage)사는 이제 영상에 목소리도 넣을 수 있는 '라이브스토리' 기능도 추가했다

사진 출처, MyHeritage

사진 설명, 마이헤리티지(MyHeritage)사는 이제 영상에 목소리도 넣을 수 있는 '라이브스토리' 기능도 추가했다

이제 많은 사람들이 딥페이크 기술을 사용해 오래된 친지의 사진을 영상으로 재탄생시킨다. 해당 기술을 개발한 마이헤리티지(MyHeritage)사는 이제 영상에 목소리도 넣을 수 있는 '라이브스토리' 기능도 추가했다.

그러나 작년 한국 TV 언론사인 MBN이 김주하 아나운서의 모습을 한 인물이 뉴스 소식을 전했지만, 사실 딥페이크 기술을 사용한 것이라고 밝혔을 때 대중의 반응은 엇갈렸다.

정말 진짜 같은 모습에 감탄을 금치 못한 이도 있었으나, 이제 이 아나운서는 실직하는 것 아니냐고 걱정하는 목소리도 있었다.

또한 딥페이크 기술은 최근 몇 년간 음란물 제작에도 많이 사용됐다. 이 기술을 사용해 사진 속 인물들을 "나체로 만들 수" 있기 때문이다.

풍자의 목적으로 사용되는 일도 있다. 영국 지상파 방송국인 채널4는 작년 딥페이크 기술로 가짜 엘리자베스 2세 영국 여왕을 만들어 여왕의 성탄절 메시지 내용을 바꿔서 방송에 내보냈다.

그러나 아직 딥페이크 기술의 정치적 이용은 상대적으로 드물다.

판별되지 않는다면

영상과 기술을 활용한 인권 증진 운동을 이끄는 비영리 단체인 위트니스(Witness.org)의 임원 샘 그레고리는 "젤렌스키 대통령의 모습을 한 해당 영상은 딥페이크 영상 중 운이 좋았던 사례"라고 말했다.

"처음부터 교묘히 조작된 것이 아니라 쉽게 알아채 판별할 수 있었습니다.

우크라이나 측의 거짓이라는 폭로도 있었고 젤렌스키 대통령이 직접 SNS에서 해당 영상을 비난했기 때문에 페이스북 사가 정책에 따라 그렇게 쉽게 영상을 삭제할 수 있었습니다."

그러나 언론인과 인권단체는 세계 다른 지역에서는 딥페이크 기술을 판별할 수단도, 폭로할 능력도 없다고 우려했다.

딥페이크임을 판별하기 위해선 영상에서 사람이 움직이는 모습을 분석하거나 딥페이크 영상을 만든 머신러닝(기계 학습) 프로세스의 흔적 등을 찾아야 한다.

지난여름 미얀마 고위 정치인이 자신의 부정부패를 고백하는 영상 하나가 온라인 판별기에선 조작이 아닌 원본으로 결론 났다. 그러나 이 영상이 딥페이크라는, 진위에 대한 논란은 여전하다.

그레고리는 "어느 쪽이든 100%의 증거란 있을 수 없으며, 딥페이크라고 믿고 싶어 하는 사람들의 욕구 때문에 실제 환경에서 딥페이크를 판별하기란 어렵다"라고 말했다.

"몇 주 전 푸틴 대통령을 흉내 낸 딥페이크 영상에 대해 많은 사람이 풍자로 받아들였지만, 사실 풍자와 허위 정보는 종이 한 장 차이입니다."

분석: 샤얀 사르다리자데, BBC 모니터링

젤렌스키 대통령의 딥페이크 영상의 내용이 처음 모습을 드러낸 것은 지난 16일(현지시간) 우크라이나 TV 방송국인 우크라이나24의 뉴스 생방송 도중이었다. 딥페이크 영상의 내용이 화면 자막으로 송출된 것이다.

그 후 이 언론사의 웹사이트에 해당 영상의 캡처 화면과 내용 전문이 올라왔다.

우크라이나24는 이날 자사 웹사이트에 대한 접속이 차단됐으며, 뉴스의 자막 또한 해킹당했다고 밝혔다.

이후 이 딥페이크 영상은 러시아의 페이스북인 브콘탁테(VK)와 텔레그램에서 널리 퍼져나갔으며 페이스북, 인스타그램, 트위터와 같은 SNS 플랫폼에도 등장했다.

앞서 이번 전쟁에서뿐만 아니라 딥페이크 기술이 위험할 수 있다는 경고의 목소리가 있었다.

물론 모두를 속일만한 정교한 딥페이크 영상 제작에는 비용과 시간이 많이 든다. 그리고 이번 전쟁에서 오래된 영상과 변조된 밈은 아주 흔하고 효과적인 거짓 정보 전술로 사용되고 있다.

이번에 논란이 된 젤렌스키 대통령의 딥페이크 영상은 매우 조잡했으며 설득력도 없었다. 본 것 중 제일 엉성했다.

그러나 전쟁 중에 딥페이크 영상이 제작되고 공유됐다는 사실엔 주목할 만하다.

다음번에 나올 영상은 이렇게 엉성하지 않을지도 모른다.