특이한 인간의 특성은 결코 기계에 의해 모방될 수 없다는 말은 일반적으로 위안이된다.
나는 그런 위안을 줄 수 없다. 그런 한계는 정해질 수 없다고 믿기 때문이다.
- 앨런 튜링 -
딥페이크(deepfake)란?
딥페이크(deepfake, 딥 러닝(deep learning)과 가짜(fake)의 혼성어)는 인공 지능을 기반으로 한 인간 이미지 합성 기술이다. 생성적 적대 신경망(GAN)라는 기계 학습 기술을 사용하여, 기존의 사진이나 영상을 원본이 되는 사진이나 영상에 겹쳐서 만들어낸다. 딥페이크는 영화나 방송계 등에서 이미 사망하거나 나이가 든 배우를 스크린에 되살리거나 초상권 보호 등을 위해 사용할 수 있는 한편, 유명인의 가짜 섹스 동영상이나 가짜 리벤지 포르노, 가짜 뉴스나 악의적 사기를 만드는 데에 사용되어 논란이 되기도 했다.
(©: https://ko.wikipedia.org/wiki/%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC)
딥페이크와 저널리즘(deepfake & Journalism)
딥페이크는 저널리즘을 위협하고 있다. 딥러닝과 인공지능 기술을 사용하여 사람의 얼굴이나 음성을 모방한 가짜 영상이나 오디오를 생성하는 기술인 딥페이크는 사회적으로 많은 영향을 가져오며, 기술의 윤리적 위협의 대표적인 사례로 손꼽히고 있다.
딥페이크는 실제로 발생하지 않은 사건이나 발언을 가장한 가짜 영상을 만들어내어 사람들을 혼란에 빠뜨린다. 저널리즘에 있어서, 중요한 요소 중 하나는 바로 ‘증거’이다. 현재 미디어 중 가장 증거능력이 강한 것은 바로 영상미디어라고 할 수 있다. 그러나, 딥페이크 기술의 발전으로 인해, 영상미디어의 증거능력이 위협을 받고 있다. 이는 사회적 불안을 유발하고 신뢰도 있는 정보를 식별하는 능력을 약화시킨다.
또한, 딥페이크 영상을 이용하여 개인의 얼굴을 도용하거나 부적절한 상황을 가장한 가짜 영상을 유포하는 경우, 개인의 명예훼손과 사생활 침해가 발생할 수 있다. 이미, 뒷세계(dark world)에서는 딥페이크 기술을 이용한 불법 포르노그래피 영상이 만연하며, 그 영상의 주인공들은 세계적인 유명인사들이나 한국의 k-pop스타들이다. 영상에 등장하는 인물들은 선택의 자유도 없이 치욕스러운 영상들에 의해 기만 당하며, 명예를 훼손 당한다.
무서운 것은 딥페이크 기술의 정밀함이 점점 사실과 구분하기 힘들 정도로 가까워 졌다는 것이다. 사실이 아닌 정보를 일반적인 뉴스 형태로 제공하여 사람들을 오도하거나 혼란에 빠뜨리는 현상인 가짜뉴스는 딥페이크의 가장 큰 수혜자 중 한 명이다. 애초부터 대중들을 기만하는 것이 목표인 가짜뉴스들은 그들의 정보의 신뢰성을 높이기 위해, 딥페이크 기술을 사용한다.
문제는 딥페이크 기술로 인해 정교화된 가짜뉴스를 기존의 가짜뉴스처럼 구별하기는 쉽지 않으며, 이를 통해 언론의 전반적인 신뢰도가 저하될 수 있으며, 사회적인 분열이 일어날 수 있어 저널리즘적인 처방과 기술적인 처방 모두가 필요할 것이다.
누구나 딥페이크 😵
이제 마음만 먹으면 누구나 딥페이크 영상을 만들 수 있다. 아래의 자료는 타수업에서 필자가 제출한 과제 중 하나로 일종의 딥페이크 영상을 몇 시간도 안돼서 만들어내는 과정을 담고 있다.
다소 어두울 수 있는 이야기
영상자료는 무엇일까? 조그마한 픽셀들이 만들어낸 프레임을 연속적으로 배열하여 움직임을 만들어낸 현실의 재현이다. 현재 딥페이크 기술은 변형할 일부부분을 프레임 묶음 단위로 설정하여, DB에 저장된 변수값을 적용하여 픽셀들을 변형하는 것이 전부이다. 따라서, 세부적인 픽셀 조사로 들어가보면 원본 영상과 일치하지 않는 부분이나, 프레임 간 급격한 변화로 인한 부자연스러움을 통해 딥페이크를 잡아내는 기술이 존재한다. 그러나, 현재 인공지능 모델의 알고리즘 구조와 DB에 저장된 데이터의 양은 상상 이상의 속도와 상상 이상의 양으로 증가하고 있다. 또한, 하드웨어적 한계를 해결할 퀀텀 컴퓨팅(quantum computing)의 등장와 협업 가능한 다양한 인공지능 모델들을 급격한 발달은 딥페이크 기술을 특이점으로 끌어오는 속도에 박차를 가하고 있다.
만약, 딥페이크 기술이 그리 멀지 않은 미래에 특이점을 맞이하게 된다면, 우리는 기술적으로 그 영상의 조작여부를 판가름 할 수 없을 것이다. 따라서 추가적인 토큰이나 인증방식을 통해 영상의 진위여부를 감정해야 할 것이다. 여기서 강조하고 싶은 것은 특이점이 온 시기에는 영상의 진위 유무를 판가름하는 것이 의미 없어진다는 것이다. 그리고 현재의 상황으로 그 시기는 그리 멀지 않았다는 것이다. 기술의 발전은 제도적 브레이크나, 규제로 막을 수 없다. 영화에서만 보던 디스토피아는 상상 속의 세계가 아닐 수 있다.
물론 문제가 나오면, 항상 해결책을 찾아내었던 인류이기에 이번 문제에도 해결책을 들이밀 것이지만, 특이점이 온 당시의 충격과 공포는 상상을 초월할 것이다. 인류는 기술적 대공황을 경험할 수 있다. 앞서 수업시간에서 영상 저널리즘 기술의 발전이 간접적으로 기술의 윤리적 위협 문제를 해결할 수 있다고 했으나, 특이점 온 시기에는 '단지 이런 문제가 있다.'는 것을 대중들에게 알리는 것만이 인류가 대처할 수 있는 유일한 방법일 지 모른다. 물론 앞서 언급한 것들이 극단적인 상황을 상정한 것이긴 하나, 절대 개연성이 낮지 않은 가능세계이며, 인류는 이에 대한 심각성을 인지하고, 그 대응책에 대해 심각히 고민해야 할 것이다.
'📇 사설,칼럼.zip' 카테고리의 다른 글
[칼럼] 언론위기와 솔루션 저널리즘 (0) | 2023.08.04 |
---|---|
[칼럼] 왜 요즘 소설, 드라마는 다 똑같아 보이지? (0) | 2023.08.04 |
[사설] 양회동 분신사건을 통해 살펴본 가짜뉴스 🗞 (0) | 2023.06.15 |