특정인물의 얼굴 등을 사진이나 영상으로 확보한 뒤 인공지능 기술을 이용해 영상으로 합성하는 편집기술이 있다. 가짜라는 페이크(Fake)와 인공지능인 AI, 학습기능인 딥러닝(Deep Learning)의 합성어, 즉 딥 페이크(Deep Fake)라고 불린다. 얼마 전부터 TV 프로그램에서 이미 세상을 떠난 동료 연예인이 영상으로 출현해서 프로그램을 함께 한 동료들이 깜짝 놀라며 안부를 전하는 모습을 본 기억이 있다. 한 편 부모님이나 자식의 사별로 가슴 아픈 사람들을 초대해 영상으로 그리운 사람이 나타나 눈물로 해후를 하는 프로그램도 종종 방영이 되었다. 이런 것이 가능한 이유가 바로 4차 산업혁명이라고 불리는 인공지능 기술이 있어서 가능한 것이었다.

이렇게 좋은 순 기능을 하는 측면도 있지만 이것이 사회 문제화 되고 범죄화 되면서 그 대책이 시급하다. 딥 페이크 기술은 진짜와 가짜의 경계가 쉽게 구분이 되지 않게 되는 것이 문제이다. 정치인이 영상에 나타나 하지도 않은 말을 편집해서 소셜미디어(SNS)에 올리는 일들을 경험하는 것이 하루 이틀이 아니다. 대통령을 모욕하거나 사실과 전혀 다른 내용을 마치 사실인양 영상으로 만드는 것을 봐왔다. 특히 포르노 배우의 몸에 일반인의 얼굴을 합성한 가짜 포르노 영상, 미국 전 대통령인 버락 오바마의 딥 페이크 영상, 조 바이든 대통령이 트랜스 젠더를 모욕하는 영상을 통해 이제 일반시민들도 딥 페이크 기술을 손쉽게 접하고 그 위기를 느끼고 있다.

특히 최근 딥페이크 기술은 과장되거나 정치적·선정적 효과를 만들기 위한 하나의 전략으로 이용되기도 하며, 알고리즘을 통해 공유되는 영상은 다양한 계층에 공유돼 대중의 판단을 흐린다. 단체 채팅방에 지인이 자신의 사진을 도용해 여자 아이돌 몸과 합성한 사진을 보냈다거나, 소셜미디어(SNS)인 인스타그램에서 어떤 남자가 벗은 몸에 내 얼굴을 합성해 사진을 보내 돈을 요구하는 사안 등이 심각한 것이다. 딥 페이크 기술은 앞서 말한 것처럼 경험을 통해 오락적 체험을 하는 것은 긍정적인 경험일 수 있으나, 이를 이용하면서 일반인의 피해를 불러오거나 혹은 특정 목적을 가진 정치적 목적으로 그리고 수치심을 남기는 성범죄에도 쓰일 수도 있다고 보고 있다.

몇 장의 사진 만으로 이 모든 것이 가능하다고 하니, 그야말로 조심해서 막을 수 있는 한계를 넘어버린 것이다. 모든 영상물이나 이미지의 출처 및 영상의 목적이나 용도를 명확히 하는 게 중요하고, 이에 대해 사회모두가 적극적으로 대항할 제도나 방지책에 대한 대책을 마련하는 게 중요하다. 딥 페이크 음란물을 유포한 사람에 대해 법정형을 5년 이하 징역 또는 5000만 원이하 벌금에서 7년 이하 징역으로 강화하기로 했다는 것은 다행스럽다. 또한 동시에 자라나는 학생들에게도 딥 페이크의 위험성을 충분히 인식하도록 예방 교육도 병행해야 한다. 디지털 성범죄, 멀리 있는 듯 보여도 작은 호기심이 한 사람의 인생과 피해자의 인생을 함께 망치는 길이다. 처벌에만 집중하기 보다는 왜곡된 성 관념을 바로잡는 성교육도 필요하고 종합적인 대책이 필요해 보인다.
저작권자 © 대경일보 무단전재 및 재배포 금지