![]() |
딥페이크(Deepfake)는 딥러닝을 활용해 가짜 이미지와 영상을 만드는 기술로, 2017년경부터 널리 쓰이기 시작했다. 이는 인공지능 기반 합성 미디어를 통칭하는데, 최근 성범죄에 악용되는 사례가 급증하면서 심각한 사회 문제로 떠오르고 있다. 기술이 고도화됨에 따라 딥페이크 영상의 진위 여부를 구분하기 어려워졌고, 이로 인한 심리적·사회적 피해 역시 커지고 있다.
이에 국민생활과학자문단은 지난 1월 24일 ‘딥페이크 성범죄 예방대책’을 주제로 제24회 국민생활과학 토크라운지를 개최했다. 이 자리에서는 딥페이크 기술의 악용 사례를 분석하고, 기술적·법적·사회적 대응 방안을 마련하기 위한 논의가 이뤄졌다.
‘딥페이크 악용 범죄 심각성’에 대한 상시적 윤리교육 필요
손미현 서울대학교 미래혁신연구원 책임연구원이 사회를 맡아 진행된 토크라운지에서, 김명주 한국전자통신연구원 AI안전연구소 소장이 ‘딥페이크 양면성에 대한 이해와 딥페이크 성범죄 예방’을 주제로 발표했다. 김 소장은 “딥페이크의 어두운 면만 부각되고 있지만 실제로는 유용하게 쓰일 수 있는 부분도 있다”며, 동시에 딥페이크 기술로 인해 성범죄 피해를 입었을 때 어떻게 대처해야 할지도 설명했다.
먼저 김 소장은 딥페이크에 연관된 생성형 AI의 기술 원리를 설명하는데 딥러닝의 ‘오토인코더(Auto-Encoder)’ 개념을 사용했다. 그는 “범인의 몽타주를 그릴 때 눈, 코, 입의 특징들을 하나씩 뽑아낸다. 그것을 그림으로 그리게 되면 범인과 근접한 모습이 출력되는데 이런 역할을 해주는 인공지능이 오토인코더”라며, “하나의 오토인코더는 하나의 인코더와 하나의 디코더로 구성되고 딥러닝 아키텍처의 패러다임을 제공한다. 인코더는 원시 데이터를 입력받아 특징을 추출하고, 디코더는 이 특징을 바탕으로 원본 데이터를 재구성한다”고 설명했다.
또 다른 중요한 개념으로는 적대적 생성크(GAN, Generative Adversarial Network)가 있다. 김 소장은 이를 경찰이 위조지폐를 판별하기 위해 끊임없이 검증하고, 위조범이 이를 조금씩 변형해나가는 과정에 비유했다. 이러한 GAN의 특성은 딥페이크 영상에서 인물의 피부색, 나이, 머리 길이 등을 미세하게 조정해 사실감을 높이는 데 활용된다. 그는 “딥페이크는 드라마나 영화에서 어린 시절이나 젊은 시절 장면을 재현하거나, 촬영 중 사망한 배우를 복원해 영화를 완성하는 등 콘텐츠 제작에 있어 경제적이면서도 효과적인 사례가 많다”고 강조했다.
반면 딥페이크가 악용될 경우 허위영상물 제작, 디지털 성범죄, 가짜 뉴스, 가짜 선거 홍보물 등 사회적 피해가 심각하다. 특히 ‘2024년 텔레그램 딥페이크 사건’을 거론하며, “텔레그램이 1,000명 이상 모인 방의 운영자에게 광고 수익을 배분하기 시작했다. 이 같은 수익화 길이 열리자 육안 분별이 불가능할 정도로 고품질화된 딥페이크 기술을 이용해 만든 성범죄 콘텐츠를 광고 이득을 높이기 위한 미끼로 사용됐고, 이것을 새로운 왕따 놀이 수준으로 인식한 아동 청소년들에게 급속히 확산된 것”이라고 지적했다.
따라서 딥페이크 문제를 예방하기 위해, 김 소장은 사전 교육의 필요성을 피력했다. 그는 “아동 청소년의 경우 딥페이크 범죄가 피해자에게 얼마나 심각한 피해를 야기하는지 알려주고, 학원폭력위원회에서 다룰 수 있는 사안임을 교육해야 한다. 그런데 피해를 당하면 누구와 의논하고 신고해야 하는지도 전혀 교육이 되어 있지 않다. 그런 경우에는 여성가족부의 디지털 성범죄 피해자지원센터에 신고하면 거기서 신고도 대신해 주고 심리상담도 해준다”며 “가해자가 되지 않도록 하는 교육과 피해자가 됐을 때 해결 방법 등 교육이 시급하다”고 설명했다.
아울러 김 소장은 “어른들에게는 AI가 여전히 미래 기술이지만, 아동 청소년에게는 현재 기술임을 기성세대들이 인지해야 한다. 그래서 디지털‧AI 윤리교육이 디지털 기술 교육보다 먼저 이루어졌어야 한다”며 “미국의 얼 워런(Earl Warren) 대법관은 법이 배라면 윤리는 바다라고 했다. 이는 똑똑한 몇 사람이 법을 아무리 잘 만든다고 해도 그것이 어두운 부분을 모두 커버할 수 없기 때문이다. 대신에 윤리가 성숙되면 법이 필요하지 않을 수 있다는 것이다. 따라서 가정에서의 교육과 사회적 계도, 비정규 교육과 온라인 교육, 필수적으로나 상시적인 윤리교육이 수시로 진행되어야 한다”고 덧붙였다.
얼굴 움직임과 생체 리듬으로 딥페이크 식별 가능
두 번째로 권헌영 고려대학교 정보보호대학원 원장이 ‘딥페이크의 성범죄 위협과 대응 전략 : 현재와 미래’를 주제로 발표했다. 그는 “진위 여부를 가리기 어려운 가짜 이미지와 영상물을 생성하는 딥페이크 기술이 오픈소스 형태로 배포되어 영상 산업에서 적극 활용되고 있을 뿐 아니라, 일반인도 쉽게 이용할 수 있도록 확산되는 추세다. 누구나 언제 어디서든 쉽게 딥페이크 기술을 사용할 수 있게 됨에 따라 이를 악용한 성범죄 위협이 전 세계적으로 심화되고 있는 것”이라고 지적했다.
즉, 생성형 AI 프롬프트 입력창에 간단한 문장을 입력하는 것만으로도 음란물 등 이미지와 영상을 생성하거나 합성할 수 있게 된 것이다. 또 오픈소스 AI 모델이 늘어나면서 딥페이크 앱 개발도 용이해졌다. 그런데 더욱 문제는 전 세계적으로 딥페이크 성범죄의 가해자와 피해자가 주로 10대 청소년이라는 점이다. 권 원장은 “2024년 딥페이크 성범죄로 경찰에 검거된 피의자의 약 83%가 10대 미성년자이며, 그 건수도 매해 증가하고 있다. 청소년들이 온라인을 통해 손쉽게 딥페이크 범죄에 가담하고 위협에 노출되기도 하는 상황”이라고 강조했다.
이처럼 심화되는 딥페이크 위협에 대응하기 위해서는 윤리적‧법적 근거를 마련하는 보안 관점의 접근이 필요하다는 것이다. 권 원장은 “미국에서는 구글, 애플 등 주요 AI 기업이 안전하고 투명한 기술 개발을 위해 자발적 윤리 준수를 약속했으며, 캘리포니아와 뉴욕 등에서는 딥페이크 음란물 제작 및 유포에 대한 처벌 근거를 마련했다. 중국은 딥페이크로 생성된 콘텐츠에 표시 의무를 부과하는 규정을 도입했다”고 설명했다. 또한 “우리나라는 ‘인공지능 윤리기준’을 마련해 딥페이크 탐지 기술 개발을 장려하고, 성적 허위영상물 소지, 구입, 저장, 시청 시 처벌 규정을 마련하고 있다”고 덧붙였다.
또한, 딥페이크 합성물을 식별하고 표시하는 대응 기술의 발전도 중요하다고 강조했다. 얼굴 특징, 눈 깜빡임 패턴, 얼굴 움직임의 불일치 등을 분석해 이상 징후를 탐지하거나, 비디오와 부합하지 않는 오디오 및 입술 움직임, 혈류로 인한 피부색 변화 등 생물학적 신호를 감지하는 방법들이 그 예이다. 이와 함께, 딥페이크 범죄의 신속한 수사와 대응을 위해 관계 기관 간의 협력이 필수적이므로 법제도적 접근 역시 강화되어야 한다.
권 원장은 국내 사례를 예로 들며, “딥페이크 성범죄 방지법이 국회에서 통과됐지만, 단순한 처벌보다는 문제가 되는 동영상이 신속히 삭제되도록 하는 조치가 중요하다. 최근에는 잠입 수사를 통해 적극적인 대응이 이루어지고 있으며, 텔레그램, 국내 정책대응기관, 수사기관 간의 협력이 진행되고 있다. 다만, 수사 인력 부족으로 인해 사건 발생 시 많은 인력이 투입되어야 하므로 국가의 충분한 역량과 신속한 대응 체계가 마련되어야 한다”고 강조했다.
결론적으로 권 원장은 딥페이크 기술이 가져오는 기회와 위기에 대응하기 위해 몇 가지 과제를 제시했다. 그는 “이미 위험을 통제할 수 있는 시스템이 마련되어 있으나, 그것이 소 잃고 외양간 고치는 형국의 대응이 되지 않도록 해야 한다”며 “딥페이크와 같은 신기술을 적용할 때는 개인 혼자만 쓰는 게 아니라 공동체가 함께하는 것이기 때문에 전문가 윤리와 기술적 전문성을 기반으로 이용자 스스로 위험을 통제할 수 있는 역량을 갖춰야 한다. 그렇게 개인의 윤리적 근육이 생기면 정신이 건강한 상태로 갈 수 있고, 사회 전체적 공동으로 대응하는 연대의 힘이 강해질 수 있다”고 피력했다.
실시간으로 딥페이크 영상 찾는 기술 개발 중
강연 후에는 질의응답 시간이 이어졌다. 손미현 사회자가 피해자 발생 시 대응 방법에 대해 질문하자, 권 원장은 “1377이나 1366에 전화를 걸어 3번을 누르면, 방송통신심의위원회에 디지털 성범죄 관련 민원을 접수할 수 있다. 신고가 접수되면 일단 확산 금지와 추가 대응 조치를 위한 도움을 정부로부터 받을 수 있으며, 챗봇 상담도 가능하다. 또한, 여성가족부에서도 과거 성범죄로 인한 동영상 삭제 지원을 받을 수 있기 때문에 최대한 빨리 도움을 요청하는 것이 좋다”고 답했다.
또 손미현 사회자가 기술적 측면에서 딥페이크 영상을 찾아낼 수 있는 방법이 어느 정도 진척됐는지를 묻자 김명주 소장은 “현재는 전체 영상을 검토하여 딥페이크 여부를 확인하는 단계지만, 우리 AI안전연구소에서는 실시간으로 찾아내는 기술을 개발하고 있다. 실시간 탐지를 통해 딥페이크 성범죄 영상이 발견되면 플랫폼에 바로 그것을 내리도록 선조치를 요청할 계획이다. 또한, 이번에 인공지능기본법이 통과되면서 AI가 만든 콘텐츠에는 꼬리표를 달거나 숨어있는 워터마크를 집어넣는 등의 기술 개발들도 진행되고 있다”고 소개했다.