검수요청.png검수요청.png

"딥페이크"의 두 판 사이의 차이

위키원
이동: 둘러보기, 검색
(새 문서: '''딥페이크'''(Deepfake)란 딥러닝(deep learning)과 가짜(fake)의 혼성어로 인공 지능을 기반으로 한 인간 이미지 합성 기술이다. 적대적 생성 신...)
 
 
1번째 줄: 1번째 줄:
'''딥페이크'''(Deepfake)란 딥러닝(deep learning)과 가짜(fake)의 혼성어로 인공 지능을 기반으로 한 인간 이미지 합성 기술이다. 적대적 생성 신경망(GAN)라는 기계 학습 기술을 사용하여, 기존의 사진이나 영상을 원본이 되는 사진이나 영상에 겹쳐서 만들어낸다. 딥페이크는 영화나 방송계 등에서 이미 사망하거나 나이가 든 배우를 스크린에 되살리거나 초상권 보호 등을 위해 사용할 수 있는 한편, 딥페이크 포르노그래피를 포함한 가짜 리벤지 포르노, 가짜 뉴스나 악의적 사기를 만드는 데에 사용되어 논란이 되기도 했다.
+
'''딥페이크'''(Deepfake)란 [[딥러닝]](deep learning)과 가짜(fake)의 혼성어로 [[인공지능]](AI)을 기반으로 한 인간 이미지 합성 기술이다. 생성적 적대 신경망(GAN)라는 [[머신러닝]] 기술을 사용하여, 기존의 [[사진]]이나 [[영상]]을 원본이 되는 사진이나 영상에 겹쳐서 만들어낸다. 딥페이크는 영화나 방송계 등에서 이미 사망하거나 나이가 든 배우를 스크린에 되살리거나 초상권 보호 등을 위해 사용할 수 있는 한편, 딥페이크 포르노그래피를 포함한 가짜 리벤지 포르노, 가짜 뉴스나 악의적 사기를 만드는 데에 사용되어 논란이 되기도 했다.
  
 
== 상세 ==
 
== 상세 ==
딥페이크(Deepfake)란, 인공지능 기술인 딥러닝(deep learning)과 ‘가짜’를 의미하는 단어인 페이크(fake)의 합성어로, 인공지능 기술을 이용하여 진위 여부를 구별하기 어려운 가짜 이미지나 영상물을 뜻한다. 딥페이크라는 단어가 등장한 시기는 2017년으로, 미국 온라인 커뮤니티 Reddit의 한 회원이 기존 영상에 유명인의 얼굴을 입혀 가짜 콘텐츠를 게재한 데서 유래되었다.<ref>팀나인 홍민기 소사장, 〈[https://www.samsungsds.com/kr/insights/220411deepfake_1.html 누가 진짜일까? 딥페이크 생성과 탐지]〉, 《삼성SDS》, 2022-04-11</ref> 이후 온라인 커뮤니티와 SNS를 중심으로 급속히 확산된 딥페이크 콘텐츠는 최근 딥페이스랩(DeepFaceLab), 페이스스왑(Faceswap) 등 오픈소스 형태의 영상 합성 제작 프로그램이 배포되면서 더욱 성행하고 있다.<ref>〈[https://www.noblesse.com/home/news/magazine/detail.php?no=10622 딥 페이크를 아시나요?]〉, 《노블레스》, 2021-01-12</ref>
+
딥페이크(Deepfake)란, [[인공지능]] 기술인 [[딥러닝]](deep learning)과 ‘가짜’를 의미하는 단어인 페이크(fake)의 합성어로, 인공지능 기술을 이용하여 진위 여부를 구별하기 어려운 가짜 이미지나 영상물을 뜻한다. 딥페이크라는 단어가 등장한 시기는 2017년으로, [[미국]] 온라인 커뮤니티 [[레딧]](Reddit)의 한 회원이 기존 영상에 유명인의 얼굴을 입혀 가짜 콘텐츠를 게재한 데서 유래되었다.<ref>팀나인 홍민기 소사장, 〈[https://www.samsungsds.com/kr/insights/220411deepfake_1.html 누가 진짜일까? 딥페이크 생성과 탐지]〉, 《삼성SDS》, 2022-04-11</ref> 이후 온라인 커뮤니티와 [[SNS]]를 중심으로 급속히 확산된 딥페이크 콘텐츠는 최근 딥페이스랩(DeepFaceLab), 페이스스왑(Faceswap) 등 [[오픈소스]] 형태의 영상 합성 제작 프로그램이 배포되면서 더욱 성행하고 있다.<ref>〈[https://www.noblesse.com/home/news/magazine/detail.php?no=10622 딥 페이크를 아시나요?]〉, 《노블레스》, 2021-01-12</ref>
  
딥페이크의 기반은 2014년에 등장한 머신러닝 기술인 적대적 생성 신경망(Generative Adversarial Networks)이다. GAN은 AI 모델을 생성모델과 분류모델로 구분하며, 각 모델의 학습을 반복하는 과정을 거친다. 이러한 과정에서 생성모델과 분류모델은 서로를 적대적 경쟁자로 인식하며 상호 발전하게 된다. 생성모델은 실제와 유사한 데이터를 생성할 수 있게 되고, 분류모델은 데이터의 진위여부를 구별할 수 없게 되는 것이다. 이 과정을 반복하면서 원본 영상과의 구별이 거의 불가능할 정도로 정교한 합성 영상이 만들어진다.<ref>〈[https://www.kocca.kr/kocca/bbs/view/B0000204/1939516.do?searchCnd=&searchWrd=&cateTp1=&cateTp2=&useYn=&menuNo=204172&categorys=4&subcate=61&cateCode=0&type=&instNo=0&questionTp=&ufSetting=&recovery=&option1=&option2=&year=&morePage=&qtp=&searchGenre=&domainId=&sortCode=&pageIndex=1 (미디어 이슈 & 트렌드) (트랜드리포트) 딥페이크 기술의 빛과 그림자]〉, 《한국방송통신전파진흥원》, 2019-12-16</ref>
+
딥페이크의 기반은 2014년에 등장한 [[머신러닝]] 기술인 생성적 적대 신경망(Generative Adversarial Networks)이다. GAN은 AI 모델을 생성모델과 분류모델로 구분하며, 각 모델의 학습을 반복하는 과정을 거친다. 이러한 과정에서 생성모델과 분류모델은 서로를 적대적 경쟁자로 인식하며 상호 발전하게 된다. 생성모델은 실제와 유사한 [[데이터]]를 생성할 수 있게 되고, 분류모델은 데이터의 진위여부를 구별할 수 없게 되는 것이다. 이 과정을 반복하면서 원본 영상과의 구별이 거의 불가능할 정도로 정교한 합성 영상이 만들어진다.<ref>〈[https://www.kocca.kr/kocca/bbs/view/B0000204/1939516.do?searchCnd=&searchWrd=&cateTp1=&cateTp2=&useYn=&menuNo=204172&categorys=4&subcate=61&cateCode=0&type=&instNo=0&questionTp=&ufSetting=&recovery=&option1=&option2=&year=&morePage=&qtp=&searchGenre=&domainId=&sortCode=&pageIndex=1 (미디어 이슈 & 트렌드) (트랜드리포트) 딥페이크 기술의 빛과 그림자]〉, 《한국방송통신전파진흥원》, 2019-12-16</ref>
  
== 기술 ==
+
== 원리 및 기술 ==
 
===생성적 적대 신경망===
 
===생성적 적대 신경망===
GAN(Generative Adversarial Networks), 적대적 생성 신경망을 활용한 이미지 생성 및 변환 기술은 인공 신경망이 다양한 노이즈(Noise) 입력을 받아 원하는 카테고리의 기존에 존재하지 않는 새로운 이미지를 생성해내거나 입력 이미지나 비디오를 다른 형태나 정보를 지닌 이미지 또는 비디오로 변환하는 기술로 최근 몇 년간 급속도로 발전하여 많은 관심을 받고 활발하게 연구되고 있는 분야이다. 최근에는 이미지 편집을 많이 활용하는 디자인 분야를 겨냥하여 이미지를 손쉽게 편집하거나 그릴 수 있는 프로그램으로 실제 서비스에 적용되고 있다.
+
생성적 적대 신경망(GAN, Generative Adversarial Networks)은 [[딥러닝]]의 중요한 기술 중 하나로, 특히 딥페이크와 같은 고도화된 [[데이터]] 생성 기술에서 핵심적인 역할을 한다. 이를 통해 매우 현실적이고 정교한 가짜 데이터를 생성할 수 있으며, 다양한 분야에서 혁신적인 응용을 가능하게 한다. GAN은 생성기(Generator)와 판별기(Discriminator)라는 두 개의 신경망으로 구성되어 있다. 이 두 신경망은 서로 경쟁하며 학습하여 매우 현실적인 데이터를 생성하는 데 사용된다.
  
GAN은 기존의 딥러닝(Deep learning) 기술에서 활용한 인공 신경망과는 다른 학습 방법을 활용하여 사람이 보기에 진짜와 구분하기 힘들 정도로 정교한 가짜 이미지를 만들어 내는 기술이다. 기존의 이미지 처리에서 많이 활용되는 딥러닝 기술은 학습데이터에 대하여 다층의 인공 신경망 하나를 학습시키는 방법을 활용하였지만, GAN은 2개의 인공 신경망의 상호작용을 활용하여, 최종적으로 사람이 보기에 진짜인지 구분하기 힘든 가짜 이미지를 만드는 1개의 생성 신경망을 실제 서비스에 활용한다. 하지만, 기존의 딥러닝 이미지 처리 방식과 다르게 성능을 객관적인 수치로 표시하는 방법이 부족하고, 4K와 같은 고화질 영상을 만들기에 고성능의 메모리가 필요하여 기술의 고화질 영상 생성 기술의 발전속도가 느린 것과 같은 문제가 있다. 따라서 앞으로 성능개선 및 성능평가 방법 개발 등 여전히 해결해야 할 문제가 많은 것으로 알려져 있다.<ref>조영주, 배강민, 박종열, 〈[https://ettrends.etri.re.kr/ettrends/184/0905184009/35-4_91-102.pdf GAN 적대적 생성 신경망과 이미지 생성 및 변환 기술 동향]〉, 《한국전자통신연구원》, 2020-08</ref>
+
* '''생성기'''(Generator) : 랜덤한 잡음 벡터를 입력으로 받아 이를 점점 더 현실적인 데이터로 변환하는 신경망이다. 생성기의 목적은 판별기를 속여서 생성된 데이터가 실제 데이터처럼 보이도록 하는 것이다. 생성기는 보통 여러 층의 신경망으로 구성되며, 각 층은 입력 데이터를 점차적으로 변형하여 최종 출력 데이터를 생성한다. 생성기의 출력은 [[이미지]], [[오디오]], [[텍스트]] 등 다양한 형태의 데이터가 될 수 있다.
 +
 
 +
* '''판별기'''(Discriminator) : 입력된 데이터가 실제 데이터인지 생성된 데이터인지 구별하는 신경망이다. 판별기의 목적은 생성기가 만든 가짜 데이터를 정확히 식별하는 것이다. 판별기는 실제 데이터와 생성된 데이터를 모두 입력으로 받아, 각 데이터가 실제인지 가짜인지에 대한 확률을 출력한다. 판별기 역시 여러 층의 신경망으로 구성되며, 각 층은 입력 데이터를 분석하여 최종 판단을 내린다.
 +
 
 +
GAN의 학습 과정은 생성기와 판별기가 서로 경쟁하면서 발전하는 형태로 이루어진다. 이 과정은 다음과 같이 진행된다.
 +
 
 +
# 생성기 학습 : 생성기는 랜덤한 잡음 벡터를 입력으로 받아 가짜 데이터를 생성한다. 초기에는 생성된 데이터가 매우 비현실적이지만, 점차 학습을 통해 더 현실적인 데이터를 만들어 낸다. 생성기의 목표는 판별기를 속여서 가짜 데이터를 실제 데이터로 판단하게 만드는 것이다.
 +
# 판별기 학습 : 판별기는 실제 데이터와 생성된 데이터를 모두 입력으로 받아, 각각이 실제인지 가짜인지에 대한 확률을 계산한다. 판별기의 목표는 생성기가 만든 가짜 데이터를 정확히 식별하는 것이다. 판별기는 생성기가 만들어낸 데이터를 최대한 정확히 가짜로 판별하기 위해 학습한다.
 +
# 적대적 학습 : 생성기와 판별기는 서로의 성능을 개선하기 위해 경쟁한다. 생성기가 더 현실적인 데이터를 만들수록 판별기는 이를 식별하기 위해 더 정확해져야 하며, 반대로 판별기가 더 정확해질수록 생성기는 더 현실적인 데이터를 만들어야 한다. 이 과정을 반복하면서 두 신경망은 점점 더 발전한다.
 +
 
 +
GAN의 손실 함수는 생성기와 판별기의 성능을 측정하고 최적화하는 데 사용된다. 일반적으로 사용되는 손실 함수는 다음과 같다.
 +
 
 +
* '''생성기 손실''' : 생성기가 만든 데이터가 판별기에 의해 실제 데이터로 판단될 확률을 최대화하는 것이다. 이는 생성기가 판별기를 속이는 데 얼마나 성공했는지를 측정한다.
 +
* '''판별기 손실''' : 실제 데이터가 실제로 판단될 확률과 생성된 데이터가 가짜로 판단될 확률을 최대화하는 것이다. 이는 판별기가 생성기를 얼마나 정확히 식별했는지를 측정한다.
 +
 
 +
===자동 인코더===
 +
자동 인코더(Autoencoder)는 입력 [[데이터]]를 효율적으로 압축하고 복원하는 신경망 구조이다. 이는 주로 데이터의 중요한 특성을 추출하고 노이즈를 제거하는 데 사용된다. 딥페이크에서 자동 인코더는 주로 얼굴 변환 및 이미지 합성에 사용된다. 두 개의 자동 인코더가 각각 다른 얼굴 데이터를 학습한 후, 원본 얼굴의 특징을 목표 얼굴의 특징으로 변환하는 데 사용된다. 예를 들어, 한 인물의 얼굴을 다른 인물의 얼굴로 변환하기 위해 원본 얼굴의 인코더와 목표 얼굴의 디코더를 결합하여 새로운 얼굴 이미지를 생성한다. 이 과정에서 원본 얼굴의 특성이 목표 얼굴의 스타일로 변환되어 자연스럽게 합성된 이미지를 얻을 수 있다. 자동 인코더는 두 가지 주요 구성 요소로 이루어져 있다. 인코더(Encoder)와 디코더(Decoder)이다.
 +
 
 +
* '''인코더''' : 입력 데이터를 저차원 잠재 공간(latent space)으로 압축하는 역할을 한다. 입력 데이터는 원래의 차원에서 시작하여 점차적으로 차원을 축소해 나가며, 중요한 정보만을 남기고 불필요한 세부 사항을 제거한다. 인코더는 여러 층의 신경망으로 구성될 수 있으며, 각 층은 이전 층의 출력을 입력으로 받아 점차적으로 데이터를 압축해 나간다. 잠재 공간은 인코더가 입력 데이터를 압축하여 얻은 저차원 표현이다. 이 공간은 원래 데이터의 중요한 특성만을 포함하며, 차원이 축소되어 있기 때문에 데이터를 효율적으로 저장할 수 있다. 잠재 공간의 크기는 모델의 복잡도와 데이터의 특성에 따라 결정되며, 적절한 크기를 선택하는 것이 모델의 성능에 중요한 영향을 미친다.
 +
 
 +
* '''디코더''' : 인코더가 압축한 저차원 잠재 공간을 다시 원래의 차원으로 복원하는 역할을 한다. 디코더는 인코더의 반대 과정으로, 잠재 공간의 데이터를 점차적으로 확대하여 원래의 입력 데이터와 유사한 출력을 생성한다. 디코더 역시 여러 층의 신경망으로 구성될 수 있으며, 각 층은 이전 층의 출력을 입력으로 받아 점차적으로 데이터를 복원해 나간다. 자동 인코더의 학습 과정에서 중요한 요소는 손실 함수이다. 손실 함수는 원래의 입력 데이터와 디코더의 출력 데이터 간의 차이를 측정하는 함수로, 이 차이를 최소화하는 방향으로 신경망을 학습시킨다. 일반적으로 사용되는 손실 함수는 평균 제곱 오차(Mean Squared Error, MSE)이며, 이는 원래 데이터와 복원된 데이터 간의 차이의 제곱의 평균을 계산한다.
 +
 
 +
자동 인코더의 주요 장점은 데이터의 중요한 특성을 효율적으로 추출하고 노이즈를 제거할 수 있다는 점이다. 이는 데이터 압축, 노이즈 제거, 이미지 복원 등 다양한 응용 분야에서 유용하다. 그러나 자동 인코더는 입력 데이터의 분포를 정확히 모델링하지 못할 수 있으며, 과적합(overfitting) 문제가 발생할 수 있다. 또한, 복잡한 데이터의 경우 단순한 자동 인코더만으로는 충분히 정확한 복원이 어려울 수 있다. 자동 인코더는 딥러닝의 중요한 구성 요소 중 하나로, 특히 딥페이크와 같은 고도화된 기술에서 핵심적인 역할을 한다. 이를 통해 데이터의 중요한 특성을 추출하고, 이를 바탕으로 자연스러운 합성 이미지를 생성할 수 있다.
  
 
== 영향 ==
 
== 영향 ==
2017년 미국 대형 온라인 커뮤니티인 레딧(Reddit)에 올라온 합성 포르노 영상을 딥페이크의 시초로 본다. 'Deepfakes'라는 아이디를 쓰는 이용자가 오픈소스 소프트웨어 텐서플로를 활용해 유명 연예인과 포르노를 합성한 영상을 올렸다. 이후 페이크앱(FakeApp)이라는 무료 소프트웨어가 배포되며 초보자도 쉽게 딥페이크 영상을 만들어 올리기 시작했다. 인공지능 기술은 어느새 진짜와 가짜를 구분할 수 없는 수준에 올랐다. 딥페이크는 인공지능 기술의 무궁한 발전과 기술의 가능성을 보여주지만, 그만큼 악용되면 매우 위험한 기술이다. 가짜와 진짜를 구분할 수 없는 딥페이크 기술은 많은 범죄에 악용되고 있어 딥페이크 기술 존재 자체에 대한 찬반 논쟁까지 이어지고 있다.
+
2017년 미국 대형 온라인 커뮤니티인 [[레딧]](Reddit)에 올라온 합성 포르노 영상을 딥페이크의 시초로 본다. 'Deepfakes'라는 아이디를 쓰는 이용자가 [[오픈소스]] [[소프트웨어]] [[텐서플로]]를 활용해 유명 연예인과 포르노를 합성한 영상을 올렸다. 이후 페이크앱(FakeApp)이라는 무료 소프트웨어가 배포되며 초보자도 쉽게 딥페이크 영상을 만들어 올리기 시작했다. 인공지능 기술은 어느새 진짜와 가짜를 구분할 수 없는 수준에 올랐다. 딥페이크는 인공지능 기술의 무궁한 발전과 기술의 가능성을 보여주지만, 그만큼 악용되면 매우 위험한 기술이다. 가짜와 진짜를 구분할 수 없는 딥페이크 기술은 많은 범죄에 악용되고 있어 딥페이크 기술 존재 자체에 대한 찬반 논쟁까지 이어지고 있다.
  
가장 심각한 범죄는 합성 포르노이다. 대한민국은 물론 세계적으로 연예인뿐만 아니라 일반인까지 얼굴 합성 포르노 피해자 사례가 증가하고 있다. 일반인의 얼굴을 합성하고 음성을 위조해 일명 '지인능욕'이라는 딥페이크 포르노 영상까지 유포되고 있다.<ref>이서현 기자, 〈[https://m8.hankookilbo.com/News/Read/A2024052208070001504?rPrev=A2024052317070000966 "3만 원에 지인능욕 가능"... '아는 사람' 노린 딥페이크 음란물 활개]〉, 《한국일보》, 2024-05-23</ref> 네덜란드 딥페이크 탐지 기술업체인 딥트레이스가 2019년 발간한 보고서 '더 스테이트 오브 딥페이크'에 따르면 인터넷에 유포된 딥페이크 영상 96%가 음란물이다.<ref name='오대석'>오대석 기자 , 〈[https://www.mk.co.kr/news/it/9663928 (플랫폼) 악용되는 AI…"딥페이크, 96%가 음란물"]〉, 《매일경제》, 2020-12-23</ref> 가짜뉴스 또한 심각한 문제다. 정치인 얼굴을 합성한 가짜 뉴스 등 정치인이나 연예인 등 특정인이 하지 않은 발언이나 행위를 묘사하는 영상을 만들어 여론을 호도할 가능성을 배제할 수 없다.<ref>김미정 기자, 〈[https://zdnet.co.kr/view/?no=20240222154900 국내 정치·연예계도 '딥페이크' 몸살…퇴출 만만찮네]〉, 《지디넷코리아》, 2024-02-22</ref> 이뿐만 아니다. 딥페이크의 악용 사례는 다양하다. 다른 사람 음성이나 영상을 허락 없이 사용할 경우에 개인정보는 물론 초상권, 명예권, 성명권을 침해할 수 있다.
+
가장 심각한 범죄는 합성 포르노이다. 대한민국은 물론 세계적으로 연예인뿐만 아니라 일반인까지 얼굴 합성 포르노 피해자 사례가 증가하고 있다. 일반인의 얼굴을 합성하고 음성을 위조해 일명 '지인능욕'이라는 딥페이크 포르노 영상까지 유포되고 있다.<ref>이서현 기자, 〈[https://m8.hankookilbo.com/News/Read/A2024052208070001504?rPrev=A2024052317070000966 "3만 원에 지인능욕 가능"... '아는 사람' 노린 딥페이크 음란물 활개]〉, 《한국일보》, 2024-05-23</ref> [[네덜란드]] 딥페이크 탐지 기술업체인 딥트레이스(DipTrace)가 2019년 발간한 보고서 '더 스테이트 오브 딥페이크'(The State of Deepfakes)에 따르면 [[인터넷]]에 유포된 딥페이크 영상 96%가 음란물이다.<ref name='오대석'>오대석 기자 , 〈[https://www.mk.co.kr/news/it/9663928 (플랫폼) 악용되는 AI…"딥페이크, 96%가 음란물"]〉, 《매일경제》, 2020-12-23</ref> 가짜뉴스 또한 심각한 문제다. 정치인 얼굴을 합성한 가짜 뉴스 등 정치인이나 연예인 등 특정인이 하지 않은 발언이나 행위를 묘사하는 영상을 만들어 여론을 호도할 가능성을 배제할 수 없다.<ref>김미정 기자, 〈[https://zdnet.co.kr/view/?no=20240222154900 국내 정치·연예계도 '딥페이크' 몸살…퇴출 만만찮네]〉, 《지디넷코리아》, 2024-02-22</ref> 이뿐만 아니다. 딥페이크의 악용 사례는 다양하다. 다른 사람 음성이나 영상을 허락 없이 사용할 경우에 개인정보는 물론 초상권, 명예권, 성명권을 침해할 수 있다.
  
하지만 한편으로 여론을 조작하려 가짜 뉴스를 제작하거나 유명인의 얼굴을 무단 도용해 성인물을 만드는 등 그 위험성 또한 심화되고 있다. 유명 할리우드 배우들이 위조된 성인물 영상으로 피해를 보았으며, 국내에서도 온라인 커뮤니티와 SNS를 중심으로 유명인뿐 아니라 일반인까지 딥페이크의 악용 피해를 보고 있다.<ref>이준석 기자, 〈[https://www.nocutnews.co.kr/news/6163734 딥페이크 활용 음란물 확산…이번엔 미국 유명 男배우 피해]〉, 《노컷뉴스》, 2024-06-20</ref> 최근에는 딥페이크 기술을 이용한 음성, 문서 위조 사건까지 발생하며 불안감이 고조되고 있다. 이처럼 정교한 딥페이크 기술은 미디어 업계에서 특수효과로 활용되어 콘텐츠 품질 개선에 기여할 수 있지만, 한편으로는 성인물과 가짜 뉴스 제작 등 각종 범죄의 도구로 쓰이고 있다.
+
하지만 한편으로 여론을 조작하려 가짜 뉴스를 제작하거나 유명인의 얼굴을 무단 도용해 성인물을 만드는 등 그 위험성 또한 심화되고 있다. 유명 할리우드 배우들이 위조된 성인물 영상으로 피해를 보았으며, 한국에서도 온라인 커뮤니티와 SNS를 중심으로 유명인뿐 아니라 일반인까지 딥페이크의 악용 피해를 보고 있다.<ref>이준석 기자, 〈[https://www.nocutnews.co.kr/news/6163734 딥페이크 활용 음란물 확산…이번엔 미국 유명 男배우 피해]〉, 《노컷뉴스》, 2024-06-20</ref> 최근에는 딥페이크 기술을 이용한 음성, 문서 위조 사건까지 발생하며 불안감이 고조되고 있다. 이처럼 정교한 딥페이크 기술은 미디어 업계에서 특수효과로 활용되어 콘텐츠 품질 개선에 기여할 수 있지만, 한편으로는 성인물과 가짜 뉴스 제작 등 각종 범죄의 도구로 쓰이고 있다.
  
 
딥페이크 콘텐츠가 확산되면서 각종 부작용을 양산하고 있지만, 딥페이크 기술이 부정적인 면만 가지고 있는 기술은 분명 아니다. 딥페이크 기술이 영상 산업에 활용되면서 특수효과, 더빙, 과거 재현 등이 더 쉽고 간편해졌다.<ref>〈[https://www.newstomato.com/one/view.aspx?seq=1212073 딥페이크, 영화-드라마에 ‘약’일까 ‘독’될까]〉, 《뉴스카페》, 2023-12-13</ref> 어느 기술이 그렇듯, 딥페이크 기술도 쓰이는 방향과 목적에 따라 명과 암을 가진다. 사실을 조작하고, 무고한 사람을 공격하는 강력한 도구가 될 수 있음은 분명하다. 이를 방지하고 대책을 마련할 수 있는 논의가 필요함은 물론이거니와, 이를 유용하게 활용할 수 있는 방향 또한 놓쳐서는 안 된다. 딥페이크 기술이 우리 사회의 신뢰를 떨어트리는 끔찍한 허점이 되지 않도록 경각심을 가지되, 무궁무진한 발전 가능성도 함께 고려해야 한다.
 
딥페이크 콘텐츠가 확산되면서 각종 부작용을 양산하고 있지만, 딥페이크 기술이 부정적인 면만 가지고 있는 기술은 분명 아니다. 딥페이크 기술이 영상 산업에 활용되면서 특수효과, 더빙, 과거 재현 등이 더 쉽고 간편해졌다.<ref>〈[https://www.newstomato.com/one/view.aspx?seq=1212073 딥페이크, 영화-드라마에 ‘약’일까 ‘독’될까]〉, 《뉴스카페》, 2023-12-13</ref> 어느 기술이 그렇듯, 딥페이크 기술도 쓰이는 방향과 목적에 따라 명과 암을 가진다. 사실을 조작하고, 무고한 사람을 공격하는 강력한 도구가 될 수 있음은 분명하다. 이를 방지하고 대책을 마련할 수 있는 논의가 필요함은 물론이거니와, 이를 유용하게 활용할 수 있는 방향 또한 놓쳐서는 안 된다. 딥페이크 기술이 우리 사회의 신뢰를 떨어트리는 끔찍한 허점이 되지 않도록 경각심을 가지되, 무궁무진한 발전 가능성도 함께 고려해야 한다.
  
 
=== 가능성 ===
 
=== 가능성 ===
할리우드를 비롯한 영상 제작 업계에서는 딥페이크 기술로 특수효과를 만들어 내고 있다. 특히 과거를 재현하거나 더 이상 실존하지 인물을 그리고자 할 때 유용하게 활용되고 있다. 2016년에 개봉한 영화 <로그원(Rogue One)>에는 1977년 작 <스타워즈: 새로운 희망(Star Wars: A New Hope)>에 출현한 배우가 당시의 모습 그대로 등장했다. 로그원 제작진은 배우와 외형적으로 유사한 대역 배우를 섭외한 후, 모션 캡처 기법과 딥페이크 기술을 활용하여 대역 배우의 얼굴에 과거 배우의 얼굴을 합성하는 방식으로 영화를 촬영했다.<ref>김정은 기자, 〈[https://www.thedailypost.kr/news/articleView.html?idxno=89304 #37. 인공지능이 대체한 '스타워즈' 다스 베이더의 목소리]〉, 《더데일리포스트》, 2022-09-26</ref> 넷플릭스(Netflix)도 딥페이크 기술을 활용해 주연 배우의 현재와 과거 모습을 동시에 재현해 낸 <아이리시맨(The Irishman)>의 출시를 예고했다.
+
할리우드를 비롯한 영상 제작 업계에서는 딥페이크 기술로 특수효과를 만들어 내고 있다. 특히 과거를 재현하거나 더 이상 실존하지 인물을 그리고자 할 때 유용하게 활용되고 있다. 2016년에 개봉한 영화 <로그원(Rogue One)>에는 1977년 작 <스타워즈: 새로운 희망(Star Wars: A New Hope)>에 출현한 배우가 당시의 모습 그대로 등장했다. 로그원 제작진은 배우와 외형적으로 유사한 대역 배우를 섭외한 후, 모션 캡처 기법과 딥페이크 기술을 활용하여 대역 배우의 얼굴에 과거 배우의 얼굴을 합성하는 방식으로 영화를 촬영했다.<ref>김정은 기자, 〈[https://www.thedailypost.kr/news/articleView.html?idxno=89304 #37. 인공지능이 대체한 '스타워즈' 다스 베이더의 목소리]〉, 《더데일리포스트》, 2022-09-26</ref> [[넷플릭스]](Netflix)도 딥페이크 기술을 활용해 주연 배우의 현재와 과거 모습을 동시에 재현해 낸 <아이리시맨(The Irishman)>의 출시를 예고했다.
  
딥페이크 기술은 AR·VR 콘텐츠 제작에도 활용되고 있다. 미국 플로리다에 있는 화가 달리(Dali) 박물관은 미국의 광고사인 굿바이(Goodby), 굿비 실버스타인 & 파트너스(Goodby Silverstein & Partners)와 협업해 몇십 년 전에 작고한 예술가를 되살려냈다. GS&P는 달리의 영상을 수집한 후 머신러닝 기법을 활용해 표정 알고리즘을 분석했다. 이후, 달리와 신체적 특징이 유사한 대역 배우를 섭외해 배우의 얼굴에 달리의 얼굴·표정을 합성하고 달리와 비슷한 성우의 목소리를 입혔다. 전시회 관람객들은 실물 크기의 키오스크 속에 등장하는 달리와 촬영하고, 대화하는 등 AR 달리의 안내를 받으며 작품을 감상할 수 있다.<ref>김정희 기자, 〈[https://www.designdb.com/?menuno=1434&bbsno=641&siteno=15&act=view&ztag=rO0ABXQAOTxjYWxsIHR5cGU9ImJvYXJkIiBubz0iOTkzIiBza2luPSJwaG90b19iYnNfMjAxOSI%2BPC9jYWxsPg%3D%3D#gsc.tab=0 살바도르 달리, 딥페이크로 부활해 관람객들과 소통]〉, 《한국디자인진흥원》, 2019-05-27</ref>
+
딥페이크 기술은 [[AR]]·[[VR]] 콘텐츠 제작에도 활용되고 있다. [[미국]] [[플로리다]]에 있는 화가 달리(Dali) 박물관은 미국의 광고사인 굿바이(Goodby), 굿비 실버스타인 & 파트너스(Goodby Silverstein & Partners)와 협업해 몇십 년 전에 작고한 예술가를 되살려냈다. GS&P는 달리의 영상을 수집한 후 [[머신러닝]] 기법을 활용해 표정 [[알고리즘]]을 분석했다. 이후, 달리와 신체적 특징이 유사한 대역 배우를 섭외해 배우의 얼굴에 달리의 얼굴·표정을 합성하고 달리와 비슷한 성우의 목소리를 입혔다. 전시회 관람객들은 실물 크기의 키오스크 속에 등장하는 달리와 촬영하고, 대화하는 등 AR 달리의 안내를 받으며 작품을 감상할 수 있다.<ref>김정희 기자, 〈[https://www.designdb.com/?menuno=1434&bbsno=641&siteno=15&act=view&ztag=rO0ABXQAOTxjYWxsIHR5cGU9ImJvYXJkIiBubz0iOTkzIiBza2luPSJwaG90b19iYnNfMjAxOSI%2BPC9jYWxsPg%3D%3D#gsc.tab=0 살바도르 달리, 딥페이크로 부활해 관람객들과 소통]〉, 《한국디자인진흥원》, 2019-05-27</ref>
  
 
=== 폐해 ===
 
=== 폐해 ===
한편, 유명인의 신체를 무단 도용해 만든 딥페이크 포르노도 확산되고 있다. 딥트레이스(Deeptrace)에 따르면, 온라인에 퍼져 있는 딥페이크 영상은 2018년 12월 기준 7,964개에서 2019년에는 14,678건으로 전년도보다 84% 상승했다. 딥페이크 영상 중에서도 성인물이 전체의 96%를 점유하며 가장 큰 비중을 차지하고 있다. 딥페이크 성인용 콘텐츠를 중점적으로 게시하는 사이트 중에서 규모가 가장 큰 4개 사이트의 총 영상 조회 수는 1억 3,436만 4,438회에 달한다.
+
한편, 유명인의 신체를 무단 도용해 만든 딥페이크 포르노도 확산되고 있다. 딥트레이스(Deeptrace)에 따르면, [[온라인]]에 퍼져 있는 딥페이크 영상은 2018년 12월 기준 7,964개에서 2019년에는 14,678건으로 전년도보다 84% 상승했다. 딥페이크 영상 중에서도 성인물이 전체의 96%를 점유하며 가장 큰 비중을 차지하고 있다. 딥페이크 성인용 콘텐츠를 중점적으로 게시하는 사이트 중에서 규모가 가장 큰 4개 사이트의 총 영상 조회 수는 1억 3,436만 4,438회에 달한다.
  
 
딥트레이스가 딥페이크 성인용 콘텐츠 전용 사이트 5개(규모가 가장 큰 사이트 5개이다)의 영상을 분석한 결과, 영상에 등장하는 특정 인물의 성별이 모두 여성이었다. 인물의 국적을 살펴보니 41%가 미국인, 25%가 한국인, 12%가 영국인, 6%가 캐나다인, 3%가 인도인이었으며, 인물의 99%가 연예계 종사자였다. 문제는 해당 영상의 대부분이 대상자의 허락을 받지 않고 불법 도용된 이미지로 파악된다는 것이다. 여성, 그리고 유명인에 대한 피해가 가장 큰 실정이다. 영국의 한 배우를 합성한 성인용 딥페이크 영상물이 257개가 유포되고, 조회수가 580만 회를 넘긴 사례도 있다. 불법 제작된 딥페이크 성인용 콘텐츠 제작 방지 방안을 마련하는 일이 시급하다고 볼 수 있다.
 
딥트레이스가 딥페이크 성인용 콘텐츠 전용 사이트 5개(규모가 가장 큰 사이트 5개이다)의 영상을 분석한 결과, 영상에 등장하는 특정 인물의 성별이 모두 여성이었다. 인물의 국적을 살펴보니 41%가 미국인, 25%가 한국인, 12%가 영국인, 6%가 캐나다인, 3%가 인도인이었으며, 인물의 99%가 연예계 종사자였다. 문제는 해당 영상의 대부분이 대상자의 허락을 받지 않고 불법 도용된 이미지로 파악된다는 것이다. 여성, 그리고 유명인에 대한 피해가 가장 큰 실정이다. 영국의 한 배우를 합성한 성인용 딥페이크 영상물이 257개가 유포되고, 조회수가 580만 회를 넘긴 사례도 있다. 불법 제작된 딥페이크 성인용 콘텐츠 제작 방지 방안을 마련하는 일이 시급하다고 볼 수 있다.
33번째 줄: 55번째 줄:
 
가짜 뉴스도 심각한 딥페이크 악용 사례이다. 유명인사의 얼굴을 합성한 딥페이크 뉴스가 난무함에 따라 정치적·사회적 불안감이 가중되고 있다. 2019년 9월, 이탈리아에서 마테오 렌치(Matteo Renzi) 전 총리가 다른 정치인들을 모욕하는 딥페이크 영상이 한 프로그램에서 방영된 후, SNS를 통해 급속히 확산되었다. 해당 영상은 배우의 몸에 총리의 얼굴을 합성한 조작 영상이었지만, 영상의 내용을 실제처럼 인식한 일부 SNS 이용자가 총리를 향해 거센 비판을 제기하는 해프닝이 일어나기도 했다.<ref>뉴스투데이, 〈[https://m.post.naver.com/viewer/postView.naver?volumeNo=33348046&memberNo=34766885 (메타버스와 산업·경영의 미래 <7>) 디지털 휴먼의 빛과 그림자(下)]〉, 《네이버 포스트》, 2022-02-24</ref>
 
가짜 뉴스도 심각한 딥페이크 악용 사례이다. 유명인사의 얼굴을 합성한 딥페이크 뉴스가 난무함에 따라 정치적·사회적 불안감이 가중되고 있다. 2019년 9월, 이탈리아에서 마테오 렌치(Matteo Renzi) 전 총리가 다른 정치인들을 모욕하는 딥페이크 영상이 한 프로그램에서 방영된 후, SNS를 통해 급속히 확산되었다. 해당 영상은 배우의 몸에 총리의 얼굴을 합성한 조작 영상이었지만, 영상의 내용을 실제처럼 인식한 일부 SNS 이용자가 총리를 향해 거센 비판을 제기하는 해프닝이 일어나기도 했다.<ref>뉴스투데이, 〈[https://m.post.naver.com/viewer/postView.naver?volumeNo=33348046&memberNo=34766885 (메타버스와 산업·경영의 미래 <7>) 디지털 휴먼의 빛과 그림자(下)]〉, 《네이버 포스트》, 2022-02-24</ref>
  
그보다 3개월 전인 2019년 6월에는 메타(Meta) CEO인 마크 저커버그(Mark Zuckerberg)가 등장하는 14초 분량의 영상이 인스타그램에서 화제를 모았다. 영상에서 Mark 마크 저커버그는 페이스북 이용자 데이터를 통제할 힘이 본인에게 있다는 과시적 내용의 발언으로 시청자의 뭇매를 맞았다. 이용자 데이터 유출사건으로 신뢰도 하락이라는 위기를 맞닥뜨린 페이스북의 CEO에게는 당치않은 발언이라는 비판이 줄을 이었다. 하지만 해당 영상은 실제가 아닌 조작된 영상이었으며, 영국의 한 디지털 예술가가 AI 프로젝트의 일환으로 제작·게재한 영상이었던 것으로 드러났다.<ref>〈[https://visla.kr/article/etc/93763/ 마크 저커버그의 인스타그램 영상으로 불거진 Deepfake 논란]〉, 《비슬라매거진》, 2019-06-19</ref>
+
그보다 3개월 전인 2019년 6월에는 [[메타]](Meta) CEO인 [[마크 저커버그]](Mark Zuckerberg)가 등장하는 14초 분량의 영상이 [[인스타그램]]에서 화제를 모았다. 영상에서 마크 저커버그는 [[페이스북]] 이용자 데이터를 통제할 힘이 본인에게 있다는 과시적 내용의 발언으로 시청자의 뭇매를 맞았다. 이용자 데이터 유출사건으로 신뢰도 하락이라는 위기를 맞닥뜨린 페이스북의 CEO에게는 당치않은 발언이라는 비판이 줄을 이었다. 하지만 해당 영상은 실제가 아닌 조작된 영상이었으며, 영국의 한 디지털 예술가가 AI 프로젝트의 일환으로 제작·게재한 영상이었던 것으로 드러났다.<ref>〈[https://visla.kr/article/etc/93763/ 마크 저커버그의 인스타그램 영상으로 불거진 Deepfake 논란]〉, 《비슬라매거진》, 2019-06-19</ref>
  
이처럼 딥페이크 기술 확산으로 진실과 거짓의 구분이 어려워지고 있다. 2019년 6월에는 말레이시아 경제부 장관의 동성애 장면이 담긴 영상이 알려지면서 말레이시아 정계가 둘로 나뉘어 갑론을박을 펼쳤다. 말레이시아는 동성애를 법적으로 금기시하기 때문에 장관을 체포해야 한다는 의견과, 해당 영상은 딥페이크 기술로 조작되었다는 주장이 첨예하게 다투었다. 하지만 국제 전문가의 검토 결과, 해당 영상에서는 딥페이크 기술의 흔적을 발견할 수 없었다.<ref>하태균 기자, 〈[https://www.newscape.co.kr/news/articleView.html?idxno=43932 AI 활용한 정교한 ‘가짜 동영상’ 세계를 현혹]〉, 《뉴스카페》, 2020-01-28</ref>
+
이처럼 딥페이크 기술 확산으로 진실과 거짓의 구분이 어려워지고 있다. 2019년 6월에는 [[말레이시아]] 경제부 장관의 동성애 장면이 담긴 영상이 알려지면서 말레이시아 정계가 둘로 나뉘어 갑론을박을 펼쳤다. 말레이시아는 동성애를 법적으로 금기시하기 때문에 장관을 체포해야 한다는 의견과, 해당 영상은 딥페이크 기술로 조작되었다는 주장이 첨예하게 다투었다. 하지만 국제 전문가의 검토 결과, 해당 영상에서는 딥페이크 기술의 흔적을 발견할 수 없었다.<ref>하태균 기자, 〈[https://www.newscape.co.kr/news/articleView.html?idxno=43932 AI 활용한 정교한 ‘가짜 동영상’ 세계를 현혹]〉, 《뉴스카페》, 2020-01-28</ref>
  
딥페이크 기술이 스캔들의 진위여부에도 영향을 미치는 등, 사회적 파급력이 높아지는 가운데 딥페이크 기술에 대한 경고의 필요성이 높아지고 있다. 2018년 4월에 온라인 매체인 버즈피드(Buzzfeed)와 조던 필(Jordan Peele) 감독은 딥페이크 기술의 위험성을 경고하기 위한 영상을 공동 제작했다. 해당 영상에는 오바마(Obama) 미국 전 대통령이 등장하여 트럼프(Trump) 전 대통령을 향해 거침없는 비판을 행했다. 오바마 대통령이 실제로 출연한 것처럼 보이는 해당 영상은 사실 교묘히 조작된 딥페이크 영상이었다. 오바마 대통령의 모습을 영상 속에 합성해서 만들어 낸 결과물인 것이다. 제작진은 시청자들이 딥페이크 기술의 사회적, 정치적 파급력에 대해 인식할 만한 계기를 부여하고자 경고성 영상을 제작한 것이다.<ref>허재경 기자, 〈[https://www.hankookilbo.com/News/Read/A2022111812580003756 오바마 대통령도 당했던 ‘딥페이크’ 기세등등]〉, 《한국일보》, 2022-11-24</ref>
+
딥페이크 기술이 스캔들의 진위여부에도 영향을 미치는 등, 사회적 파급력이 높아지는 가운데 딥페이크 기술에 대한 경고의 필요성이 높아지고 있다. 2018년 4월에 온라인 매체인 버즈피드(Buzzfeed)와 조던 필(Jordan Peele) 감독은 딥페이크 기술의 위험성을 경고하기 위한 영상을 공동 제작했다. 해당 영상에는 [[오바마]](Obama) 미국 전 대통령이 등장하여 [[트럼프]](Trump) 전 대통령을 향해 거침없는 비판을 행했다. 오바마 대통령이 실제로 출연한 것처럼 보이는 해당 영상은 사실 교묘히 조작된 딥페이크 영상이었다. 오바마 대통령의 모습을 영상 속에 합성해서 만들어 낸 결과물인 것이다. 제작진은 시청자들이 딥페이크 기술의 사회적, 정치적 파급력에 대해 인식할 만한 계기를 부여하고자 경고성 영상을 제작한 것이다.<ref>허재경 기자, 〈[https://www.hankookilbo.com/News/Read/A2022111812580003756 오바마 대통령도 당했던 ‘딥페이크’ 기세등등]〉, 《한국일보》, 2022-11-24</ref>
  
페이스북(Facebook)과 아마존(Amazon), 구글(Google) 등 글로벌 플랫폼도 딥페이크 기술의 악용을 저지하고자 나섰다. 페이스북은 2019년 9월에 마이크로소프트(Microsoft), MIT, 옥스퍼드대학, 코넬공과대학 등 전 세계 유수대학의 인공지능 전문가들과 손을 잡고 딥페이크 감지 기술 경연 대회인 DFDC
+
[[페이스북]](Facebook)과 [[아마존]](Amazon), [[구글]](Google) 등 글로벌 플랫폼도 딥페이크 기술의 악용을 저지하고자 나섰다. 페이스북은 2019년 9월에 마이크로소프트(Microsoft), MIT, 옥스퍼드대학, 코넬공과대학 등 전 세계 유수대학의 인공지능 전문가들과 손을 잡고 딥페이크 감지 기술 경연 대회인 DFDC
(Deepfake Detection Challenge)를 개최했다. 해당 경연은 딥페이크 동영상 데이터셋을 이용하여 영상 해독 알고리즘을 개발하는 것이다. 페이스북은 연구비·상금 수여 등 명목으로 해당 대회에 1,000만 달러를 투자하겠다고 발표했다.<ref>최창현 기자, 〈[https://www.aitimes.kr/news/articleView.html?idxno=16707 페이스북 AI, 딥페이크 꼼짝마라!... 100,000개 딥페이크 식별 '데이터 세트' 공개한다]〉, 《인공지능신문》, 2020-06-14</ref> 2019년 10월에는 아마존도 DFDC에 합류했다. 아마존은 영상 해독 알고리즘의 개발을 위해 향후 2년간 개발자들에게 100만 달러에 달하는 아마존 웹 서비스(AWS) 이용권을 제공한다고 발표했다. 구글은 3,000개의 딥페이크 영상을 촬영한 후, 딥페이크 감지 기술 연구에 제공했으며,<ref>구본권 기자, 〈[https://www.hani.co.kr/arti/science/future/910990.html ‘감쪽같은 AI가짜영상’ 개방, 득될까 독될까]〉, 《한겨레》, 2019-09-26</ref> 트위터(twitter)는 조작된 콘텐츠를 공유하지 못하게 하거나, 조작된 콘텐츠가 허위임을 나타내는 링크를 삽입하는 등 딥페이크 악용 사례를 방지하는 정책을 펼치고 있다.<ref>석대건 기자, 〈[https://www.digitaltoday.co.kr/news/articleView.html?idxno=217352 트위터, 딥페이크 대책 만든다… “의견 수렴 후 초안 보완해 30일 후 공개”]〉, 《디지털투데이》, 2019-11-12</ref>
+
(Deepfake Detection Challenge)를 개최했다. 해당 경연은 딥페이크 동영상 데이터셋을 이용하여 영상 해독 알고리즘을 개발하는 것이다. 페이스북은 연구비·상금 수여 등 명목으로 해당 대회에 1,000만 달러를 투자하겠다고 발표했다.<ref>최창현 기자, 〈[https://www.aitimes.kr/news/articleView.html?idxno=16707 페이스북 AI, 딥페이크 꼼짝마라!... 100,000개 딥페이크 식별 '데이터 세트' 공개한다]〉, 《인공지능신문》, 2020-06-14</ref> 2019년 10월에는 아마존도 DFDC에 합류했다. 아마존은 영상 해독 알고리즘의 개발을 위해 향후 2년간 개발자들에게 100만 달러에 달하는 [[아마존 웹 서비스]](AWS) 이용권을 제공한다고 발표했다. 구글은 3,000개의 딥페이크 영상을 촬영한 후, 딥페이크 감지 기술 연구에 제공했으며,<ref>구본권 기자, 〈[https://www.hani.co.kr/arti/science/future/910990.html ‘감쪽같은 AI가짜영상’ 개방, 득될까 독될까]〉, 《한겨레》, 2019-09-26</ref> 트위터(twitter)는 조작된 콘텐츠를 공유하지 못하게 하거나, 조작된 콘텐츠가 허위임을 나타내는 링크를 삽입하는 등 딥페이크 악용 사례를 방지하는 정책을 펼치고 있다.<ref>석대건 기자, 〈[https://www.digitaltoday.co.kr/news/articleView.html?idxno=217352 트위터, 딥페이크 대책 만든다… “의견 수렴 후 초안 보완해 30일 후 공개”]〉, 《디지털투데이》, 2019-11-12</ref>
  
 
딥페이크 기술로 제작한 성인용 콘텐츠에 대한 법적 단속도 강화되는 추세이다. 유명인뿐만 아니라 일반인을 대상으로 한 딥페이크 콘텐츠의 불법 제작·유포를 방지하기 위함이다. 미국 버지니아(Virginia) 주에서는 2019년 7월 1일부터 딥페이크 성인용 콘텐츠를 보복성 음란물(리벤지 포르노)의 영역에 포함한다는 내용의 법안이 발효되었다. 딥페이크 기술이 적용된 보복성 음란물을 제작·유포하면 최대 12개월의 징역과 2,500달러의 벌금이 부과된다. 버지니아 주정부는 개인적 원한 때문에 딥페이크 기술의 폐해를 입는 일반인이 발생하지 않도록 엄정히 처벌하겠다는 입장을 고수하고 있다.<ref>김민선 기자, 〈[https://zdnet.co.kr/view/?no=20190702133148 美 버지니아, 딥페이크 포르노 유포 금지법 발효]〉, 《지디넷코리아》, 2019-07-02</ref>
 
딥페이크 기술로 제작한 성인용 콘텐츠에 대한 법적 단속도 강화되는 추세이다. 유명인뿐만 아니라 일반인을 대상으로 한 딥페이크 콘텐츠의 불법 제작·유포를 방지하기 위함이다. 미국 버지니아(Virginia) 주에서는 2019년 7월 1일부터 딥페이크 성인용 콘텐츠를 보복성 음란물(리벤지 포르노)의 영역에 포함한다는 내용의 법안이 발효되었다. 딥페이크 기술이 적용된 보복성 음란물을 제작·유포하면 최대 12개월의 징역과 2,500달러의 벌금이 부과된다. 버지니아 주정부는 개인적 원한 때문에 딥페이크 기술의 폐해를 입는 일반인이 발생하지 않도록 엄정히 처벌하겠다는 입장을 고수하고 있다.<ref>김민선 기자, 〈[https://zdnet.co.kr/view/?no=20190702133148 美 버지니아, 딥페이크 포르노 유포 금지법 발효]〉, 《지디넷코리아》, 2019-07-02</ref>
47번째 줄: 69번째 줄:
  
 
== 참고자료 ==
 
== 참고자료 ==
 +
* 김정희 기자, 〈[https://www.designdb.com/?menuno=1434&bbsno=641&siteno=15&act=view&ztag=rO0ABXQAOTxjYWxsIHR5cGU9ImJvYXJkIiBubz0iOTkzIiBza2luPSJwaG90b19iYnNfMjAxOSI%2BPC9jYWxsPg%3D%3D#gsc.tab=0 살바도르 달리, 딥페이크로 부활해 관람객들과 소통]〉, 《한국디자인진흥원》, 2019-05-27
 +
* 〈[https://visla.kr/article/etc/93763/ 마크 저커버그의 인스타그램 영상으로 불거진 Deepfake 논란]〉, 《비슬라매거진》, 2019-06-19
 +
* 김민선 기자, 〈[https://zdnet.co.kr/view/?no=20190702133148 美 버지니아, 딥페이크 포르노 유포 금지법 발효]〉, 《지디넷코리아》, 2019-07-02
 +
* 구본권 기자, 〈[https://www.hani.co.kr/arti/science/future/910990.html ‘감쪽같은 AI가짜영상’ 개방, 득될까 독될까]〉, 《한겨레》, 2019-09-26
 +
* 석대건 기자, 〈[https://www.digitaltoday.co.kr/news/articleView.html?idxno=217352 트위터, 딥페이크 대책 만든다… “의견 수렴 후 초안 보완해 30일 후 공개”]〉, 《디지털투데이》, 2019-11-12
 +
* 〈[https://www.kocca.kr/kocca/bbs/view/B0000204/1939516.do?searchCnd=&searchWrd=&cateTp1=&cateTp2=&useYn=&menuNo=204172&categorys=4&subcate=61&cateCode=0&type=&instNo=0&questionTp=&ufSetting=&recovery=&option1=&option2=&year=&morePage=&qtp=&searchGenre=&domainId=&sortCode=&pageIndex=1 (미디어 이슈 & 트렌드) (트랜드리포트) 딥페이크 기술의 빛과 그림자]〉, 《한국방송통신전파진흥원》, 2019-12-16
 +
* 하태균 기자, 〈[https://www.newscape.co.kr/news/articleView.html?idxno=43932 AI 활용한 정교한 ‘가짜 동영상’ 세계를 현혹]〉, 《뉴스카페》, 2020-01-28
 +
* 최창현 기자, 〈[https://www.aitimes.kr/news/articleView.html?idxno=16707 페이스북 AI, 딥페이크 꼼짝마라!... 100,000개 딥페이크 식별 '데이터 세트' 공개한다]〉, 《인공지능신문》, 2020-06-14
 +
* 조영주, 배강민, 박종열, 〈[https://ettrends.etri.re.kr/ettrends/184/0905184009/35-4_91-102.pdf GAN 적대적 생성 신경망과 이미지 생성 및 변환 기술 동향]〉, 《한국전자통신연구원》, 2020-08
 +
* 오대석 기자 , 〈[https://www.mk.co.kr/news/it/9663928 (플랫폼) 악용되는 AI…"딥페이크, 96%가 음란물"]〉, 《매일경제》, 2020-12-23
 +
* 〈[https://www.noblesse.com/home/news/magazine/detail.php?no=10622 딥 페이크를 아시나요?]〉, 《노블레스》, 2021-01-12
 +
* 뉴스투데이, 〈[https://m.post.naver.com/viewer/postView.naver?volumeNo=33348046&memberNo=34766885 (메타버스와 산업·경영의 미래 <7>) 디지털 휴먼의 빛과 그림자(下)]〉, 《네이버 포스트》, 2022-02-24
 +
* 팀나인 홍민기 소사장, 〈[https://www.samsungsds.com/kr/insights/220411deepfake_1.html 누가 진짜일까? 딥페이크 생성과 탐지]〉, 《삼성SDS》, 2022-04-11
 +
* 김정은 기자, 〈[https://www.thedailypost.kr/news/articleView.html?idxno=89304 #37. 인공지능이 대체한 '스타워즈' 다스 베이더의 목소리]〉, 《더데일리포스트》, 2022-09-26
 +
* 허재경 기자, 〈[https://www.hankookilbo.com/News/Read/A2022111812580003756 오바마 대통령도 당했던 ‘딥페이크’ 기세등등]〉, 《한국일보》, 2022-11-24
 +
* 〈[https://www.newstomato.com/one/view.aspx?seq=1212073 딥페이크, 영화-드라마에 ‘약’일까 ‘독’될까]〉, 《뉴스카페》, 2023-12-13
 +
* 김미정 기자, 〈[https://zdnet.co.kr/view/?no=20240222154900 국내 정치·연예계도 '딥페이크' 몸살…퇴출 만만찮네]〉, 《지디넷코리아》, 2024-02-22
 +
* 이준석 기자, 〈[https://www.nocutnews.co.kr/news/6163734 딥페이크 활용 음란물 확산…이번엔 미국 유명 男배우 피해]〉, 《노컷뉴스》, 2024-06-20
 +
* 이서현 기자, 〈[https://m8.hankookilbo.com/News/Read/A2024052208070001504?rPrev=A2024052317070000966 "3만 원에 지인능욕 가능"... '아는 사람' 노린 딥페이크 음란물 활개]〉, 《한국일보》, 2024-05-23
  
 
== 같이 보기 ==
 
== 같이 보기 ==
 +
* [[인공지능]]
 +
* [[딥러닝]]
 +
* [[머신러닝]]
  
{{인공지능 기술|추가 필요}}
+
{{인공지능 기술|검토 필요}}

2024년 7월 29일 (월) 15:15 기준 최신판

딥페이크(Deepfake)란 딥러닝(deep learning)과 가짜(fake)의 혼성어로 인공지능(AI)을 기반으로 한 인간 이미지 합성 기술이다. 생성적 적대 신경망(GAN)라는 머신러닝 기술을 사용하여, 기존의 사진이나 영상을 원본이 되는 사진이나 영상에 겹쳐서 만들어낸다. 딥페이크는 영화나 방송계 등에서 이미 사망하거나 나이가 든 배우를 스크린에 되살리거나 초상권 보호 등을 위해 사용할 수 있는 한편, 딥페이크 포르노그래피를 포함한 가짜 리벤지 포르노, 가짜 뉴스나 악의적 사기를 만드는 데에 사용되어 논란이 되기도 했다.

상세[편집]

딥페이크(Deepfake)란, 인공지능 기술인 딥러닝(deep learning)과 ‘가짜’를 의미하는 단어인 페이크(fake)의 합성어로, 인공지능 기술을 이용하여 진위 여부를 구별하기 어려운 가짜 이미지나 영상물을 뜻한다. 딥페이크라는 단어가 등장한 시기는 2017년으로, 미국 온라인 커뮤니티 레딧(Reddit)의 한 회원이 기존 영상에 유명인의 얼굴을 입혀 가짜 콘텐츠를 게재한 데서 유래되었다.[1] 이후 온라인 커뮤니티와 SNS를 중심으로 급속히 확산된 딥페이크 콘텐츠는 최근 딥페이스랩(DeepFaceLab), 페이스스왑(Faceswap) 등 오픈소스 형태의 영상 합성 제작 프로그램이 배포되면서 더욱 성행하고 있다.[2]

딥페이크의 기반은 2014년에 등장한 머신러닝 기술인 생성적 적대 신경망(Generative Adversarial Networks)이다. GAN은 AI 모델을 생성모델과 분류모델로 구분하며, 각 모델의 학습을 반복하는 과정을 거친다. 이러한 과정에서 생성모델과 분류모델은 서로를 적대적 경쟁자로 인식하며 상호 발전하게 된다. 생성모델은 실제와 유사한 데이터를 생성할 수 있게 되고, 분류모델은 데이터의 진위여부를 구별할 수 없게 되는 것이다. 이 과정을 반복하면서 원본 영상과의 구별이 거의 불가능할 정도로 정교한 합성 영상이 만들어진다.[3]

원리 및 기술[편집]

생성적 적대 신경망[편집]

생성적 적대 신경망(GAN, Generative Adversarial Networks)은 딥러닝의 중요한 기술 중 하나로, 특히 딥페이크와 같은 고도화된 데이터 생성 기술에서 핵심적인 역할을 한다. 이를 통해 매우 현실적이고 정교한 가짜 데이터를 생성할 수 있으며, 다양한 분야에서 혁신적인 응용을 가능하게 한다. GAN은 생성기(Generator)와 판별기(Discriminator)라는 두 개의 신경망으로 구성되어 있다. 이 두 신경망은 서로 경쟁하며 학습하여 매우 현실적인 데이터를 생성하는 데 사용된다.

  • 생성기(Generator) : 랜덤한 잡음 벡터를 입력으로 받아 이를 점점 더 현실적인 데이터로 변환하는 신경망이다. 생성기의 목적은 판별기를 속여서 생성된 데이터가 실제 데이터처럼 보이도록 하는 것이다. 생성기는 보통 여러 층의 신경망으로 구성되며, 각 층은 입력 데이터를 점차적으로 변형하여 최종 출력 데이터를 생성한다. 생성기의 출력은 이미지, 오디오, 텍스트 등 다양한 형태의 데이터가 될 수 있다.
  • 판별기(Discriminator) : 입력된 데이터가 실제 데이터인지 생성된 데이터인지 구별하는 신경망이다. 판별기의 목적은 생성기가 만든 가짜 데이터를 정확히 식별하는 것이다. 판별기는 실제 데이터와 생성된 데이터를 모두 입력으로 받아, 각 데이터가 실제인지 가짜인지에 대한 확률을 출력한다. 판별기 역시 여러 층의 신경망으로 구성되며, 각 층은 입력 데이터를 분석하여 최종 판단을 내린다.

GAN의 학습 과정은 생성기와 판별기가 서로 경쟁하면서 발전하는 형태로 이루어진다. 이 과정은 다음과 같이 진행된다.

  1. 생성기 학습 : 생성기는 랜덤한 잡음 벡터를 입력으로 받아 가짜 데이터를 생성한다. 초기에는 생성된 데이터가 매우 비현실적이지만, 점차 학습을 통해 더 현실적인 데이터를 만들어 낸다. 생성기의 목표는 판별기를 속여서 가짜 데이터를 실제 데이터로 판단하게 만드는 것이다.
  2. 판별기 학습 : 판별기는 실제 데이터와 생성된 데이터를 모두 입력으로 받아, 각각이 실제인지 가짜인지에 대한 확률을 계산한다. 판별기의 목표는 생성기가 만든 가짜 데이터를 정확히 식별하는 것이다. 판별기는 생성기가 만들어낸 데이터를 최대한 정확히 가짜로 판별하기 위해 학습한다.
  3. 적대적 학습 : 생성기와 판별기는 서로의 성능을 개선하기 위해 경쟁한다. 생성기가 더 현실적인 데이터를 만들수록 판별기는 이를 식별하기 위해 더 정확해져야 하며, 반대로 판별기가 더 정확해질수록 생성기는 더 현실적인 데이터를 만들어야 한다. 이 과정을 반복하면서 두 신경망은 점점 더 발전한다.

GAN의 손실 함수는 생성기와 판별기의 성능을 측정하고 최적화하는 데 사용된다. 일반적으로 사용되는 손실 함수는 다음과 같다.

  • 생성기 손실 : 생성기가 만든 데이터가 판별기에 의해 실제 데이터로 판단될 확률을 최대화하는 것이다. 이는 생성기가 판별기를 속이는 데 얼마나 성공했는지를 측정한다.
  • 판별기 손실 : 실제 데이터가 실제로 판단될 확률과 생성된 데이터가 가짜로 판단될 확률을 최대화하는 것이다. 이는 판별기가 생성기를 얼마나 정확히 식별했는지를 측정한다.

자동 인코더[편집]

자동 인코더(Autoencoder)는 입력 데이터를 효율적으로 압축하고 복원하는 신경망 구조이다. 이는 주로 데이터의 중요한 특성을 추출하고 노이즈를 제거하는 데 사용된다. 딥페이크에서 자동 인코더는 주로 얼굴 변환 및 이미지 합성에 사용된다. 두 개의 자동 인코더가 각각 다른 얼굴 데이터를 학습한 후, 원본 얼굴의 특징을 목표 얼굴의 특징으로 변환하는 데 사용된다. 예를 들어, 한 인물의 얼굴을 다른 인물의 얼굴로 변환하기 위해 원본 얼굴의 인코더와 목표 얼굴의 디코더를 결합하여 새로운 얼굴 이미지를 생성한다. 이 과정에서 원본 얼굴의 특성이 목표 얼굴의 스타일로 변환되어 자연스럽게 합성된 이미지를 얻을 수 있다. 자동 인코더는 두 가지 주요 구성 요소로 이루어져 있다. 인코더(Encoder)와 디코더(Decoder)이다.

  • 인코더 : 입력 데이터를 저차원 잠재 공간(latent space)으로 압축하는 역할을 한다. 입력 데이터는 원래의 차원에서 시작하여 점차적으로 차원을 축소해 나가며, 중요한 정보만을 남기고 불필요한 세부 사항을 제거한다. 인코더는 여러 층의 신경망으로 구성될 수 있으며, 각 층은 이전 층의 출력을 입력으로 받아 점차적으로 데이터를 압축해 나간다. 잠재 공간은 인코더가 입력 데이터를 압축하여 얻은 저차원 표현이다. 이 공간은 원래 데이터의 중요한 특성만을 포함하며, 차원이 축소되어 있기 때문에 데이터를 효율적으로 저장할 수 있다. 잠재 공간의 크기는 모델의 복잡도와 데이터의 특성에 따라 결정되며, 적절한 크기를 선택하는 것이 모델의 성능에 중요한 영향을 미친다.
  • 디코더 : 인코더가 압축한 저차원 잠재 공간을 다시 원래의 차원으로 복원하는 역할을 한다. 디코더는 인코더의 반대 과정으로, 잠재 공간의 데이터를 점차적으로 확대하여 원래의 입력 데이터와 유사한 출력을 생성한다. 디코더 역시 여러 층의 신경망으로 구성될 수 있으며, 각 층은 이전 층의 출력을 입력으로 받아 점차적으로 데이터를 복원해 나간다. 자동 인코더의 학습 과정에서 중요한 요소는 손실 함수이다. 손실 함수는 원래의 입력 데이터와 디코더의 출력 데이터 간의 차이를 측정하는 함수로, 이 차이를 최소화하는 방향으로 신경망을 학습시킨다. 일반적으로 사용되는 손실 함수는 평균 제곱 오차(Mean Squared Error, MSE)이며, 이는 원래 데이터와 복원된 데이터 간의 차이의 제곱의 평균을 계산한다.

자동 인코더의 주요 장점은 데이터의 중요한 특성을 효율적으로 추출하고 노이즈를 제거할 수 있다는 점이다. 이는 데이터 압축, 노이즈 제거, 이미지 복원 등 다양한 응용 분야에서 유용하다. 그러나 자동 인코더는 입력 데이터의 분포를 정확히 모델링하지 못할 수 있으며, 과적합(overfitting) 문제가 발생할 수 있다. 또한, 복잡한 데이터의 경우 단순한 자동 인코더만으로는 충분히 정확한 복원이 어려울 수 있다. 자동 인코더는 딥러닝의 중요한 구성 요소 중 하나로, 특히 딥페이크와 같은 고도화된 기술에서 핵심적인 역할을 한다. 이를 통해 데이터의 중요한 특성을 추출하고, 이를 바탕으로 자연스러운 합성 이미지를 생성할 수 있다.

영향[편집]

2017년 미국 대형 온라인 커뮤니티인 레딧(Reddit)에 올라온 합성 포르노 영상을 딥페이크의 시초로 본다. 'Deepfakes'라는 아이디를 쓰는 이용자가 오픈소스 소프트웨어 텐서플로를 활용해 유명 연예인과 포르노를 합성한 영상을 올렸다. 이후 페이크앱(FakeApp)이라는 무료 소프트웨어가 배포되며 초보자도 쉽게 딥페이크 영상을 만들어 올리기 시작했다. 인공지능 기술은 어느새 진짜와 가짜를 구분할 수 없는 수준에 올랐다. 딥페이크는 인공지능 기술의 무궁한 발전과 기술의 가능성을 보여주지만, 그만큼 악용되면 매우 위험한 기술이다. 가짜와 진짜를 구분할 수 없는 딥페이크 기술은 많은 범죄에 악용되고 있어 딥페이크 기술 존재 자체에 대한 찬반 논쟁까지 이어지고 있다.

가장 심각한 범죄는 합성 포르노이다. 대한민국은 물론 세계적으로 연예인뿐만 아니라 일반인까지 얼굴 합성 포르노 피해자 사례가 증가하고 있다. 일반인의 얼굴을 합성하고 음성을 위조해 일명 '지인능욕'이라는 딥페이크 포르노 영상까지 유포되고 있다.[4] 네덜란드 딥페이크 탐지 기술업체인 딥트레이스(DipTrace)가 2019년 발간한 보고서 '더 스테이트 오브 딥페이크'(The State of Deepfakes)에 따르면 인터넷에 유포된 딥페이크 영상 96%가 음란물이다.[5] 가짜뉴스 또한 심각한 문제다. 정치인 얼굴을 합성한 가짜 뉴스 등 정치인이나 연예인 등 특정인이 하지 않은 발언이나 행위를 묘사하는 영상을 만들어 여론을 호도할 가능성을 배제할 수 없다.[6] 이뿐만 아니다. 딥페이크의 악용 사례는 다양하다. 다른 사람 음성이나 영상을 허락 없이 사용할 경우에 개인정보는 물론 초상권, 명예권, 성명권을 침해할 수 있다.

하지만 한편으로 여론을 조작하려 가짜 뉴스를 제작하거나 유명인의 얼굴을 무단 도용해 성인물을 만드는 등 그 위험성 또한 심화되고 있다. 유명 할리우드 배우들이 위조된 성인물 영상으로 피해를 보았으며, 한국에서도 온라인 커뮤니티와 SNS를 중심으로 유명인뿐 아니라 일반인까지 딥페이크의 악용 피해를 보고 있다.[7] 최근에는 딥페이크 기술을 이용한 음성, 문서 위조 사건까지 발생하며 불안감이 고조되고 있다. 이처럼 정교한 딥페이크 기술은 미디어 업계에서 특수효과로 활용되어 콘텐츠 품질 개선에 기여할 수 있지만, 한편으로는 성인물과 가짜 뉴스 제작 등 각종 범죄의 도구로 쓰이고 있다.

딥페이크 콘텐츠가 확산되면서 각종 부작용을 양산하고 있지만, 딥페이크 기술이 부정적인 면만 가지고 있는 기술은 분명 아니다. 딥페이크 기술이 영상 산업에 활용되면서 특수효과, 더빙, 과거 재현 등이 더 쉽고 간편해졌다.[8] 어느 기술이 그렇듯, 딥페이크 기술도 쓰이는 방향과 목적에 따라 명과 암을 가진다. 사실을 조작하고, 무고한 사람을 공격하는 강력한 도구가 될 수 있음은 분명하다. 이를 방지하고 대책을 마련할 수 있는 논의가 필요함은 물론이거니와, 이를 유용하게 활용할 수 있는 방향 또한 놓쳐서는 안 된다. 딥페이크 기술이 우리 사회의 신뢰를 떨어트리는 끔찍한 허점이 되지 않도록 경각심을 가지되, 무궁무진한 발전 가능성도 함께 고려해야 한다.

가능성[편집]

할리우드를 비롯한 영상 제작 업계에서는 딥페이크 기술로 특수효과를 만들어 내고 있다. 특히 과거를 재현하거나 더 이상 실존하지 인물을 그리고자 할 때 유용하게 활용되고 있다. 2016년에 개봉한 영화 <로그원(Rogue One)>에는 1977년 작 <스타워즈: 새로운 희망(Star Wars: A New Hope)>에 출현한 배우가 당시의 모습 그대로 등장했다. 로그원 제작진은 배우와 외형적으로 유사한 대역 배우를 섭외한 후, 모션 캡처 기법과 딥페이크 기술을 활용하여 대역 배우의 얼굴에 과거 배우의 얼굴을 합성하는 방식으로 영화를 촬영했다.[9] 넷플릭스(Netflix)도 딥페이크 기술을 활용해 주연 배우의 현재와 과거 모습을 동시에 재현해 낸 <아이리시맨(The Irishman)>의 출시를 예고했다.

딥페이크 기술은 AR·VR 콘텐츠 제작에도 활용되고 있다. 미국 플로리다에 있는 화가 달리(Dali) 박물관은 미국의 광고사인 굿바이(Goodby), 굿비 실버스타인 & 파트너스(Goodby Silverstein & Partners)와 협업해 몇십 년 전에 작고한 예술가를 되살려냈다. GS&P는 달리의 영상을 수집한 후 머신러닝 기법을 활용해 표정 알고리즘을 분석했다. 이후, 달리와 신체적 특징이 유사한 대역 배우를 섭외해 배우의 얼굴에 달리의 얼굴·표정을 합성하고 달리와 비슷한 성우의 목소리를 입혔다. 전시회 관람객들은 실물 크기의 키오스크 속에 등장하는 달리와 촬영하고, 대화하는 등 AR 달리의 안내를 받으며 작품을 감상할 수 있다.[10]

폐해[편집]

한편, 유명인의 신체를 무단 도용해 만든 딥페이크 포르노도 확산되고 있다. 딥트레이스(Deeptrace)에 따르면, 온라인에 퍼져 있는 딥페이크 영상은 2018년 12월 기준 7,964개에서 2019년에는 14,678건으로 전년도보다 84% 상승했다. 딥페이크 영상 중에서도 성인물이 전체의 96%를 점유하며 가장 큰 비중을 차지하고 있다. 딥페이크 성인용 콘텐츠를 중점적으로 게시하는 사이트 중에서 규모가 가장 큰 4개 사이트의 총 영상 조회 수는 1억 3,436만 4,438회에 달한다.

딥트레이스가 딥페이크 성인용 콘텐츠 전용 사이트 5개(규모가 가장 큰 사이트 5개이다)의 영상을 분석한 결과, 영상에 등장하는 특정 인물의 성별이 모두 여성이었다. 인물의 국적을 살펴보니 41%가 미국인, 25%가 한국인, 12%가 영국인, 6%가 캐나다인, 3%가 인도인이었으며, 인물의 99%가 연예계 종사자였다. 문제는 해당 영상의 대부분이 대상자의 허락을 받지 않고 불법 도용된 이미지로 파악된다는 것이다. 여성, 그리고 유명인에 대한 피해가 가장 큰 실정이다. 영국의 한 배우를 합성한 성인용 딥페이크 영상물이 257개가 유포되고, 조회수가 580만 회를 넘긴 사례도 있다. 불법 제작된 딥페이크 성인용 콘텐츠 제작 방지 방안을 마련하는 일이 시급하다고 볼 수 있다.

가짜 뉴스도 심각한 딥페이크 악용 사례이다. 유명인사의 얼굴을 합성한 딥페이크 뉴스가 난무함에 따라 정치적·사회적 불안감이 가중되고 있다. 2019년 9월, 이탈리아에서 마테오 렌치(Matteo Renzi) 전 총리가 다른 정치인들을 모욕하는 딥페이크 영상이 한 프로그램에서 방영된 후, SNS를 통해 급속히 확산되었다. 해당 영상은 배우의 몸에 총리의 얼굴을 합성한 조작 영상이었지만, 영상의 내용을 실제처럼 인식한 일부 SNS 이용자가 총리를 향해 거센 비판을 제기하는 해프닝이 일어나기도 했다.[11]

그보다 3개월 전인 2019년 6월에는 메타(Meta) CEO인 마크 저커버그(Mark Zuckerberg)가 등장하는 14초 분량의 영상이 인스타그램에서 화제를 모았다. 영상에서 마크 저커버그는 페이스북 이용자 데이터를 통제할 힘이 본인에게 있다는 과시적 내용의 발언으로 시청자의 뭇매를 맞았다. 이용자 데이터 유출사건으로 신뢰도 하락이라는 위기를 맞닥뜨린 페이스북의 CEO에게는 당치않은 발언이라는 비판이 줄을 이었다. 하지만 해당 영상은 실제가 아닌 조작된 영상이었으며, 영국의 한 디지털 예술가가 AI 프로젝트의 일환으로 제작·게재한 영상이었던 것으로 드러났다.[12]

이처럼 딥페이크 기술 확산으로 진실과 거짓의 구분이 어려워지고 있다. 2019년 6월에는 말레이시아 경제부 장관의 동성애 장면이 담긴 영상이 알려지면서 말레이시아 정계가 둘로 나뉘어 갑론을박을 펼쳤다. 말레이시아는 동성애를 법적으로 금기시하기 때문에 장관을 체포해야 한다는 의견과, 해당 영상은 딥페이크 기술로 조작되었다는 주장이 첨예하게 다투었다. 하지만 국제 전문가의 검토 결과, 해당 영상에서는 딥페이크 기술의 흔적을 발견할 수 없었다.[13]

딥페이크 기술이 스캔들의 진위여부에도 영향을 미치는 등, 사회적 파급력이 높아지는 가운데 딥페이크 기술에 대한 경고의 필요성이 높아지고 있다. 2018년 4월에 온라인 매체인 버즈피드(Buzzfeed)와 조던 필(Jordan Peele) 감독은 딥페이크 기술의 위험성을 경고하기 위한 영상을 공동 제작했다. 해당 영상에는 오바마(Obama) 미국 전 대통령이 등장하여 트럼프(Trump) 전 대통령을 향해 거침없는 비판을 행했다. 오바마 대통령이 실제로 출연한 것처럼 보이는 해당 영상은 사실 교묘히 조작된 딥페이크 영상이었다. 오바마 대통령의 모습을 영상 속에 합성해서 만들어 낸 결과물인 것이다. 제작진은 시청자들이 딥페이크 기술의 사회적, 정치적 파급력에 대해 인식할 만한 계기를 부여하고자 경고성 영상을 제작한 것이다.[14]

페이스북(Facebook)과 아마존(Amazon), 구글(Google) 등 글로벌 플랫폼도 딥페이크 기술의 악용을 저지하고자 나섰다. 페이스북은 2019년 9월에 마이크로소프트(Microsoft), MIT, 옥스퍼드대학, 코넬공과대학 등 전 세계 유수대학의 인공지능 전문가들과 손을 잡고 딥페이크 감지 기술 경연 대회인 DFDC (Deepfake Detection Challenge)를 개최했다. 해당 경연은 딥페이크 동영상 데이터셋을 이용하여 영상 해독 알고리즘을 개발하는 것이다. 페이스북은 연구비·상금 수여 등 명목으로 해당 대회에 1,000만 달러를 투자하겠다고 발표했다.[15] 2019년 10월에는 아마존도 DFDC에 합류했다. 아마존은 영상 해독 알고리즘의 개발을 위해 향후 2년간 개발자들에게 100만 달러에 달하는 아마존 웹 서비스(AWS) 이용권을 제공한다고 발표했다. 구글은 3,000개의 딥페이크 영상을 촬영한 후, 딥페이크 감지 기술 연구에 제공했으며,[16] 트위터(twitter)는 조작된 콘텐츠를 공유하지 못하게 하거나, 조작된 콘텐츠가 허위임을 나타내는 링크를 삽입하는 등 딥페이크 악용 사례를 방지하는 정책을 펼치고 있다.[17]

딥페이크 기술로 제작한 성인용 콘텐츠에 대한 법적 단속도 강화되는 추세이다. 유명인뿐만 아니라 일반인을 대상으로 한 딥페이크 콘텐츠의 불법 제작·유포를 방지하기 위함이다. 미국 버지니아(Virginia) 주에서는 2019년 7월 1일부터 딥페이크 성인용 콘텐츠를 보복성 음란물(리벤지 포르노)의 영역에 포함한다는 내용의 법안이 발효되었다. 딥페이크 기술이 적용된 보복성 음란물을 제작·유포하면 최대 12개월의 징역과 2,500달러의 벌금이 부과된다. 버지니아 주정부는 개인적 원한 때문에 딥페이크 기술의 폐해를 입는 일반인이 발생하지 않도록 엄정히 처벌하겠다는 입장을 고수하고 있다.[18]

각주[편집]

  1. 팀나인 홍민기 소사장, 〈누가 진짜일까? 딥페이크 생성과 탐지〉, 《삼성SDS》, 2022-04-11
  2. 딥 페이크를 아시나요?〉, 《노블레스》, 2021-01-12
  3. (미디어 이슈 & 트렌드) (트랜드리포트) 딥페이크 기술의 빛과 그림자〉, 《한국방송통신전파진흥원》, 2019-12-16
  4. 이서현 기자, 〈"3만 원에 지인능욕 가능"... '아는 사람' 노린 딥페이크 음란물 활개〉, 《한국일보》, 2024-05-23
  5. 오대석 기자 , 〈(플랫폼) 악용되는 AI…"딥페이크, 96%가 음란물"〉, 《매일경제》, 2020-12-23
  6. 김미정 기자, 〈국내 정치·연예계도 '딥페이크' 몸살…퇴출 만만찮네〉, 《지디넷코리아》, 2024-02-22
  7. 이준석 기자, 〈딥페이크 활용 음란물 확산…이번엔 미국 유명 男배우 피해〉, 《노컷뉴스》, 2024-06-20
  8. 딥페이크, 영화-드라마에 ‘약’일까 ‘독’될까〉, 《뉴스카페》, 2023-12-13
  9. 김정은 기자, 〈#37. 인공지능이 대체한 '스타워즈' 다스 베이더의 목소리〉, 《더데일리포스트》, 2022-09-26
  10. 김정희 기자, 〈살바도르 달리, 딥페이크로 부활해 관람객들과 소통〉, 《한국디자인진흥원》, 2019-05-27
  11. 뉴스투데이, 〈(메타버스와 산업·경영의 미래 <7>) 디지털 휴먼의 빛과 그림자(下)〉, 《네이버 포스트》, 2022-02-24
  12. 마크 저커버그의 인스타그램 영상으로 불거진 Deepfake 논란〉, 《비슬라매거진》, 2019-06-19
  13. 하태균 기자, 〈AI 활용한 정교한 ‘가짜 동영상’ 세계를 현혹〉, 《뉴스카페》, 2020-01-28
  14. 허재경 기자, 〈오바마 대통령도 당했던 ‘딥페이크’ 기세등등〉, 《한국일보》, 2022-11-24
  15. 최창현 기자, 〈페이스북 AI, 딥페이크 꼼짝마라!... 100,000개 딥페이크 식별 '데이터 세트' 공개한다〉, 《인공지능신문》, 2020-06-14
  16. 구본권 기자, 〈‘감쪽같은 AI가짜영상’ 개방, 득될까 독될까〉, 《한겨레》, 2019-09-26
  17. 석대건 기자, 〈트위터, 딥페이크 대책 만든다… “의견 수렴 후 초안 보완해 30일 후 공개”〉, 《디지털투데이》, 2019-11-12
  18. 김민선 기자, 〈美 버지니아, 딥페이크 포르노 유포 금지법 발효〉, 《지디넷코리아》, 2019-07-02

참고자료[편집]

같이 보기[편집]


  검수요청.png검수요청.png 이 딥페이크 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.