분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
[정보TALK] Deep Fake, 이대로 괜찮은걸까?
안녕하세요! Dacon '분데데분'입니다.
.
.
.
최근 영상시청을 하다 얼라이브 프로그램에서 울랄라세션이 나왔더라구요!
이승철님과 울라라세션 그룹의 듀엣무대와 '임윤택' 리더분과 함께 말이죠.
너무 신기해서 계속 보게 되었는데, 오늘은 이 기술에 대해 공부하고 싶었습니다.
`본 포스팅은 데이콘 서포터즈 '데이크루 1기'활동의 일환입니다`
.
.
.
AI 복원 기술을 활용하여 음성, 페이스 복원, 바디모델을 사용한 Deep Fake 기법을 바탕으로 더욱 생생하게 표출되었습니다.
그럼 Deep Fake 기법은 무엇일까요?
[Deep fake]
Deep Fake는 인공지능(AI)을 사용해서 가짜 사진, 오디오를 만들어 낸 것 입니다.
얼굴 합성과 표정 조작, 언어 합성도 가능합니다.
Deep Fake 기술은 데이터의 패턴을 인식하는 시스템, 인공 신경망에 의존합니다.
Deep Fake 사진이나 비디오를 만들기 위해서 수백 또는 수천 개의 이미지를 인공 신경망에 투입하고
패턴 식별 후 재구성하도록 학습합니다.
Deep Fake를 이해하기 위해서 2가지를 알아야 합니다.
이 중 Deep Fake의 핵심 알고리즘인 GAN에 대해 알아봅시다.
[GAN]
GAN은 생성적 적대 신경망(Generative Adversarial Net)의 약자로,두 신경망 모델의 경쟁을 통해 학습하고 결과물을 만들어냅니다.
두 모델은 ‘생성자(Generator)’와 ‘감별자(Discriminator)’로 불리는데요. 상반된 목적을 갖고 있습니다.
즉, 생성자(Generator)가 가짜 데이터(Fake data)를 생성하고 감별자(Discriminator)가 실제 데이터(Real Data)를 판별하여
고퀄리티의 가짜 데이터를 생성할 수 있습니다.
조금 더 깊이 알고 싶으시다면,
'월드파파'님의 https://dacon.io/forum/405820?dtype=recent 토크를 참조하시면 좋습니다.
.
.
.
[문제점]
Deep Fake 기술은 과거 인물을 복원할 수 있고, 생산성을 높이는데 기여하고 있습니다.
한편, "오히려 위험한 기술!"이라 거론되고 있습니다.
성인 영상물, 음성 및 이미지 딥페이크를 통한 사기 행각 등 악용된 사례들이 빈번히 나오고 있습니다.
심지어 정치 속에도 Deep Fake를 적용하여, 혼란을 준 적이 있었습니다.
.
.
.
[How we do?]
Deep Fake를 찾아내기 위해 삼성 SDS 내 '팀나인'에서 주파수 탐지 기술을 활용해서 거짓 데이터를 찾고 있습니다.
또한 법무부에서 Deep Fake 악용 시 처벌 강화 개정된 법이 나왔습니다.
.
.
.
[마치며]
여러분들은 어떻게 생각하나요?
탐지 시스템과 강화된 처벌이 있으니 Deep Fake를 그래도 사용해야 한다고 생각하시나요?
드라마, 영화 등 예술 교육 및 고객상담 등 대면 서비스에 활용되고 있어 좋지만,
성범죄, 보이스피싱, 허위사실 유포 등 부작용을 생각하면
아직까지 저는 Deep Fake기술이 마냥 좋게 느껴지지 않습니다.
악용 시 더욱 더 강력한 처벌과 적절한 Deep Fake 사례가 나오면서
더 나은 방향으로 Deep Fake가 활용되기를 바라며 이상 글을 마치도록 하겠습니다.
감사합니다.
-reference
https://www.korea.kr/news/reporterView.do?newsId=148873960
데이콘(주) | 대표 김국진 | 699-81-01021
통신판매업 신고번호: 제 2021-서울영등포-1704호
서울특별시 영등포구 은행로 3 익스콘벤처타워 901호
이메일 dacon@dacon.io | 전화번호: 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved