| AI 헷갈리게 해 딥페이크 생성 막는다 | 2026.01.23 |
라바웨이브-카이스트, 딥페이크 선제적 예방 기술 개발
원본 이미지에 육안으론 식별 불가능한 노이즈 삽입... AI 모델 혼란 일으켜 [보안뉴스 한세희 기자] 미세한 노이즈를 이미지에 삽입, 이를 기반으로 한 딥페이크 이미지 생성을 원천 차단하는 기술이 나왔다. 라바웨이브(대표 김준엽)는 KAIST 사이버보안연구센터(센터장 차상길) 와 공동으로 딥페이크 생성을 막는 선제적 방어 솔루션을 개발했다고 23일 밝혔다. ![]() [출처: 라바웨이브] 이미 제작된 딥페이크 콘텐츠를 탐지하는 것이 아니라 애초에 딥페이크 결과물이 생성되지 못하도록 원본 이미지를 보호하는 방식이다. 사람 눈으로는 인지할 수 없는 미세한 노이즈를 원본 이미지에 추가한다. 일반 사용자가 사진을 볼 때는 차이를 느낄 수 없지만, 딥페이크를 생성하는 AI 모델에겐 치명적 혼란 요소로 작용하도록 설계됐다. 미세 노이즈로 보호된 이미지를 생성형 AI가 학습하거나 처리할 때 심각한 오류를 발생시켜 정상적 결과물 대신 심각하게 왜곡되거나 콘텐츠로서 기능을 완전히 상실한 결과물을 생성한다. 다양한 어플리케이션이나 플랫폼, 디바이스에 즉시 적용 가능하다. 스마트폰 카메라 앱이나 이미지를 저장하는 클라우드 서비스, 소셜미디어 등에 이 기술을 적용하면 이미지를 다운로드해도 딥페이크물 제작에 활용할 수 없게 된다. 김준엽 라바웨이브 대표는 “딥페이크 범죄는 세계적 사회 문제로서 기술적 대응 없인 근본적 예방과 문제 해결이 불가능하다”며 “글로벌 플랫폼과 디바이스 제조사와 협력해 더 안전한 디지털 환경을 만드는 데 기여할 것으로 기대한다”고 밝혔다. [한세희 기자(boan@boannews.com)] <저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지> |
|
|
|