오픈AI가 자사의 이미지 생성기인 달리(DALL·E)를 활용해 제작한 딥페이크를 탐지할 수 있는 도구를 개발했다.
7일(현지시각) 미국 뉴욕타임스(NYT) 보도에 따르면 오픈AI가 허위 정보를 연구하는 새로운 딥페이크 탐지기를 공유한다고 밝혔다. 이에 오픈AI는 "실제 상황에서 도구를 테스트하고 개선할 방법을 정확하게 파악할 수 있도록 도울 예정"이라고 말했다.
산디니 아가왈(Sandhini Agarwal) 오픈AI 정책 연구원은 “이것은 새로운 연구를 시작하기 위한 것이며 정말로 필요하다”고 말했다.
오픈AI에 따르면 자사 이미지 생성기 최신 버전인 (DALL·E3)에서 생성된 이미지의 98.8%를 정확하게 식별할 수 있다. 다만, 아직 미드저니와 스태빌리티 등 다른 생성기에서 생성된 이미지를 감지하는 것은 불가능하다.
뉴욕타임즈는 “이런 종류의 딥페이크 탐지기는 확률에 의해 작동되기 때문에, 결코 완벽할 수 없다”며 “그래서 많은 회사들과 비영리 단체, 그리고 학술 연구소들처럼 오픈AI는 다른 방식들로 그 문제를 싸우기 위해 노력하고 있다”고 전했다.
오픈AI는 구글과 메타처럼 디지털 콘텐츠에 대한 자격 증명을 개발하기 위해 '글로벌 기술 표준(C2PA)’ 운영 위원회에 참가하고 있다.
C2PA란 콘텐츠 출처 및 진위 여부를 확인하기 위한 연합체이자 기술을 말한다. 해당 프로토콜을 채택하면 사진에 출처 데이터가 표시된다.
아울러 오픈AI는 AI가 생성한 딥페이크 음성들에 대해 워터마크를 도입하는 방안도 개발하고 있다고 밝혔다.
뉴욕타임즈는 “AI 산업의 문을 연 오픈AI, 구글, 메타와 등 기업들은 AI가 생성한 콘텐츠를 구별할 수 있도록 설명해야 한다는 압력을 받고 있다”며 “전문가들은 AI 기술이 사용자들에게 오해를 불러일으키거나 악의적으로 이용되는 것을 막기 위해 콘텐츠의 기원과 유통을 추적하는 방법을 요구하고 있다”고 설명했다.
이어 뉴욕타임즈는 “실제로 올해 가장 많은 선거가 열리는 가운데 AI를 이용한 딥페이크 이미지와 음성을 감시할 필요성은 점차 중요해지고 있다”며 “실제로 최근 몇 달 동안 슬로바키아, 대만 및 인도 등 국가에서 치러진 선거에서 이 같은 딥페이크 콘텐츠들이 정치 캠페인과 투표에 영향을 미쳤다”고 전했다.