방송통신위원회가 생성형 인공지능(AI) 서비스 과정에서 이용자 피해를 방지하기 위한 ‘생성형 인공지능 서비스 이용자 보호 가이드라인’을 28일 발표했다. 이번 가이드라인은 오는 3월 28일부터 시행된다.
생성형 AI는 기존 콘텐츠를 활용해 텍스트, 오디오, 이미지 등 새로운 콘텐츠를 만들어내는 기술로 일상생활에 혁신을 가져오고 있지만 딥페이크 성범죄물, 차별·편향 등의 부작용도 문제로 대두되고 있다. 이에 따라 이용자 보호를 위한 제도적 기반 필요성이 꾸준히 제기돼 왔다.
가이드라인은 생성형 AI 개발사와 서비스 제공자를 대상으로 서비스 전반에 걸쳐 지켜야 할 4가지 기본원칙과 이를 실천하기 위한 6가지 실행 방식을 제시한다.
기본원칙은 인간중심 생성형 AI 서비스, 설명 가능성이 확보된 생성형 AI 서비스, 안전하게 작동하는 생성형 AI 서비스, 공정한 생성형 AI 서비스다.
6가지 실행 방식은 △이용자 인격권 보호를 위한 알고리즘 구축 및 신고 절차 마련 △AI 생성 콘텐츠임을 고지하고 결정 과정을 투명히 공개 △차별·편향 방지를 위한 필터링 기능 도입 △입력데이터 수집 시 사전 동의 절차 마련 △책임 범위 정의 및 위험관리 체계 구축 △부적절한 콘텐츠 생성 방지를 위한 관리 등 이다.
방통위는 사업자들의 이해도를 높이기 위해 실제 서비스에서 적용 중인 이용자 보호 모범 사례도 함께 제공한다. 가이드라인은 방통위 누리집에서 내려받을 수 있다. 방통위는 가이드라인을 시행일 기준 2년마다 타당성 검토를 통해 개선할 계획이다.
가이드라인 마련 과정에서 방통위는 정보통신정책연구원(KISDI)과 AI 전문가로 구성된 연구반을 통해 피해 사례와 국내외 서비스 현황을 분석했다. 또 지난해 9월 ‘인공지능서비스 이용자보호 학술회의’와 주요 사업자 간담회를 통해 이해관계자 의견을 수렴하며 현실성 있는 내용을 담았다.
신영규 방송통신이용자정책국장은 “이번 가이드라인이 사업자들이 이용자 보호 방안을 마련하는 데 기여하고, 이용자 권리 보장과 서비스 신뢰도 향상의 기반이 될 것으로 기대한다”고 밝혔다.