“인공지능(AI) 안전을 규제 영역이 아닌 근본적인 가치 바탕으로 기업들이 이를 추구하도록 해야 합니다”
마이클 셀리토 앤트로픽 글로벌 책임은 8일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 ‘2025 인공지능 안전 서울 포럼’ 라운드테이블에서 이같이 말했다.
그는 “AI 모델은 지능적이고 그 지능을 개발자가 만든다”며 “최종 사용자가 많은 책임이 있지만, 개발자가 예견할 수 있었고 막을 수 있었다면 책임이 있을 것”이라고 말했다. 그는 “AI 안전을 단순히 규제하는 것이 아닌 UN 세계인권선언 같은 근본적인 가치를 추구해야 한다”고 강조했다.
이날 라운드테이블은 ‘AI 모델 개발자의 안전 실천’을 주제로 글로벌 AI 기업과 국내 주요 기업 관계자들이 한자리에 모여 현실적인 협력 방안을 논의했다. 좌장은 송경호 인공지능안전연구소 선임연구원이 맡았고 앤트로픽·네이버클라우드·LG AI연구원 등이 패널로 참여했다.
앤트로픽은 이날 대중 참여형 AI 안전 사례를 소개했다. 마이클 셀리토 책임은 “약 1000명의 미국인을 대상으로 클로드의 안전 지침에 대한 피드백을 받았다”며 “그들은 장애인의 기술 접근성 같은 우리가 생각하지 못한 영역을 제안했다”고 밝혔다. 이어 “흥미로운 점은 대중의 의견을 반영한 결과”라며 “대중 피드백을 바탕으로 모델을 훈련시킨 결과, 모델이 더 도움이 되면서도 더 무해해지는 개선을 얻었다”고 말했다.
라운드테이블의 첫 질문은 안전과 혁신의 균형이었다. 먼저 김유철 LG AI연구원 전략부문장은 “기업은 고객과 시장의 선택을 받아야만 하고 신뢰할 수 없는 AI를 제공하면 신뢰를 잃어버리게 된다”고 설명했다. “품질 경영처럼 AI 안전에 대한 것도 굉장히 중요하다”고 덧붙였다.
이어 마이클 셀리토 책임은 “안전과 상업적 성공은 서로 대립할 필요가 없다”며 “고객들은 책임 있는 방식으로 일하는 기업과 일하기를 원한다”고 말했다. 이어 “앤트로픽은 2년 전에 책임 있는 확장 정책을 시행하면서 미래 시점을 준비하기 위한 투자를 시작했다”고 덧붙였다.
윤상두 네이버클라우드 AI랩 연구소장도 “AI 모델이 개인 정보를 잘 다루고 있는가는 기업 모델의 경쟁력과도 연결된다”며 “안전은 가이드라인에 맞추는 것이 아니라 실제적인 고객 위험에 대응하는 것”이라고 설명했다.
딥페이크 대응 방안도 논의했다. 김유철 부문장은 사회 다층적 책임 구조의 필요성을 강조했다. 그는 “딥페이크를 안 쓰게 하려면 모델 개발사만 규제한다고 되는 게 아니다”라며 “개발자는 실존 인물 딥페이크 생성 시 고지 및 탐지 기술 개발, 배포자는 딥페이크 표시 의무화 및 신속한 제거, 사용자는 사회적 교육을 통한 회복 탄력성 강화 등 세 가지 책임 영역이 필요하다”고 설명했다.
글로벌 협력 방안에 대한 논의도 이어졌다. 마이클 셀리토는 “한국 인공지능안전연구소가 영어와 한국어 프롬프트를 섞어 클로드 모델의 탈옥을 찾아냈다”며 “정부, 업계가 긴밀히 협력하면 모두가 혜택을 받는다”고 설명했다. 이어 “미국 에너지부와 협력해 핵무기 관련 위험 지식 접근을 차단하는 분류기를 개발해 다른 기업들과 공유했다”며 “국제 협력의 핵심은 정보 공유와 협력을 증가시키는 것”이라고 덧붙였다.
윤상두 소장도 “한 조직이 AI 안전을 주도할 수 없다”며 “모든 국가와 문화에는 독립적으로 다른 특수성이 있다”고 설명했다. 이어 “안전 관련 의견과 높은 수준의 연구를 공유하는 것이 중요하다”고 강조했다