글로벌 AI안전연구소 한국에 집합 “AI 안전 상호운용성 필요”

언어·문화 장벽 넘어선 ‘신뢰 구축’이 관건 “서로의 안전 프레임워크 인정하면서 협력해야”

2025-10-28     구아현 기자
김명주 인공지능안전소장이 28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 ‘2025 인공지능 안전 서울 포럼’에서 발표를 하고 있다. /구아현 기자

“상호운용성 확보가 글로벌 협력에서 가장 중요합니다.”

세계 인공지능(AI) 안전연구소 대표들이 28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 ‘2025 인공지능 안전 서울 포럼’에 모여 이같이 강조했다. AI 안전에 대한 국제 협력의 핵심 과제로는 ‘상호운용성’ 확보를 꼽았다. 법규제와 기술 표준이 다르더라도 서로의 프레임워크를 인정하는 체계를 구축하면 실질적인 협력이 가능하다는 것이다.

싱가포르는 현재 통합된 AI 법은 없지만 데이터보호법, 저작권법, 개인정보보호법 등 기존 법을 적용해 AI를 규제하고 있다. 기업들이 스스로 안전 기준을 정하고 테스트 할 수 있도록 ‘AI Verify Foundation’를 운영하고 있다. ‘스타터 키트’ 가이드라인을 통해 모범 사례를 제공한다. 금융과 헬스케어 분야도 정부 기관과 실제 기업들이 참여해 샌드박스를 통해 안전성 평가를 수행하고 안전 기준을 수립 중이다.

바네사 윌프레드 싱가포르 정보통신미디어개발청(IMDA) 부국장은 “지난 1년 반 간 인공지능안전연구소(AISI) 10개국이 모여 공동 테스트를 진행하면서 가장 중요한 것은 공동의 이해를 구축했다는 점”이라며 “다중 언어, 다중 문화를 포용하는 분류 체계를 만들기 위한 논의를 시작했고, 무엇보다 국가 간 신뢰를 구축한 것이 가장 큰 성과”라고 말했다. 이어 “이 모멘텀을 이어가는 것이 중요하다”며 “각국의 법규제가 다르지만 서로의 프레임워크를 상호 인정하는 제도가 마련되면 국가 간 프로세스가 대폭 간소화될 것”이라고 강조했다.

아키코 무라카미 일본 AI안전연구소장이 28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 ‘2025 인공지능 안전 서울 포럼’에서 발표를 하고 있다. /구아현 기자
바네사 윌프레드 싱가포르 정보통신미디어개발청(IMDA) 부국장이 28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 ‘2025 인공지능 안전 서울 포럼’에서 발표를 하고 있다. /구아현 기자

일본 AI안전연구소는 AI 안전만이 아닌 혁신과 안전의 균형을 맞추는 것에 중심을 두고 있다. 13개 정부 부처와 협력해 표준화, 모델 평가, 가이드라인 제공을 수행하고 있다. 현재 기술 활동 지도(Technical Map)도 개발하고 있다. 데이터 품질 관리 가이드북, AI 레드팀 운영 매뉴얼, 비즈니스용 AI 가이드라인 등을 공개했다.

아키코 무라카미 일본 AI안전연구소장은 “AI 기술과 환경이 급변하는 상황에서 정보를 수집하고 대응하는 것이 매우 어렵다”며 “국제 협력 없이는 AI 활용과 안전을 동시에 확보할 수 없다”고 밝혔다. 또 “데이터 품질 관리, 사이버 보안 레드팀 운영 등 다양한 영역에서 국제 협력이 필수”라고 강조했다.

그는 현재 협력 실질적 장벽으로 인력 부족, 언어·문화 장벽, 자원 공유의 어려움을 꼽았다. “전 세계적으로 공통 규제를 만들기는 어렵지만 협업을 통해 각국의 규제를 서로 조화롭게 만든다면 경제적 관점에서 훨씬 큰 효과를 낼 것”이라며 “다양한 국가가 참여하고 각국의 언어와 문화가 존중받아야 진정한 글로벌 협력”이라고 강조했다. 이어 “일본은 2023년 G7 히로시마 정상회의를 계기로 신뢰할 수 있는 AI 확보를 위한 국제 협력을 주도하고 있다”고 설명했다.

한국 인공지능안전연구소는 국내 AI 기본법을 기반으로 운영되고 있다. 현재 AI 리스크 매핑 프로젝트를 통해 원인 분석과 결과 대응을 체계화하고 있다. 3D 데이터를 활용해 리스크의 행위자, 발생 지점, 원인을 분석하고, 피해 대상과 담당 기관을 매핑하는 작업을 진행 중이다. 김 소장은 “MIT AI 리스크 레포지토리의 200개 대표 사례를 매핑하며 잠재적 리스크를 조기에 발견하는 시스템을 구축하고 있다”며 “글로벌 안전 생태계 수준을 높일 것”이라고 말했다.

다만 그는 데이터 공유의 한계를 지적했다. “오픈소스 트렌드와 벤치마크 공유가 확산되고 있지만 현재 전체 데이터셋의 90%가 프라이빗으로 관리되고 있다”며 “실질적으로 10% 정도만 공유되는 상황”이라고 밝혔다. “데이터가 부족한 상황에서 전 세계적인 협력은 필수”라고 말했다.

28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 ‘2025 인공지능 안전 서울 포럼’에서 (왼쪽부터) 세아 국가AI전략위원회 안전신뢰팀장, 라이너 베셀리 주한 유럽연합대표부 디지털·리서치 담당 참사관, 바네사 윌프레드 싱가포르 정보통신미디어개발청(IMDA) 부국장, 아키코 무라카미 일본 AI안전연구소장, 김명주 한국 AI안전연구소장이 토론하고 있다. /구아현 기자

유럽연합(EU) AI 사무국은 회원국 과학 전문가로 구성된 패널을 운영하며 신규 위험을 식별하고, 체계적 위험 평가를 위한 제3자 검증 시스템을 구축하고 있다.

루실라 시올리 EU AI 사무국 국장은 영상을 통해 EU AI 법 진행 상황을 공유했다. EU는 세계 최초로 AI 종합 법규인 AI Act를 시행했다. 실천 강령을 통해 25개 이상 기업의 자발적 서명을 받았다. 그는 “규제가 명확하면 기업들이 기꺼이 따른다는 것을 입증했다”며 “EU는 규제 당국으로서 직접 테스팅을 하지 않고, AI 공급자들이 테스트하고 결과를 보고하도록 하는 방식을 취하고 있다”고 설명했다. 이어 “EU의 AI 전략은 세 가지 우선순위로 구성된다”며 “첨단 AI 모델과 시스템 개발, AI의 광범위한 채택, 그리고 기술이 가져오는 위험 완화”라고 덧붙였다.

라이너 베셀리 주한 EU대표부 디지털·리서치 담당 참사관은 “AI 안전 네트워크가 만들어진 지 1년밖에 안 됐지만, 국제 협력이 놀라운 속도로 진행되고 있다”며 “모델 평가 방법론을 공동으로 개발할 수 있고, 각 안전연구소가 다른 속도로 발전하더라도 함께 방향성을 만들어가고 있다”고 말했다.

이들은 이날 AI 에이전트 안전성 평가도 강조했다. 김명주 소장은 “AI 에이전트 평가 프로토콜 구축이 시급하다”며 “AI 에이전트에 대한 협력을 강화해야 한다”고 말했다. 무라카미 소장도 “AI 에이전트 문제도 해결해야 한다”며 “오용될 수 있는 잠재력이 커지고 있다”고 강조했다. 윌프레드 부국장은 “올해는 에이전트 AI의 해”라며 “인간이 감독할 수 있는 방법이 필요하다”고 했다.

28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 ‘2025 인공지능 안전 서울 포럼’이 열렸다. /구아현 기자