최종편집:2025-11-26 07:49 (수)
실시간
구글 딥마인드, 통제 불가능 AI 대응 안전 체계 강화

구글 딥마인드, 통제 불가능 AI 대응 안전 체계 강화

  • 기자명 구아현 기자
  • 입력 2025.09.23 11:28
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다
구글 딥마인드가  22일(현지시각) 강화된 프론티어 안전 프레임워크(Frontier Safety Framework) 3.0을 발표했다. /구글 딥마인드 홈페이지 캡처
구글 딥마인드가  22일(현지시각) 강화된 프론티어 안전 프레임워크(Frontier Safety Framework) 3.0을 발표했다. /구글 딥마인드 홈페이지 캡처

구글 딥마인드가 통제 불가능한 인공지능(AI) 델 위험에 대응하기 위해 안전 체계를 강화했다. 

구글 딥마인드은 22일(현지시각) 공식 블로그를 통해 AI 모델의 강화된 프론티어 안전 프레임워크(Frontier Safety Framework) 3.0을 발표했다. 이번 업데이트는 전문가들과 협력을 기반으로 심각한 위험을 식별하고 미리 예방하는 것을 목표로 한다. 

이는 AI 모델에 대한 할루시네이션(환각)뿐만 아니라 생성형 AI가 해롭고 민감한 주제에 대해 우회적으로 질문을 하면 기존의 안전망을 뚫고 차단된 정보를 제공하는 문제 등 AI 모델의 안전성에 대한 선제 대응이다. 

AI 모델 리스크는 더 커지고 다양해졌다. 과거 데이터 편향 문제부터 사실이 아닌 정보를 그럴듯하게 말하는 할루시네이션(환각) 문제, 최신 데이터 부재로 인한 낮은 예측 정확도 문제(모델 드리프트), 교묘한 질문으로 기존 AI 안전망을 뚫고 차단된 정보를 얻는 문제(프롬프트 젤브레이킹), 민감한 데이터 유출 문제 등 다양한 위험이 존재한다.

이번 업데이트 핵심은 AI가 해로운 조작에 대한 특정 기준을 넘어설 경우(Critical Capability Level, CCL) 내부적으로 이를 측정하고 통제하는 것이다. 또 AI 모델이 인간의 통제를 벗어날 가능성을 평가하는 잠재적 시나리오를 다룬다. 출시 전 안전성 사례 검토에도 심층 분석이 포함된다. 

위험 평가 과정도 정교화했다. 초기 경고 평가, 체계적 위험 식별, 모델 역량에 대한 포괄적 분석, 위험 수용 가능성 등 총체적인 평가를 수행하는 방식이다. 

이번 조치는 AI가 고위험 상황에서 사용자의 행동을 변화시킬 수 있는 피해를 막고 모델의 통제 불가능성에 대한 안전장치를 강화한 것이다. 딥마인드 범용 AI가 발전하는 과정에서 위험을 추적하고 선제적으로 대응하기 위해 과학적인 증거 기반 접근방식을 지속하겠다고 밝혔다. 

저작권자 © THE AI 무단전재 및 재배포 금지
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전