최종편집:2025-11-26 07:49 (수)
실시간
AI 기본법 하위 법령 이달 발표… ‘고영향 AI’ 규정 관건

AI 기본법 하위 법령 이달 발표… ‘고영향 AI’ 규정 관건

  • 기자명 구아현 기자
  • 입력 2025.08.08 15:30
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다

과기정통부 차관 “이달 중 하위 법령 발표” 예고
“추상적인 고영향 AI 기준 풀지 못하면 혼란 초래”
개발자와 이용자 역할에 맞는 규제 체계 마련 중요

 윤혜선 한양대 교수가 8일 여의도 국회의원회관에서는 AI 기본법의 발전 방향을 모색하는 세미나에 참석해 AI 기본법에 대한 문제와 해결방안에 대해 발표하고 있다. /구아현 기자
윤혜선 한양대 교수가 8일 여의도 국회의원회관에서는 AI 기본법의 발전 방향을 모색하는 세미나에 참석해 AI 기본법에 대한 문제와 해결방안에 대해 발표하고 있다. /구아현 기자

‘인공지능(AI) 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’의 하위법령이 이달 마련될 예정이다. AI 기본법의 모호한 규정과 투명성 문제를 어떻게 극복할 지가 관건이 될 것으로 전망된다.

8일 여의도 국회의원회관에서는 AI 기본법의 발전 방향을 모색하는 세미나가 개최됐다. 최민희 국회 과학기술정보방송통신위원장과 최형두·황정아 의원이 주최했다. AI 기본법은 지난해 12월 국회 본회의를 통과해 내년 1월 22일 시행을 앞두고 있다. 이 법은 AI 산업 발전과 신뢰 기반 조성을 목표로 하고 있다.

이날 모인 법 전문가들은 ‘고영향 AI’에 대한 구체적인 기준 부족을 해결해야 할 핵심과제라고 보았다. 고영향 AI는 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템이라고 법령에 정의돼 있다. 하지만 이러한 정의에 해당되는 고영향 AI를 누가 어떻게 판단할 것인가에 대한 의문이 남는다는 의견이 나왔다.

이날 윤혜선 한양대 교수는 이러한 AI 기본법에서의 고영향 AI에 대해 개념 자체가 추상적이어서 어떻게 판별하고 적용할지 기준이 불분명하다고 지적했다. “모호한 규정은 법적 안정성을 저해하며, 실제로 규제를 시행하는 과정에서 발생할 수 있는 혼란을 초래할 수 있다”고 말했다.

또 윤 교수는 규제 대상자 구분이 불분명하다고 지적했다. AI 기본법에서는 '개발사업자'와 '이용사업자'로 구분해 의무를 부과하고 있으나 실제 AI 생태계에서 이들의 역할과 책임을 구체적으로 분류하지 않은 채 일률적으로 의무를 부과하는 것은 문제가 될 수 있다는 것이다. AI는 오픈AI처럼 AI 모델을 개발하는 ‘모델개발자’와 이 API를 이용해 AI 서비스를 위한 맞춤형 AI모델을 만드는 ‘개발사업자’, 이러한 서비스를 최종적으로 이용하는 ‘이용사업자’가 있다. 하지만 우리나라 AI 기본법은 ‘개발사업자’와 ‘이용사업자’만을 구분하고 있다. 이러한 모호성 때문에 누가 어떤 의무를 이행해야 하는지 명확하지 않다는 것이다.

윤 교수는 이를 명확하게 구분하여 개발자와 이용자 역할에 맞는 규제 체계를 마련하는 것이 중요하다고 설명했다. “EU AI법에서는 AI 모델을 개발한 사업자가 이를 이용해 서비스를 개발한 사업자에게 필요한 규제를 준수할 수 있도록 정보 제공을 의무화하고 있다”며 “하지만 AI 법에서는 모델과 시스템에 대한 규제의 연계가 명확하지 않아서, 상류 사업자와 하류 사업자 간의 정보 전달이 원활하지 않다”고 지적했다.

최근 발표한 일본 AI 추진법도 언급됐다. 이 법에서는 일본 정부가 AI 시스템에 대한 연구와 조사를 주도할 수 있는 법적 권한을 부여하고 있다. 윤 교수는 “우리나라에도 정부가 AI 위험성에 대해 미리 조사하고 규제 방향을 설정할 수 있는 법적 권한이 필요하다”며 “일본의 접근법이 AI 규제의 적극적인 거버넌스를 위한 중요한 모델이 될 수 있다”고 강조했다.

AI 기본법이 AI 시스템을 주요 대상으로 한다는 점 역시 문제될 수 있따고 지적했다. AI 시스템은 자율성과 적응성을 바탕으로 예측, 추천, 결정 등 결과물을 추론하는 AI 기반 시스템을 의미한다. 이에 해당하는 주요 유형은 고영향 AI, 고성능 AI, 생성형 AI이다. 윤 교수는 “AI 모델이 아닌 시스템을 대상으로 규제를 하는 것은 우리나라 밖에 없다”며 “AI 모델이 아닌 시스템은 너무 광범위하고 구체적인 기준이 부족하다”고 지적했다.

아울러 윤 교수는 대안으로 고위험성 AI 시스템의 사저 검증, 지속적인 성능과 안전성 모니터링, 개인정보 보호, 사이버 보안, 범용 AI에 대한 특별한 관심을 강조하면서 이러한 분야들이 AI 기본법에서 중요한 규제 항목으로 다뤄져야 한다고 대안을 제시했다.

이날 모인 다른 전문가들도 같은 의견을 보였다. 강정희 법무법인 태평양 변호사는 “사전 고지 의무와 표시 의무가 명확히 구분되지 않아 사업자들이 실질적으로 이행하기 어려울 수 있다”며 “중복 규제에 대한 우려가 있어 기업들에게 과도한 부담을 줄 수 있다”고 말했다. 이승민 성균관대 교수도 “고영향 AI와 생성형 AI에 대한 규정이 중복되는 부분이 있고 시정조치와 관련한 규정도 불명확하다”고 지적했다.

정원준 한국법제연구원 AI법제팀장은 “정부 규제만으로 모든 AI 영역을 포괄하기 어려우므로, 자율 규제와 정부 규제의 균형을 고민할 필요가 있다”며 “예측 가능한 위험과 불가능한 위험을 구분하여 제도를 설계할 필요가 있다”고 말했다.

한편 이날 류제명 과학기술정보통신부 차관은 “이달 중으로 하위 법령이 발표될 것”이라며 “조만간 AI 기본법에 대한 의견 청취를 위한 자리를 마련할 것”이라고 말했다. AI 기본법 시행이 미뤄질 것에 대한 기자의 질문에는 “예정대로 시행될 것”이라고 답했다.

8일 여의도 국회의원회관에서는 AI 기본법의 발전 방향을 모색하는 세미나가 개최됐다.  /구아현 기자
8일 여의도 국회의원회관에서는 AI 기본법의 발전 방향을 모색하는 세미나가 개최됐다.  /구아현 기자

 

저작권자 © THE AI 무단전재 및 재배포 금지
관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전