최종편집:2025-11-26 07:49 (수)
실시간
韓 AI 안전연구소 올해 설립, ‘믿고 쓰는 한국 AI’ 브랜드 만든다

韓 AI 안전연구소 올해 설립, ‘믿고 쓰는 한국 AI’ 브랜드 만든다

  • 기자명 김동원 기자
  • 입력 2024.08.02 17:49
  • 수정 2024.08.04 00:06
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다

올해 설립 예정인 AI 안전연구소, 비공개 회의 시작
韓 AI 믿고 쓸 수 있다는 브랜드 기대, 규제로 번질까 우려도

이종호 과학기술통신부 장관이 ‘AI 서울 정상회의’ 폐막 후 열린 미디어 브리핑에서 ‘AI 안전연구소’ 설립 계획을 발표하고 있다. /THE AI
이종호 과학기술통신부 장관이 ‘AI 서울 정상회의’ 폐막 후 열린 미디어 브리핑에서 ‘AI 안전연구소’ 설립 계획을 발표하고 있다. /THE AI

정부가 인공지능(AI) 안전연구소를 준비하고 있다. 올해 안 출범이 목표다.

AI 안전연구소 설립은 지난 5월 열린 ‘AI 서울 정상회의’에서 발표됐다. 이종호 과학기술정보통신부 장관은 정상회의 폐막 후 미셸 도넬런(Michelle Donelan) 영국 과학혁신기술부 장관과 함께한 미디어 브리핑에서 “AI 안전연구소를 한국전자통신연구원(ETRI)내에 빠르게 구축하려고 한다”고 밝혔다. 이어 “최소 인력으로 먼저 설립하고 범위와 규모를 점차 확대해 과기정통부나 ETRI 산하 기구로 지정, AI 안전 문제에 대해 신속하고 체계적으로 대응하도록 할 예정”이라고 했다.

AI 안전연구소는 AI를 사용하는 데 있어 사용자와 단체, 국가를 안전하게 보호하기 위해 마련되는 연구소다. 이름이 연구소인 만큼, 규제보단 AI를 안전하게 이용하게 하는 방안을 연구한다. AI 안전을 위한 기술을 확대할 방안을 연구하거나 가이드라인을 만든다. 현재 영국, 미국, 캐나다, 일본 등에서 해당 연구소를 운영 중이다.

◇ ‘한국 AI는 안전하다’ 브랜드의 시작

정부는 AI 서울 정상회의 이후 AI 안전연구소 설립을 위한 준비를 진행해왔다. AI 관계자들과 회의를 통해 안전연구소를 꾸려가고 있다. 실제로 지난달 17일 오전에도 광화문에서 AI 기업들과 비공개로 관련 회의를 진행했다. 회의에 참여한 한 AI 기업 대표는 “현재 추진되는 느낌은 AI 안전에 있어 한국의 브랜드를 강화하려고 하는 느낌이 강하다”면서 “한국 AI는 안전하다는 이미지를 만들기 위한 움직임이 일고 있다”고 말했다.

AI 관계자들은 ‘한국에서 만든 AI는 안전하다’라는 브랜드 제작에 찬성하는 분위기다. 추후 제품 수출과 경쟁력 제고에 유리한 포지션을 가져갈 수 있어서다.

박지환 씽크포비엘 대표는 “가까운 미래 한국이 가져가야 할 AI 산업 브랜드는 신뢰성”이라면서 “과거에 일본에서 만든 제품은 튼튼하고 고장도 잘 나지 않는다는 인식이 있던 것처럼, 한국이 AI 신뢰성 확보에 노력한다면 한국에서 만든 AI는 믿고 사용할 수 있다는 인식을 만들 수 있다”고 말했다. 또 “한국에는 AI 신뢰성 전문가가 많고, 기술이 좋고, 기업들이 이 분야에 함께 노력한다고 알려지면 신뢰성이 국가 브랜드가 될 수 있을 것”이라고 조언했다.

박규병 튜닙 대표도 “한국 AI는 안전하다는 브랜드는 AI 안전성을 위한 기술이 발전해있다는 의미를 내포하고 있다”면서 “AI 안전과 윤리 측면에서 기회 시장을 만들어낼 수 있을 것”이라고 말했다.

하지만 해당 브랜드 구축도 쉽지 않다는 의견이 많다. 이미 AI 안전 분야도 글로벌 경쟁이 치열해지고 있어서다. 영국 과학혁신기술부(DSIT)는 AI 안전을 확보하기 위해 전문가 영입에 2억 원에 가까운 연봉을 제시했다. 최근 AI안전연구소(AISI) 수석 프롬프트 엔지니어 채용공고의 연봉은 수당 포함 최대 13만5000파운드(약 2억 4000만 원)에 해당하는 수치다. 프롬프트 엔지니어의 주요 업무는 AI 시스템 위험성 평가를 위한 프롬프트 설계다. 사용자가 프롬프트를 악용하는 ‘프롬프트 인젝션’ 행위를 방지하고 AI 안전성을 높일 방안도 대학, 연구소, 기업과 연구한다.

영국 정부가 수석 프롬프트 엔지니어 채용에 높은 연봉을 제시한 건 그만큼 AI 안전성을 중시한다는 것을 뜻한다. 미국도 AI 안전연구소 컨소시엄에 마이크로소프트, 오픈AI, 구글, 메타, 애플, 엔비디아, 인텔 등 빅테크 기업들이 참여하고 있다. 그만큼 기술력에서 앞설 가능성이 크다.

◇ AI 안전 글로벌 경쟁 시작, 규제로 번져선 안 돼

AI 안전성이 결국 규제로 갈 수 있다는 염려도 있다. AI 안전연구소를 비롯해 정부에서는 AI 윤리, 안전, 법 마련에 노력하고 있다. 여기서 성과를 내기 위한 빠른 방안은 규제다. 이 때문에 정부가 규제 카드를 만지작거릴 가능성이 크다는 염려도 나온다. 국내 AI 기업 대표는 “AI 안전연구소 회의에 참여했을 때 규제가 마련될 가능성이 크다는 생각이 들었다”면서 “해외 AI 안전연구소는 규제보다 기술로 안전을 논하는 만큼 우리도 안전한 기술을 발전시키는 것이 중요하다”고 조언했다. 또 “바이러스를 방지하기 위해 백신이 발전했고, 교통사고를 줄이기 위해 안전벨트부터 첨단운전자보조시스템(ADAS)이 개발됐듯, AI 안전성을 위한 기술이 마련돼야 한다”면서 “해당 기술들은 초기에 확보가 어려운 만큼 정부 지원이 필요하다”고 했다.

남철기 과기정통부 AI정책과장은 지난달 31일 국회 의원회관에서 열린 ‘AI기본법 제정 및 전망 방향 세미나’에서 “각국의 AI 안전연구소 사례를 조사한 결과 규제 기관이 아닌 안전을 기술적으로 지원하는 곳이었다”면서 “AI 위험을 정의하고 테스트하고 프레임워크를 만들고 평가하고 있다”고 말했다. 이어 “이들의 사례를 고려해 AI 안전연구소를 둘 계획”이라고 했다.

긍정적인 부분은 이미 AI 안전성 관련 연구가 국내 기업 사이에서 확산하고 있다는 점이다. LG AI연구원과 네이버 등 국내 대표 AI 기업들은 자체적으로 윤리 활동을 진행하고 있고, 씽크포비엘, 튜닙 등의 기업들도 AI 안전을 위한 기술을 내놨다. 

국내에는 AI 기술과 안전성을 모두 심사해 시상하는 Good AI Awards 등 AI 안전성을 확보하기 위한 여러 이벤트가 존재한다. /THE AI
국내에는 AI 기술과 안전성을 모두 심사해 시상하는 Good AI Awards 등 AI 안전성을 확보하기 위한 여러 이벤트가 존재한다. /THE AI

또 국내에는 AI 기술과 안전성을 모두 평가해 기업을 시상하는 ‘Good AI Awards’와 같은 프로그램도 발전해있다. 이 시상식에는 LG AI연구원, 아마존웹서비스(AWS), 세일즈포스, KB국민은행, 포티투마루, 씽크포비엘, 제네시스랩 등의 기업이 AI 기술과 안전성에 관한 노력을 인정받아 수상했다. 올해 시상식은 오는 10월 23일부터 사흘간 일산 킨텍스에서 열리는 AI 전시회 ‘TAS 2024(THE AI SHOW 2024)’와 함께 열린다. 해당 행사를 주최하는 황민수 THE AI 대표는 “이미 민간에서는 AI 안전성과 윤리의 중요성을 체감해 이를 위한 안전장치 등을 상당히 마련해 놓은 상태”라며 “정부에서 이들을 독려해 안전에 관한 브랜드를 높여야 한다”고 조언했다. 이어 “AI 안전연구소가 AI 안전을 위한 기술 개발을 지원하는 전초기지가 되길 바란다”면서 “언론에서도 AI 안전의 중요성을 알리기 위해 노력하겠다”고 밝혔다.

저작권자 © THE AI 무단전재 및 재배포 금지
관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전