최종편집:2025-11-26 07:49 (수)
실시간
中 딥시크 등장에 발 빠르게 움직인 美 클라우드 업체들

中 딥시크 등장에 발 빠르게 움직인 美 클라우드 업체들

  • 기자명 김동원 기자
  • 입력 2025.01.31 10:00
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다

MS·AWS, 자사 플랫폼에서 개발 도구로 R1 지원
AI 업계 “R1 활용 시 GPT보다 90% 이상 비용 절감 기대”

/일러스트=챗GPT 달리
/일러스트=챗GPT 달리

중국 인공지능(AI) 모델에 발 빠르게 움직인 건 미국 클라우드 업체였다.

중국 AI 스타트업 딥시크가 최근 새로운 AI 모델 ‘딥시크-R1’을 출시하며 파장을 일으키자 마이크로소프트(MS)와 아마존웹서비스(AWS)는 자사 서비스에 R1 모델을 탑재했다. MS는 R1을 자사 클라우드 컴퓨팅 서비스 애저와 개발자 도구 깃허브에 제공한다고 밝혔고, AWS는 여러 파운데이션 모델을 한 곳에서 제공하는 아마존 베드록에 추가했다고 발표했다. 개발자가 저렴한 금액에 활용할 수 있는 딥시크 AI 모델을 자사 서비스에 추가해 경쟁력을 확보하겠단 전략으로 풀이된다.

R1은 최근 딥시크가 오픈모델로 공개한 AI다. 일부 성능 테스트에서 오픈AI가 지난해 9월 출시한 추론 AI 모델 ‘o1’보다 앞섰다고 평가된다. 놀라운 건 개발 비용이었다. 딥시크에 따르면, R1 개발에 투입된 비용은 557만 6000달러(약 78억 8000만원)다. 첨단 AI 칩을 사용하지 않고 게이밍 수준의 엔비디아 그래픽처리장치(GPU) H800을 활용하면서 학습 비용을 낮췄다. 오픈AI가 최신 생성형 AI 서비스에 투자한 비용인 1억 달러(약 1438억 원)의 20분의 1 수준이다. 국내 AI 기업 하이버프의 황용국 대표는 “실제 사용해 본 결과 실시간 데이터 분석은 GPT보다 우수하고 오픈 모델이라 GPT보다 90% 이상 비용이 절감될 것 같다”고 평가했다.

이 같은 비용 절감 효과가 기대되자 미국 클라우드 업체가 서비스 제공에 나섰다. MS는 애저와 깃허브에서 제공되는 AI 모델 목록에 R1을 추가했다. 해당 모델은 카탈로그에서 우선 제공된다. 

MS는 고객들이 R1 모델을 코파일럿+PC에서 로컬로 실행할 수 있도록 지원할 계획도 밝혔다. 사용자 데이터를 보호하기 위함이다. R1을 로컬에서 제공하게 되면 사용자 데이터가 중국 서버에 저장되지 않고 PC 내부에서만 AI를 이용할 수 있다. 그만큼 사용자 데이터를 보호할 수 있다. 앞서 딥시크는 사용자 데이터를 중국 내 서버에 저장한다고 발표해 프라이버시 정책 관련 우려를 낳은 바 있다.

AWS 역시 R1을 개발 도구로 지원한다. 자사 플랫폼인 아마존 베드록에 R1을 추가했다. 아마존 베드록은 하나의 플랫폼에서 여러 파운데이션 모델을 서비스하는 제품이다. 사용자는 베드록에서 제공하는 파운데이션 모델을 쉽게 비교하고 파인튜닝할 수 있다. 여러 파운데이션 모델을 비교하기 위해 비싼 비용과 시간을 소모할 필요가 없다. 아마존 베드록에선 아마존 타이탄, 앤트로픽 클로드 3.0, 코히어 커맨드, 메타 라마, 미스트랄AI, 스태빌리티AI, AI21랩스 등이 제공되고 있다.

AWS는 공식 블로그에서 6710억 개 학습 파라미터 모델로 이뤄진 R1을 더 작은 모델로 압축한 증류 모델 ‘딥시크-R1-Distill-Llama-8B’와 ‘딥시크-R1-Distill-Llama-70B’를 아마존 베드록에 호출해 이용할 수 있다고 발표했다. 두 모델은 기존 R1 모델에서 추출한 내용 토대로 학습하는 지식 증류 방식을 통해 개발됐다. 원본 딥시크-R1 기반으로 메타의 ‘라마’와 알리바바의 ‘큐원’ 아키텍처를 융합한 변형 모델이다. 원본 딥시크-R1 행동과 논리적 추론 패턴을 학습했다. 모델 크기는 작지만, 이용료가 적게 드는 장점이 있다. 지식 증류는 일종의 모방 학습이다. 사전 학습된 대형 모델인 ‘교사 모델’의 학습사항을 더 작은 ‘학생 모델’로 이전하는 것을 목표하는 머신러닝 기술이다.

AWS는 “딥시크-R1 모델 군은 코드 생성부터 일반 추론에 이르기까지 다양한 작업을 수행할 수 있도록 설계됐다”며 “경쟁력 있는 성능과 효율성을 유지하면서 폭넓은 활용이 가능하다”고 밝혔다.

국내 AI 스타트업 대표는 “중국 딥시크가 저렴한 가격에 AI 모델을 내놓자 일부에서는 의심의 목소리와 단점 찾기에 나서고 있는데, 미국 클라우드 업체는 발 빠르게 서비스 제공에 나섰다”며 “이미 딥시크가 AI 주류에 섰다는 것을 방증하는 것”이라고 말했다. 이어 “데이터 침해 등의 논란은 있을 것으로 보이지만 사용자 입장에선 저렴한 가격에 대형언어모델(LLM)을 쓸 수 있게 되면서 선택지가 늘어난 것은 사실”이라면서 “한국 AI 업계도 현재 딥시크를 비난의 눈길로 보는 경향이 많은데 반대로 이를 활용하고 응용하는 방법을 고민하면 경쟁력을 더 키울 수 있을 것”이라고 조언했다.

저작권자 © THE AI 무단전재 및 재배포 금지
관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전