최종편집:2025-11-26 07:49 (수)
실시간
스노우플레이크, 엔비디아와 ML 워크플로우 속도 높인다

스노우플레이크, 엔비디아와 ML 워크플로우 속도 높인다

  • 기자명 서재창 기자
  • 입력 2025.11.19 11:01
  • 수정 2025.11.19 11:02
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다

스노우플레이크 ML에 엔비디아 CUDA-X 사전 탑재
코드 수정 없이 파이썬 기반 ML 라이브러리 성능 향상 가능
AI 데이터 클라우드 경쟁력 강화, LLM 배포까지 확장 전망

스노우플레이크는 자사 ML에 엔비디아의 ‘쿠다-X(’를 사전 탑재한다고 밝혔다. /스노우플레이크 
스노우플레이크는 자사 ML에 엔비디아의 ‘쿠다-X(’를 사전 탑재한다고 밝혔다. /스노우플레이크 

스노우플레이크가 엔비디아와 손잡고 머신러닝(ML) 워크플로우를 GPU 기반으로 가속화하는 환경을 제공한다고 19일 밝혔다.

스노우플레이크 ML에 엔비디아의 오픈소스 라이브러리 ‘CUDA-X’가 사전 탑재되면서, 고객은 GPU 가속 알고리즘을 활용하게 됐다. 이번 통합으로 데이터 사이언티스트는 기존 파이썬 라이브러리 기반 모델을 별도의 코드 수정 없이 빠르게 개발할 수 있다. 엔비디아 벤치마크에 따르면, A10 GPU는 랜덤 포레스트 알고리즘에서 CPU 대비 약 5배, HDBSCAN에서는 최대 200배까지 속도를 높였다. 이는 대규모 데이터셋을 다루는 기업에게 생산성과 비용 효율성을 동시에 확보하는 기회를 제공한다. 

스노우플레이크 ML은 엔비디아의 cuML과 cuDF 라이브러리를 지원해 scikit-learn, pandas, UMAP, HDBSCAN 등 주요 파이썬 생태계와 호환된다. 기업은 수백만 건의 제품 리뷰와 같은 대규모 테이블 데이터를 CPU 기준 수 시간에서 GPU 기반 수 분으로 처리하며, 컴퓨터 유전체학 연구에서도 고차원 시퀀스 분석 속도를 높인다. 

엔비디아 고객은 CUDA-X 데이터 사이언스 생태계에서 스노우플레이크 컨테이너 런타임을 활용할 수 있다. 이는 대규모 ML 개발을 위한 사전 구축 환경으로, 복잡한 연산 작업을 효율적으로 처리하도록 지원한다. 

스노우플레이크와 엔비디아의 협력은 단순한 ML 가속을 넘어 AI 데이터 클라우드의 생성형 AI 역량을 강화하는 데 초점을 맞추고 있다. 스노우플레이크는 전통적인 ML 모델 개발부터 엔터프라이즈급 대규모 언어모델(LLM) 배포까지 GPU 가속 도구를 확대 적용할 계획이다.

크리스티안 클레이너만 스노우플레이크 제품 담당 수석부사장은 “데이터와 AI를 안전하고 효율적으로 활용하는 것이 목표며, 엔비디아와의 통합은 목표에 한 단계 가까워진 과정”이라고 말했다. 팻 리 엔비디아 엔터프라이즈 전략 파트너십 부문 부사장은 “원시 데이터를 인사이트로 전환하는 과정은 생성형 AI의 핵심이며, 이번 통합으로 기업은 기존 파이썬 워크플로우 그대로 GPU 가속을 활용하게 됐다”고 설명했다.

저작권자 © THE AI 무단전재 및 재배포 금지
관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전