알리바바 클라우드, 하이브리드 추론 AI ‘큐원3’ 공개

사고 모드와 비사고 모드를 결합한 하이브리드 추론 제공 다국어 능력·에이전트 기능·추론 능력 및 인간친화성 향상

2025-05-16     김동원 기자
알리바바 클라우드가 새로운 오픈소스 LLM 시리즈 ‘큐원3(Qwen3)’를 공개했다. /알리바바 클라우드

알리바바 클라우드가 새로운 오픈소스 대형언어모델(LLM) 시리즈 ‘큐원3(Qwen3)’를 공개했다. 큐원3는 차세대 애플리케이션에 최적화된 유연성과 고성능을 갖춘 모델로, AI 개발 생태계 전반에 강한 영향을 미칠 것으로 전망된다.

큐원3 시리즈는 총 6개의 밀집(dense) 모델과 2개의 전문가 혼합(Mixture-of-Experts, MoE) 모델로 구성돼 있다. 0.6B부터 32B 파라미터에 이르는 밀집 모델과 30B 파라미터 중 3B가 활성화되는 MoE 모델, 그리고 235B 파라미터 중 22B가 활성화되는 대형 MoE 모델이 포함돼 모바일 기기, 스마트 글래스, 자율주행차, 로보틱스 등 다양한 차세대 AI 응용 분야에 폭넓게 활용될 수 있다. 모든 모델은 오픈소스로 제공되며, 전 세계 누구나 자유롭게 접근해 사용할 수 있다.

큐원3는 알리바바 클라우드가 선보이는 최초의 하이브리드 추론 모델로, 사고 모드(thinking mode)와 비사고 모드(non-thinking mode)를 유기적으로 전환하는 구조를 갖췄다. 이를 통해 단순하고 빠른 범용 응답과, 수학·코딩·논리적 추론 등 복잡한 다단계 작업을 동시에 처리할 수 있는 유연성을 확보했다. 개발자는 API를 통해 최대 3만 8000개 토큰에 이르는 사고 지속 시간도 조정 가능해, 성능과 컴퓨팅 자원 간의 최적 균형을 맞출 수 있다. 특히 큐원3-235B-A22B 모델은 고성능을 유지하면서도 도입 비용을 대폭 낮춰, 누구나 고성능 AI를 쉽게 활용할 수 있도록 설계됐다.

큐원3는 모델 아키텍처 개선과 방대한 학습 데이터, 그리고 강화된 학습 기법을 통해 전 세대 모델 대비 성능이 크게 향상됐다. 총 36조 개에 이르는 데이터셋으로 학습된 큐원3는 다국어 작업, 추론, 도구 활용, 지시 수행 등 다양한 영역에서 최고의 성능을 기록했다. 119개 언어 및 방언을 지원하며, 번역 및 다국어 지시 수행에서도 업계 최고 수준을 자랑한다. 또한 모델 컨텍스트 프로토콜(MCP) 및 강력한 함수 호출 기능을 바탕으로 고급 에이전트 작업에서도 오픈소스 모델 중 선도적인 역량을 보여준다.

벤치마크 테스트에서도 큐원3는 우수한 성적을 기록했다. AIME25(수학적 추론), LiveCodeBench(코딩 역량), BFCL(도구 및 함수 호출), Arena-Hard(지시 최적화) 등 주요 평가 항목에서 최고 수준의 결과를 달성했다. 이러한 성능은 연쇄 사고 기반의 초기 학습, 강화 학습, 사고 모드 융합 등을 포함한 4단계 학습 전략을 통해 구현된 것이다.

큐원3는 현재 허깅페이스(Hugging Face), 깃허브(GitHub), 모델스코프(ModelScope)에서 무료로 다운로드할 수 있으며, chat.qwen.ai를 통해 직접 체험도 가능하다. 또한 알리바바의 AI 모델 개발 플랫폼인 모델 스튜디오(Model Studio)를 통해 곧 API 형태로도 이용 가능해질 예정이다. 큐원3는 알리바바의 플래그십 AI 어시스턴트 애플리케이션 ‘쿼크(Quark)’의 핵심 엔진으로도 사용되고 있다.

큐원 모델 시리즈는 전 세계적으로 3억 회 이상 다운로드되었으며, 허깅페이스 상에는 10만 개 이상의 큐원 기반 파생 모델이 등록돼 있다.