모레(MOREH)와 텐스토렌트(Tenstorrent)가 미국 미주리주 세인트루이스에서 열린 ‘슈퍼컴퓨팅 2025(SC25)’ 컨퍼런스에서 공동 개발한 AI 데이터센터 솔루션을 처음 공개했다.
이 협업은 AI 인프라 시장에서 확장성, 유연성, 비용 효율성을 동시에 잡겠다는 양사의 전략적 비전이 구체화된 첫 사례다. 이번에 발표된 솔루션은 모레의 AI 플랫폼 ‘MoAI’와 텐스토렌트의 ‘Galaxy Wormhole’ 서버를 결합한 구조로, 단일 시스템에서 AI 추론과 학습 모두를 지원한다. 기존 GPU 기반 인프라는 학습에 최적화한 반면, 텐스토렌트의 Wormhole 아키텍처는 하나의 서버 내에서도 양쪽 워크로드를 처리할 수 있다는 점이 강점이다.
이 시스템은 네트워크 부하를 기존 GPU 클러스터보다 낮게 유지하면서도 모델 규모를 유연하게 확장하도록 설계돼 있어 대형 언어 모델(LLM)이나 컴퓨터 비전 모델 등 대규모 AI 워크로드를 경제적으로 운영한다.
AI 데이터센터 업계의 가장 큰 고민 중 하나는 비용 상승과 운영 복잡성이다. 모레와 텐스토렌트는 이 문제를 지능형 소프트웨어와 유연한 하드웨어의 통합으로 해결하려고 했다. 특히 벤더에 종속되지 않고 다양한 하드웨어 가속기에 대응 가능한 구조를 택함으로써, 기업이 특정 반도체 업체에 과도하게 의존하지 않고 자체 AI 인프라를 구축하도록 한 것이 차별점이다.
조강원 모레 대표는 “AI 데이터센터가 시급히 요구하는 확장성, 유연성, 효율성을 모두 제공하게 됐다”며, “벤더 종속 없이도 고성능 AI 인프라를 비용 효율적으로 운영하도록 하는 것이 목표”라고 밝혔다.
야스미나 바실예비치 텐스토렌트 수석 연구원은 “공동 설계된 개방형 시스템이 대규모 AI 수요를 충족할 수 있음을 보여준다”며, “AI 인프라의 접근성과 확장성을 높이는 데 함께 노력하고 있다”고 말했다.
모레와 텐스토렌트의 이번 협업은 벤더 종속을 줄이면서도 고성능 AI 워크로드를 유연하게 운영하고자 하는 기업에 매력적인 대안이 될 가능성이 있다. 이 조합이 LLM 기업이나 클라우드 서비스 제공자에게 채택된다면, 글로벌 AI 인프라 경쟁 구도에 변화를 일으킬 잠재력도 엿보인다.