“양자컴퓨터 상용화, 60년은 더 노력해야”

오스카 페인터 AWS 양자 하드웨어 총괄 기조연설 “양자컴퓨터 오류율, 1조 회 연산에도 0% 수준 돼야 실용화” 5~10년 안에 AI가 양자컴퓨터 설계하는 시대 온다

2025-06-24     구아현 기자
24일 서울 서초구 양재 aT센터에서 열린 ‘퀀텀 코리아 2025’ 기조연설에서 아마존 클라우드 서비스(AWS)에서 양자 하드웨어를 총괄하는 오스카 페인터 캘리포니아공대 교수가 “양자 연산에서 발생하는 오류를 1조 번 이상 연산에도 버틸 수 있을 만큼 줄여야 한다”며 양자 오류 정정을 해결해야 상용화할 수 있다고 강조했다. /구아현 기자

양자컴퓨터가 현실 속으로 다가오기엔 아직 넘어야 할 벽이 높다는 진단이다.

24일 미국 아마존 클라우드 서비스(AWS)에서 양자 하드웨어를 총괄하는 오스카 페인터 캘리포니아공대 교수는 서울 서초구 양재 aT센터에서 열린 ‘퀀텀 코리아 2025’ 개막 기조연설에서 “양자 연산에서 발생하는 오류를 1조 번 이상 연산에도 버틸 수 있을 만큼 줄여야 한다”며 “기하급수적인 기술 발전 속도로도 상용화까지 60~70년은 더 걸릴 수 있다”고 말했다.

페인터 교수는 ‘오류 정정과 확장’을 주제로 한 강연에서 양자 컴퓨터가 가진 구조적 한계를 짚었다. “양자 얽힘 상태는 환경 노이즈에 극도로 민감하다”며 “이로 인해 단순한 비트 플립 오류비트 플립(bit flip)뿐 아니라 양자 특유의 위상 플립 오류(phase flip)까지 발생하며 연산 정확도가 떨어진다”고 설명했다.

양자컴퓨터의 기본 단위는 큐비트(qubit)로 기존 컴퓨터의 0과 1 중 하나만 표현할 수 있는 비트(bit)와 달리 큐비트는 양자 중첩 원리에 따라 0과 1을 동시에 표현할 수 있다. 이로 인해 이론적으로는 특정 계산을 기존 컴퓨터보다 훨씬 빠르게 처리할 수 있다. 하지만 큐비트는 매우 불안정해 외부 간섭에 쉽게 오류가 발생하며 이를 보완하기 위한 ‘오류 정정’ 기술이 필수다.

양자컴퓨터 오류 정정 기술은 지난 15년간 눈에 띄는 발전을 거듭해 왔다. 그는 “15년 전만 해도 연구자들은 소수의 큐비트만 정밀하게 제어할 수 있는 수준이었고 오류율은 연산 10번 중 한 번(10%) 정도 발생했다”고 설명했다. 이어 10년간의 집중적 연구로 이 오류율은 2~3년 전 약 1% 수준까지 낮아졌고, 최근에는 0.3% 수준으로 줄이는 데 성공했다.

하지만 그는 “이러한 진전은 놀랍지만 실용적 양자컴퓨터가 요구하는 1조 회 무오류 연산에는 아직도 9자릿수의 정확도 차가 존재한다”고 강조했다. 이어 이 오류 정정 과정에서 수많은 추가 큐비트가 필요하다는 점을 강조했다. “클래식 컴퓨터는 오류 정정을 위해 약 30%의 정보만 추가하면 되지만, 양자컴퓨터는 논리 큐비트 하나를 위해 수천 개의 물리 큐비트가 필요할 수 있다”며 “양자 시스템은 논리 큐비트 1개를 위해 물리 큐비트 1만 개가 필요할 수도 있다”고 말했다. 

24일 서울 서초구 양재 aT센터에서 열린 ‘퀀텀 코리아 2025’ 기조연설에 나선 오스카 페인터 AWS 양자 하드웨어 총괄 겸 캘리포니아공대 교수가 AWS에서 개발한 ‘캣 큐비트’ 방식으로 양자 오류를 효과적으로 낮추는 방법에 대해 설명하고 있다. /구아현 기자

그는 이날 AWS가 연구 중인 ‘캣 큐비트(cat qubit)’ 방식이 오류율을 개선할 획기적인 방법이 될 수 있다고 소개했다. 고전적인 ‘트랜스몬(transmon)’ 큐비트가 무작위적인 노이즈에 민감한 반면, 캣 큐비트는 진동자의 상태를 양자 중첩으로 안정화시킨 구조다. 흔히 슈뢰딩거의 고양이로 알려진 개념처럼 진동의 양 극단 상태를 동시에 유지하면서 비트 플립 오류를 지수적으로 억제한다. 이처럼 노이즈 편향을 활용한 큐비트는 고전적인 방식보다 훨씬 낮은 오류율과 단순한 오류 정정 구조를 가능하게 한다.

페인터 교수는 “노이즈 편향 비율 1:5000 수준의 캣 큐비트를 사용해 기존 큐비트 대비 5~10배의 오버헤드(오류 정정을 위해 필요한 추가 큐비트 수) 감소를 실현한다”며 “수백만 개의 큐비트 확장이 필요로 하는 양자컴퓨터에서 실질적인 자원 절감을 의미한다”고 밝혔다.

그는 향후 양자 시스템 설계를 위한 3가지 핵심 혁신 분야를 강조했다. △원자 수준의 정밀성과 결함 없는 초전도 재료 개발 △신호 간섭을 최소화하는 3D 칩 스태킹 기술 △고전 컴퓨터와 양자 프로세서를 결합하는 제어 통합 분야다. 이 세 가지는 단순한 성능 향상을 넘어 오류 정정이 가능한 대규모 양자 아키텍처 구현을 위한 기반 기술로 꼽힌다.

또 그는 양자컴퓨터 미래에 대해 “양자컴퓨터는 이제 오류 정정의 이론을 넘어 실제 구현 단계에 진입했으며 이를 중심으로 한 기술 진보가 본격화되고 있다”며 “캣 큐비트를 포함한 새로운 하드웨어 아키텍처의 도입이 성능 개선을 가능하게 할 것”이라고 말했다.

그는 앞으로 5~10년 안에 뇌처럼 스스로 학습하고 진화하는 양자컴퓨터가 등장할 수 있다고 전망했다. “양자컴퓨터가 기존 컴퓨터로는 만들 수 없는 데이터를 만들어내고, 그 데이터를 AI가 학습해 더 나은 양자 알고리즘과 하드웨어를 설계하게 될 것”이라며 “양자와 AI가 서로를 설계하는 순환적 진화 구조가 가능하다”고 설명했다.