인공지능(AI)이 발전할수록 전력 인프라의 수요가 기하급수적으로 늘어나는데 비해, 전력 인프라의 발전 속도가 따라가지 못하고 있다.
5일 관련 업계에 따르면 미국 오픈AI의 GPT-5는 전 모델모다 9배 많은 전력을 소비하는 것으로 나타났다. 실제로 GPT-5는 질의 1건당 평균 18.4Wh(와트시)를 소비한다. 전 세대인 GPT-4가 질의 1건당 2.1Wh를 소비하는 것에 비하면 약 9배 높은 수치다. 참고로 GPT-4의 전력 소비량은 질의 1건당 일반 가정용 전구 10개를 1시간 동안 켠 것과 같은 수준으로 이 역시 높은 수치다.
AI 전력 소비가 급격히 늘어난 것은 모델 규모 확장이 주요 원인으로 꼽힌다. AI 성능을 결정짓는 핵심 요소로 언급되는 ‘파라미터’는 그 수가 많을수록 더 복잡한 패턴과 언어 맥락을 학습해 풍부한 표현력을 구현할 수 있다. 성능 향상이 반드시 파라미터 수에만 비례하는 것은 아니지만 파라미터 수가 늘어날수록 학습 과정에서 더 많은 행렬 연산(FLOPs)을 필요로 해 전력 소모량은 증가한다.
GPT-3는 출시 당시 1750억개의 파라미터를 가진 것으로 공개됐다. GPT-4부터는 공개되지는 않았지만 일부 분석에서는 GPT-4는 수 천억개의 단위, GPT-5는 수 조개의 파라미터를 가진 것으로 추정된다. 일각에서는 17조개의 파라미터를 가졌다는 의견이 나오기도 했다.
AI가 발전하며 전력 수요에 비해 공급은 뒤따라가지 못하고 있다. 국제에너지기구(IEA)에 따르면 전 세계 전력 생산량은 과거 평균 연간 2.6% 증가해왔으며, 2024년에는 4%로 가속화됐다. 반면 AI 서버의 전력 소모량은 매년 30%씩, 데이터센터 전체로는 연간 15%씩 급증하고 있다.
AI 선두 국가인 미국은 전력 부족으로 전기 요금이 오르거나 블랙 아웃(정전) 등 부작용도 뒤따르고 있다. 지난달 뉴욕타임스 등 외신들은 AI 붐으로 인한 전기 요금 급등과 중소기업와 가계 부담이 늘고 있다고 보도했다. 아울러 지난 2020년 대비 전기 요금은 지난 2020년 대비 30% 올랐으며 오는 2030년까지 8% 더 인상할 것으로 내다봤다.
뉴욕타임스는 AI 데이터센터로 인해 미국 전체 전기 수요는 오는 2028년까지 최대 12%까지 증가할 수 있다고 지적했다. 보도에 따르면 앤디 제시 아마존(Amazon) 최고경영책임자(CEO)는 “전력 가용성이 데이터센터의 용량을 제한하는 주요 병목 현상”이라고 밝혔다.
산업통상자원부는 국내 데이터센터의 수는 지난 2022년 9월 기준 147개소에서 2029년 784개소로 5배 이상 늘어날 것으로 전망했다. 같은 기간 데이터센터 전력 수요 역시 1.8GW에서 2029년 41.5GW까지 20배 이상 늘어날 전망이다. 이 중 신규 데이터센터 637개소 중 550개소가 수도권에 몰릴 계획이어서 수도권 전력망에 더 큰 부담을 줄 것으로 파악된다. 국회 입법조사처는 지난해 “오는 2029년까지 신규 데이터센터에 필요한 전력량이 4만9397MW(메가와트)로, 이는 1000MW급 원전 53기에 해당하는 규모”라고 분석했다.
이처럼 전력 수급 불균형이 이뤄진다면 전력 비용 증가에 대한 부담은 일반 소비자에게로 전가될 것이란 우려가 나온다. 업계 한 관계자는 “전력 불균형이 지속적으로 이뤄진다면 AI 서비스 비용과 전기 요금 부담 증가으로 돌아올 것”이라며 “전력 인프라 확충 비용과 신규 발전소 건설 비용, 송전망 증설 비용 모두 사회적 부담으로 이어질 수 있다”고 설명했다.