최근 투자 테마에 대한 보고서에서 Barclays의 애널리스트들은 인공 지능(AI) 기술의 성장으로 인해 예상되는 에너지 소비 증가에 대해 논의했으며, 특히 NVIDIA(NVDA)의 역할에 대해 강조했습니다.
바클레이즈의 애널리스트들은 AI의 발전과 관련된 에너지 요구사항이 NVIDIA의 향후 시장 실적에서 중요한 부분을 차지할 것으로 예측했습니다.
바클레이스의 분석에 따르면 2030년까지 데이터센터가 현재 미국 전력 수요의 9% 이상을 사용할 것으로 예상되는데, 이는 주로 AI에 필요한 에너지 때문이라고 합니다. 분석가들은 NVIDIA의 시장 예상치에 포함된 AI 관련 에너지 소비가 이러한 예측의 주요 원인이라고 말합니다.
이 보고서는 또한 새로운 세대의 그래픽 처리 장치(GPU)가 나올 때마다 효율성이 향상되고 있지만, AI 모델의 크기와 복잡성은 빠르게 증가하고 있다고 언급합니다. 예를 들어, 중요한 대규모 언어 모델(LLM)의 크기는 매년 약 3.5배씩 증가하고 있습니다.
이러한 효율성의 발전에도 불구하고 AI 애플리케이션이 더욱 널리 보급됨에 따라 총 에너지 소비량은 증가할 것으로 예상됩니다. NVIDIA의 Hopper 및 Blackwell과 같은 새로운 GPU 시리즈는 각각 에너지를 더 효율적으로 사용합니다. 하지만 더 정교하고 규모가 큰 AI 모델일수록 여전히 많은 연산 능력이 필요합니다.
"대규모 언어 모델(LLM)은 실시간으로 수행하려면 엄청난 양의 연산 능력이 필요합니다."라고 보고서는 말합니다. "또한 이러한 모델을 개발, 학습 및 적용하기 위해 추가 메모리, 가속기 및 서버가 필요하기 때문에 LLM의 계산 요구 사항은 에너지 사용량 증가로 이어집니다."
"실시간 분석에 LLM을 사용하려는 기업은 이러한 문제를 반드시 해결해야 합니다."라고 바클레이즈는 언급했습니다.
이러한 에너지 소비의 규모를 파악하기 위해 Barclays는 약 800만 개의 GPU에 약 14.5기가와트의 전력이 필요하며, 이는 약 110테라와트시(TWh)의 에너지에 해당한다고 추정합니다. 이 추정치는 평균 사용률 85%를 기준으로 한 것입니다.
2027년 말까지 이러한 GPU의 70%가 미국에 설치될 것으로 예상되는 가운데, 이는 향후 3년 내에 미국에서 10기가와트 이상, 75TWh의 AI 관련 전력 및 에너지가 필요하다는 것을 의미합니다.
애널리스트들은 "엔비디아의 시가총액을 보면 이는 AI 관련 에너지 수요의 시작에 불과하다는 것을 알 수 있습니다."라고 말했습니다. 엔비디아의 지속적인 GPU 개발과 설치는 데이터센터의 에너지 사용량을 크게 증가시킬 것으로 예상됩니다.
또한 데이터센터의 전력망 의존도가 높기 때문에 전력 수요를 관리해야 할 필요성이 강조되고 있습니다. 데이터센터는 중단 없이 운영되어야 하므로 일관된 전력 공급이 필요합니다.
이 보고서는 다보스 세계경제포럼에서 OpenAI의 CEO인 샘 알트먼이 "우리가 이전에 생각했던 것보다 훨씬 더 많은 양의 에너지가 필요한 것은 분명하다... 우리는 여전히 이 기술의 에너지 요구량을 과소평가하고 있다고 생각한다"고 한 말을 인용합니다.
이 기사는 AI의 도움을 받아 작성 및 번역되었으며 편집자의 검토를 거쳤습니다. 자세한 내용은 이용약관을 참조하세요.