엔비디아는 아마존닷컴, 알파벳의 구글, 오라클과 협력하여 내년에 개선된 버전을 출시할 계획으로 자사의 대표 인공 지능(AI) 칩인 H200에 대한 개선 사항을 발표했습니다. 이 칩의 업그레이드는 주로 고대역폭 메모리를 늘려 더 많은 양의 데이터를 더 빠르게 처리할 수 있도록 하는 데 중점을 두고 있습니다.
현재 엔비디아의 최상위 H100 칩을 대체할 예정인 H200 칩은 대규모 AI 시스템의 요구 사항을 충족할 수 있도록 설계되었습니다. AI 칩 시장의 선두주자인 엔비디아는 OpenAI의 ChatGPT 서비스를 비롯한 다양한 제너레이티브 AI 서비스를 지원하고 있습니다. 이러한 서비스는 메모리 용량이 향상되고 칩의 처리 요소에 대한 연결 속도가 빨라진 H200의 도입으로 쿼리에 더욱 신속하게 응답할 수 있을 것으로 기대됩니다.
업그레이드된 칩에는 141기가바이트의 고대역폭 메모리가 탑재되어 H100에 탑재된 80기가바이트보다 크게 늘어납니다. 엔비디아는 H200의 메모리 공급업체를 공개하지 않았지만, 마이크론 테크놀로지는 이전에 엔비디아의 공급업체가 되겠다는 의사를 밝힌 바 있습니다. 또한, 엔비디아는 한국의 SK하이닉스에서 메모리를 구매하고 있으며, SK하이닉스는 최근 AI 칩이 매출 회복에 기여하고 있다고 보고했습니다.
H200 칩은 아마존 (NASDAQ:AMZN) 웹 서비스, 구글 클라우드, 마이크로소프트의 애저, 오라클 클라우드 인프라스트럭처 등 다양한 클라우드 서비스 제공업체를 통해 제공될 예정입니다. 전문 AI 클라우드 제공업체인 CoreWeave, Lambda, Vultr도 H200 칩에 대한 액세스를 제공할 예정입니다. 이러한 움직임은 AI 서비스의 성능을 가속화하고 진화하는 AI 기술 환경에 기여할 것으로 기대됩니다.
이 기사는 AI로 생성 및 번역되었으며 편집자가 한 번 더 검토했습니다. 자세한 내용은 이용약관을 참조하세요.