Amazon.com Inc의 클라우드 사업부인 Amazon Web Services(AWS)는 수요일에 인공 지능 스타트업인 Hugging Face와 파트너십을 체결한다고 발표했습니다. 이 협력은 Amazon의 맞춤형 Inferentia2 컴퓨팅 칩을 사용하여 수천 개의 AI 모델 배포를 간소화하는 것을 목표로 합니다.
45억 달러의 가치를 지닌 Hugging Face는 AI 연구자와 개발자가 챗봇 및 기타 AI 소프트웨어를 공유하고 수정할 수 있는 핵심 리소스로 자리 잡았습니다. 아마존 (NASDAQ:AMZN), 구글의 모회사인 알파벳, 엔비디아 (NASDAQ:NVDA) 등 여러 기술 대기업의 지원을 받고 있습니다.
이번 파트너십은 메타 플랫폼의 라마 3와 같은 오픈 소스 AI 모델을 개선한 후 이를 소프트웨어 애플리케이션에 활용하고자 하는 개발자들이 직면하는 공통된 문제를 해결하고자 합니다. 허깅 페이스와 AWS의 통합으로 개발자는 이제 AWS의 Inferentia2 칩에서 이러한 모델을 쉽게 실행할 수 있습니다.
허깅 페이스의 제품 및 성장 책임자인 제프 부디에는 "우리에게 매우 중요한 것은 효율성이며, 가능한 한 많은 사람들이 모델을 실행하고 가장 비용 효율적인 방식으로 실행할 수 있도록 하는 것입니다."라며 효율성의 중요성을 강조했습니다.
AWS는 AI 실행을 위한 비용 효율적인 솔루션을 제공함으로써 더 많은 AI 개발자를 클라우드 서비스로 끌어들이기 위해 노력하고 있습니다. 엔비디아는 AI 모델 트레이닝 분야에서 우위를 점하고 있는 것으로 알려져 있지만, AWS는 자사의 Inferentia2 칩이 특히 트레이닝된 모델을 운영하는 과정인 추론에 능숙하여 장기적으로 더 비용 효율적일 수 있다고 주장합니다.
AWS에서 인공 지능 제품을 담당하는 매트 우드는 이 칩의 장점을 다음과 같이 설명합니다."이러한 모델을 한 달에 한 번 정도만 학습시킬 수 있습니다. 하지만 한 시간에 수만 번씩 추론을 실행할 수도 있습니다. 바로 이 부분에서 Inferentia2가 정말 빛을 발합니다."
이번 조치로 개발자에게 보다 효율적이고 비용 효율적인 방식으로 대규모로 AI 모델을 배포할 수 있는 수단을 제공함으로써 클라우드 컴퓨팅 시장에서 AWS의 입지가 강화될 것으로 기대됩니다.
로이터 통신이 이 기사에 기여했습니다.이 기사는 인공지능의 도움을 받아 번역됐습니다. 자세한 내용은 이용약관을 참조하시기 바랍니다.