뉴욕주 아몬크 - IBM은 Mixtral-8x7B 대규모 언어 모델(LLM)을 왓슨x AI 및 데이터 플랫폼에 통합하여 인공 지능 제품을 확장했습니다. 미스트랄 AI가 개발하고 IBM이 최적화한 이 모델은 배치 크기에 따라 지연 시간을 35~75%까지 줄이고, 표준 버전에 비해 데이터 처리량을 50%까지 늘릴 수 있는 것으로 알려졌습니다.
이러한 성능 향상은 모델 크기와 메모리 요구 사항을 줄여 처리 속도를 가속화할 수 있는 양자화 프로세스에 기인합니다. 이러한 성능 향상은 이 모델을 활용하는 기업의 비용과 에너지 소비를 낮출 것으로 기대됩니다.
IBM은 자체 개발, 타사 개발, 오픈소스 옵션 등 다양한 AI 모델을 제공하겠다는 의지를 Mixtral-8x7B 통합을 통해 강조하고 있습니다. 유니티의 다중 모델 전략은 고객의 다양한 요구를 충족하고 다양한 비즈니스 기능에 걸쳐 AI 솔루션을 확장할 수 있는 유연성을 제공하는 것을 목표로 합니다.
Mixtral-8x7B는 스파스 모델링과 전문가 혼합 기법을 활용하여 대규모 데이터 세트를 효율적으로 처리하고 분석하여 컨텍스트 관련 인사이트를 제공합니다. 이 모델은 고객이 혁신과 비즈니스 성과 향상을 위해 제너레이티브 AI를 활용할 수 있도록 지원하는 엔터프라이즈 지원 기반 모델을 제공하려는 IBM의 광범위한 이니셔티브의 일환입니다.
IBM 소프트웨어의 제품 관리 및 성장 담당 수석 부사장인 카림 유수프 박사는 고객이 특정 비즈니스 요구 사항에 맞는 AI 모델을 배포하는 데 있어 선택과 유연성의 중요성을 강조했습니다. 왓슨X 플랫폼은 다양한 산업 분야의 AI 개발자 및 비즈니스 리더로 구성된 강력한 생태계를 지원하도록 설계되었습니다.
또한, 이번 주 IBM은 왓슨x에서 ELYZA 코퍼레이션의 일본 LLM 모델인 ELYZA-japanese-Llama-2-7b를 사용할 수 있다고 발표했습니다. 이 플랫폼은 Meta의 오픈 소스 모델과 기타 타사 모델도 호스팅하며, 향후 몇 달 내에 더 많은 모델이 추가될 예정입니다.
이 글의 정보는 보도 자료를 기반으로 합니다.
이 기사는 AI의 지원으로 생성되고 번역되었으며 편집자에 의해 검토되었습니다. 자세한 내용은 우리의 이용 약관을 참조하십시오.