Pure Storage breidt enterprise AI uit om aan de groeiende vraag te voldoen met NVIDIA AI

Pure Storage 485-90

Pure Storage brengt nieuwe gevalideerde referentiearchitecturen uit voor generatieve AI use cases, waaronder een nieuwe NVIDIA OVX-ready gevalideerde referentiearchitectuur. Pure Storage en NVIDIA bieden klanten een bewezen framework voor het beheren van de hoge prestaties en compute-vereisten die zij nodig hebben voor succesvolle AI-implementaties. 

Highlights

Voortbouwend op hun samenwerking bieden Pure Storage en NVIDIA de nieuwste technologieën om te voldoen aan de snel groeiende vraag naar AI binnen enterprises. De nieuwe gevalideerde designs en proofs of concept omvatten:

  • Retrieval Augmented Generation (RAG) Pipeline voor AI-inferentie: om de nauwkeurigheid, gangbaarheid en relevantie van inferentiecapaciteiten voor Large Language Models (LLM’s) te verbeteren, heeft Pure Storage een RAG-pipeline gecreëerd die gebruikmaakt van NVIDIA NeMo Retriever microservices en NVIDIA GPU’s en Pure Storage all-flash enterprise storage. Hiermee krijgen bedrijven sneller inzicht in hun interne data voor AI-training, waarbij gegarandeerd wordt dat ze de meest recente data gebruiken en wordt voorkomen dat LLM’s opnieuw getraind moeten worden.
  • Gecertificeerde NVIDIA OVX Server Storage referentiearchitectuur: Pure Storage heeft de OVX Server Storage validatie behaald en biedt klanten en channelpartners flexibele referentiearchitecturen voor storage, die gevalideerd zijn aan de hand van belangrijke benchmarks. Hierdoor biedt Pure Storage een sterk infrastructuurfundament voor AI hardware- en softwareoplossingen die kosten- en prestatiegeoptimaliseerd zijn. Deze validatie biedt AI-klanten extra keuzemogelijkheden en is een aanvulling op Pure Storage’s NVIDIA DGX BasePOD certificatie, die vorig jaar werd aangekondigd. 
  • Vertical RAG-ontwikkeling: om de adoptie van AI in verschillende sectoren te versnellen, creëert Pure Storage sectorspecifieke RAG’s in samenwerking met NVIDIA. Zo is er al een RAG ontwikkeld, voor de financiële sector om enorme datasets samen te vatten en te doorzoeken met een hogere nauwkeurigheid dan standaard LLM’s. Financiële dienstverleners kunnen hiermee sneller inzichten krijgen met behulp van AI die direct samenvattingen en analyses maakt van verschillende financiële documenten en andere bronnen. Aanvullende RAG’s voor de gezondheidszorg en de publieke sector komen eraan. 
  • Uitgebreide investering in AI-partner ecosysteem: Pure Storage investeert samen met NVIDIA in zijn AI-partner ecosysteem en gaat nieuwe samenwerkingsverbanden aan met Independent Software Vendor’s (ISV's) zoals Run.AI en Weights & Biases. Run.AI optimaliseert het GPU-gebruik door middel van geavanceerde orkestratie en scheduling; Met het AI-ontwikkelplatform van Weights & Biases kunnen ML-teams de lifecycle van modelontwikkeling bouwen, evalueren en beheren. Daarnaast werkt Pure Storage nauw samen met AI-gerichte resellers en servicepartners, waaronder ePlus, Insight, WWT en anderen, om gezamenlijke AI-implementaties bij klanten verder te operationaliseren. 

 

Belang voor de industrie

Nu steeds meer bedrijven AI verder omarmen om innovatie te stimuleren, de activiteiten te stroomlijnen en een concurrentievoordeel te behalen, is de vraag naar robuuste, krachtige en efficiënte AI-infrastructuur nog nooit zo groot geweest.

Op dit moment zijn de meeste AI-implementaties verspreid over gefragmenteerde data-omgevingen - van de cloud tot ongeschikte (vaak legacy) storageoplossingen. Deze gefragmenteerde omgevingen kunnen echter niet de prestaties en netwerkvereisten ondersteunen die nodig zijn om AI-datapipelines te voeden met data en het volledige potentieel van bedrijfsdata te benutten. 

Pure Storage is pionier op het gebied van AI-implementaties bij enterprises - met name bij een snel groeiende groep Fortune 500-klanten - en biedt een eenvoudig, betrouwbaar en efficiënt storageplatform waarmee enterprises het potentieel van AI volledig kunnen benutten. Daarbij worden de bijbehorende risico's, kosten en het energieverbruik beperkt.

“Pure Storage herkende de toenemende vraag naar AI al vroeg en levert een efficiënt, betrouwbaar en krachtig platform voor de meest geavanceerde AI-implementaties. Dankzij onze langdurige samenwerking met NVIDIA komen de nieuwste gevalideerde AI-referentiearchitecturen en generative AI proofs of concept naar boven als essentiële componenten voor enterprises, om de complexiteit van AI op te lossen”, zegt Rob Lee, Chief Technology Officer bij Pure Storage. 

“De referentiearchitecturen van NVIDIA’s AI-platform worden versterkt door de eenvoudige, efficiënte en betrouwbare data-infrastructuur van Pure Storage. De infrastructuur levert uitgebreide oplossingen voor bedrijven die de complexiteit van AI, data-analyse en advanced computing ondervinden. De nieuwste gevalideerde referentiearchitecturen en proofs of concept van Pure Storage helpen bij het stimuleren van AI-innovatie en bieden bedrijven de tools die nodig zijn om nieuwe mogelijkheden te benutten en transformatieve resultaten te behalen”, zegt Bob Pette, VP & GM, Enterprise Platforms bij NVIDIA. 

“Pure Storage’s NVIDIA-gevalideerde referentiearchitecturen en proofs of concept bieden enterprises in verschillende sectoren een snelle manier voor AI-succes. In plaats van kostbare tijd en middelen te investeren in het vanaf nul opbouwen van een AI-architectuur, beperken de beproefde frameworks van Pure Storage niet alleen het risico op vertragingen, maar garanderen ze ook een hoge return on investment voor de uitgaven van AI-teams, zoals voor GPU's”, zegt Mike Leone, Principal Analyst bij ESG.

Meer informatie:

Meer over
Lees ook
Vultr verbetert wereldwijde AI-cloud-inferentie met AMD Instinct MI300X

Vultr verbetert wereldwijde AI-cloud-inferentie met AMD Instinct MI300X

Vultr, 's werelds grootste private cloud computing platform, kondigt aan dat de nieuwe AMD Instinct MI300X accelerator en ROCm open software beschikbaar worden binnen de composable cloud-oplossing van Vultr.

NetApp versnelt kritische block storage-workloads met nieuwe krachtige systemen

NetApp versnelt kritische block storage-workloads met nieuwe krachtige systemen

NetApp kondigt de release aan van de nieuwe All-flash NetApp ASA A-Series storagesystemen. Deze systemen zijn geoptimaliseerd voor block storage en maken de modernisering van storage voor elke organisatie mogelijk. Met de introductie van deze nieuwe systemen en de voortdurende verbeteringen aan de intelligente data-infrastructuur van NetApp, kunne1

ServiceNow lanceert met Now Platform Xanadu release meest uitgebreide set AI-innovaties

ServiceNow lanceert met Now Platform Xanadu release meest uitgebreide set AI-innovaties

ServiceNow, het AI-platform voor bedrijfstransformatie, kondigt de tot de nu toe meest uitgebreide set nieuwe AI-innovaties aan met de Now Platform Xanadu release. De Xanadu release bevat honderden nieuwe AI-functionaliteiten, uitgebreide partnerships, innovatieve sectoroplossingen en ServiceNow AI agents