Vultr lanceert Cloud Inference om modelimplementatie te vereenvoudigen en AI-applicaties automatisch wereldwijd te schalen

Vultr-600300

Nieuw serverloos Inference-as-a-Service-aanbod beschikbaar bij Vultr op zes continenten en 32 locaties wereldwijd

 

Vultr, 's werelds grootste private cloud computing platform, kondigt de lancering aan van Vultr Cloud Inference. Dit nieuwe serverloze platform revolutioneert de schaalbaarheid en het bereik van AI door wereldwijde inzet van AI-modellen en AI-inferentie mogelijk te maken. Door gebruik te maken van de wereldwijde infrastructuur van Vultr, die zich uitstrekt over zes continenten en 32 locaties, biedt Vultr Cloud Inference klanten naadloze schaalbaarheid, lagere latentie en verbeterde kostenefficiëntie voor hun AI-implementaties.

Het snel veranderende digitale landschap dwingt bedrijven om AI-modellen efficiënt te implementeren en te beheren. Dit vergroot de vraag naar geoptimaliseerde cloudinfrastructuur voor wereldwijde inferenties, terwijl organisaties zich meer richten op inferentiekosten bij het in productie brengen van modellen. Dit brengt uitdagingen met zich mee voor ontwikkelaars, die modellen moeten optimaliseren voor verschillende regio's en tegelijkertijd zorgen voor hoge beschikbaarheid en lage latenties.

Met dat in gedachten heeft Vultr Cloud Inference gecreëerd. Vultr Cloud Inference versnelt de time-to-market van AI-gedreven functies, zoals voorspellende en real-time besluitvorming, terwijl het een aantrekkelijke gebruikerservaring biedt in verschillende regio's. Gebruikers kunnen hun eigen model meebrengen, getraind op elk platform, in de cloud of op locatie, en het kan naadloos geïntegreerd en ingezet worden op de wereldwijde NVIDIA GPU-aangedreven infrastructuur van Vultr. Met speciale compute clusters die beschikbaar zijn op zes continenten, zorgt Vultr Cloud Inference ervoor dat bedrijven kunnen voldoen aan lokale datasoevereiniteit, data residency en privacyregelgeving. Dit door hun AI-toepassingen in te zetten in regio's die in lijn zijn met wettelijke vereisten en bedrijfsdoelstellingen.

"Training biedt de basis voor AI om effectief te zijn, maar het is inferentie dat het potentieel van AI omzet in impact. Nu een toenemend aantal AI-modellen van training naar productie overgaat, explodeert het volume van inferentie workloads. Maar de meerderheid van de AI-infrastructuur is niet geoptimaliseerd om aan de wereldwijde inferentiebehoeften te voldoen", zegt J.J. Kardwell, CEO van Vultr's moederbedrijf Constant. "Met de lancering van Vultr Cloud Inference kunnen AI-innovaties een maximale impact hebben door AI-implementatie te vereenvoudigen en inferentie met lage latentie over de hele wereld te leveren via een platform dat is ontworpen voor schaalbaarheid, efficiëntie en wereldwijd bereik."

Vultr Cloud Inference biedt ongeëvenaarde impact, waaronder:

  • Flexibiliteit in AI-modelintegratie en -migratie: Met Vultr Cloud Inference beschikken gebruikers over een ongecompliceerd, serverloos AI-inferentieplatform waarmee AI-modellen eenvoudig geïntegreerd worden, ongeacht waar ze zijn getraind. Voor modellen ontwikkeld op Vultr Cloud GPU's van NVIDIA, in het eigen datacenter van gebruikers of op een andere cloud, maakt Vultr Cloud Inference probleemloze wereldwijde inferentie mogelijk.
  • Minder complexe AI-infrastructuur: Door gebruik te maken van de serverloze architectuur van Vultr Cloud Inference kunnen bedrijven zich concentreren op innovatie en het creëren van waarde via hun AI-initiatieven in plaats van zich te richten op infrastructuurbeheer. Cloud Inference stroomlijnt het implementatieproces en maakt geavanceerde AI-mogelijkheden toegankelijk voor bedrijven zonder uitgebreide in-house expertise in infrastructuurbeheer, waardoor de time-to-market voor AI-gedreven oplossingen wordt versneld.
  • Automatisch schalen van geoptimaliseerde infrastructuur voor inferentie: Door het realtime matchen van AI-applicatie workloads en voor inferentie geoptimaliseerde GPU's in de cloud kunnen engineeringteams naadloos prestaties leveren en tegelijkertijd zorgen voor het meest efficiënte gebruik van resources. Dit leidt tot aanzienlijke kostenbesparingen en minder impact op het milieu, omdat ze alleen betalen voor wat nodig is en gebruikt wordt.
  • Privé, toegewijde computermiddelen: Met Vultr Cloud Inference hebben bedrijven toegang tot een geïsoleerde omgeving voor gevoelige of veeleisende workloads. Dit biedt verbeterde beveiliging en prestaties voor kritieke applicaties, in lijn met doelen rond databescherming, naleving van regelgeving en het handhaven van hoge prestaties onder piekbelastingen.

"De vraag naar geavanceerde AI-technologieën die AI-workloads wereldwijd van energie kunnen voorzien, neemt snel toe", zegt Matt McGrigg, director of global business development, cloud partners bij NVIDIA. "De introductie van Vultr Cloud Inference stelt bedrijven in staat om AI-modellen die zijn getraind op de NVIDIA GPU-infrastructuur naadloos te integreren en in te zetten, waardoor ze hun AI-toepassingen wereldwijd kunnen schalen."

 

Vervroegde toegang van Vultr Cloud Inference is via registratie hier beschikbaar.

Meer over
Lees ook
Lucid Software breidt global data residency-programma uit naar EMEA

Lucid Software breidt global data residency-programma uit naar EMEA

Lucid Software, leverancier van software voor visuele samenwerking, lanceert vandaag zijn door Amazon Web Services (AWS) gehoste global data residency-programma in EMEA. Deze strategische uitbreiding is een belangrijke mijlpaal in het streven van Lucid om de samenwerking binnen en tussen teams te verbeteren en de beveiliging van de data van zijn k1

NetApp optimaliseert VMware-omgevingen met nieuwe mogelijkheden

NetApp optimaliseert VMware-omgevingen met nieuwe mogelijkheden

NetApp, het bedrijf voor intelligente data-infrastructuur, kondigt nieuwe mogelijkheden aan die VMware Cloud Foundation-implementaties ondersteunen. Klanten kunnen NetApp-oplossingen gebruiken om hun IT-omgeving aan te passen zodat VMware-workloads efficiënt op schaal uit te voeren zijn.

Datasoevereiniteit: uitdagingen en kansen in een verbonden wereld

Datasoevereiniteit: uitdagingen en kansen in een verbonden wereld

In een steeds meer verbonden wereld leidt de enorme stroom data tussen de publieke cloud, edge netwerken en IoT-apparaten tot een toenemende afhankelijkheid van cloud computing-diensten. Deze afhankelijkheid brengt echter aanzienlijke uitdagingen met zich mee op het gebied van datacontrole en -soevereiniteit.