Vultr lanceert Cloud Inference om modelimplementatie te vereenvoudigen en AI-applicaties automatisch wereldwijd te schalen

Vultr-600300

Nieuw serverloos Inference-as-a-Service-aanbod beschikbaar bij Vultr op zes continenten en 32 locaties wereldwijd

 

Vultr, 's werelds grootste private cloud computing platform, kondigt de lancering aan van Vultr Cloud Inference. Dit nieuwe serverloze platform revolutioneert de schaalbaarheid en het bereik van AI door wereldwijde inzet van AI-modellen en AI-inferentie mogelijk te maken. Door gebruik te maken van de wereldwijde infrastructuur van Vultr, die zich uitstrekt over zes continenten en 32 locaties, biedt Vultr Cloud Inference klanten naadloze schaalbaarheid, lagere latentie en verbeterde kostenefficiëntie voor hun AI-implementaties.

Het snel veranderende digitale landschap dwingt bedrijven om AI-modellen efficiënt te implementeren en te beheren. Dit vergroot de vraag naar geoptimaliseerde cloudinfrastructuur voor wereldwijde inferenties, terwijl organisaties zich meer richten op inferentiekosten bij het in productie brengen van modellen. Dit brengt uitdagingen met zich mee voor ontwikkelaars, die modellen moeten optimaliseren voor verschillende regio's en tegelijkertijd zorgen voor hoge beschikbaarheid en lage latenties.

Met dat in gedachten heeft Vultr Cloud Inference gecreëerd. Vultr Cloud Inference versnelt de time-to-market van AI-gedreven functies, zoals voorspellende en real-time besluitvorming, terwijl het een aantrekkelijke gebruikerservaring biedt in verschillende regio's. Gebruikers kunnen hun eigen model meebrengen, getraind op elk platform, in de cloud of op locatie, en het kan naadloos geïntegreerd en ingezet worden op de wereldwijde NVIDIA GPU-aangedreven infrastructuur van Vultr. Met speciale compute clusters die beschikbaar zijn op zes continenten, zorgt Vultr Cloud Inference ervoor dat bedrijven kunnen voldoen aan lokale datasoevereiniteit, data residency en privacyregelgeving. Dit door hun AI-toepassingen in te zetten in regio's die in lijn zijn met wettelijke vereisten en bedrijfsdoelstellingen.

"Training biedt de basis voor AI om effectief te zijn, maar het is inferentie dat het potentieel van AI omzet in impact. Nu een toenemend aantal AI-modellen van training naar productie overgaat, explodeert het volume van inferentie workloads. Maar de meerderheid van de AI-infrastructuur is niet geoptimaliseerd om aan de wereldwijde inferentiebehoeften te voldoen", zegt J.J. Kardwell, CEO van Vultr's moederbedrijf Constant. "Met de lancering van Vultr Cloud Inference kunnen AI-innovaties een maximale impact hebben door AI-implementatie te vereenvoudigen en inferentie met lage latentie over de hele wereld te leveren via een platform dat is ontworpen voor schaalbaarheid, efficiëntie en wereldwijd bereik."

Vultr Cloud Inference biedt ongeëvenaarde impact, waaronder:

  • Flexibiliteit in AI-modelintegratie en -migratie: Met Vultr Cloud Inference beschikken gebruikers over een ongecompliceerd, serverloos AI-inferentieplatform waarmee AI-modellen eenvoudig geïntegreerd worden, ongeacht waar ze zijn getraind. Voor modellen ontwikkeld op Vultr Cloud GPU's van NVIDIA, in het eigen datacenter van gebruikers of op een andere cloud, maakt Vultr Cloud Inference probleemloze wereldwijde inferentie mogelijk.
  • Minder complexe AI-infrastructuur: Door gebruik te maken van de serverloze architectuur van Vultr Cloud Inference kunnen bedrijven zich concentreren op innovatie en het creëren van waarde via hun AI-initiatieven in plaats van zich te richten op infrastructuurbeheer. Cloud Inference stroomlijnt het implementatieproces en maakt geavanceerde AI-mogelijkheden toegankelijk voor bedrijven zonder uitgebreide in-house expertise in infrastructuurbeheer, waardoor de time-to-market voor AI-gedreven oplossingen wordt versneld.
  • Automatisch schalen van geoptimaliseerde infrastructuur voor inferentie: Door het realtime matchen van AI-applicatie workloads en voor inferentie geoptimaliseerde GPU's in de cloud kunnen engineeringteams naadloos prestaties leveren en tegelijkertijd zorgen voor het meest efficiënte gebruik van resources. Dit leidt tot aanzienlijke kostenbesparingen en minder impact op het milieu, omdat ze alleen betalen voor wat nodig is en gebruikt wordt.
  • Privé, toegewijde computermiddelen: Met Vultr Cloud Inference hebben bedrijven toegang tot een geïsoleerde omgeving voor gevoelige of veeleisende workloads. Dit biedt verbeterde beveiliging en prestaties voor kritieke applicaties, in lijn met doelen rond databescherming, naleving van regelgeving en het handhaven van hoge prestaties onder piekbelastingen.

"De vraag naar geavanceerde AI-technologieën die AI-workloads wereldwijd van energie kunnen voorzien, neemt snel toe", zegt Matt McGrigg, director of global business development, cloud partners bij NVIDIA. "De introductie van Vultr Cloud Inference stelt bedrijven in staat om AI-modellen die zijn getraind op de NVIDIA GPU-infrastructuur naadloos te integreren en in te zetten, waardoor ze hun AI-toepassingen wereldwijd kunnen schalen."

 

Vervroegde toegang van Vultr Cloud Inference is via registratie hier beschikbaar.

Meer over
Lees ook
White Fields in recordtijd klaar voor groei met SAP S/4HANA Cloud

White Fields in recordtijd klaar voor groei met SAP S/4HANA Cloud

Hoe bereid je je als scale-up voor op een verdubbeling van de productie? Samen met SAP-partner Quinso verving White Fields in drie maanden zijn op Office-applicaties gebaseerde administratie door SAP S/4HANA Cloud Public Edition. Deze stap geeft de champignonproducent beter inzicht in financiële en logistieke processen en legt de basis voor verder1

Cloud Security, groot denken maar klein beginnen (2)!

Cloud Security, groot denken maar klein beginnen (2)!

In de twee voorgaande blogs heb ik je het advies gegeven om te starten met het in gebruik nemen van de beveiligingsfuncties binnen je Microsoft Cloud omgeving. We hebben vastgesteld dat stap voor stap beginnen altijd een stap is in de richting van veiliger en meer compliant werken

Vultr verbetert wereldwijde AI-cloud-inferentie met AMD Instinct MI300X

Vultr verbetert wereldwijde AI-cloud-inferentie met AMD Instinct MI300X

Vultr, 's werelds grootste private cloud computing platform, kondigt aan dat de nieuwe AMD Instinct MI300X accelerator en ROCm open software beschikbaar worden binnen de composable cloud-oplossing van Vultr.