Cloudflare samenwerking met Databricks, Hugging Face en Meta

developer-week-hero-illustration_4x__1_

Cloudflare heeft deze week bekendgemaakt dat ze het serverloze ontwikkelaarsplatform gaan uitbreiden met functionaliteit om het ontwikkelen en toepassen van zakelijke AI-applicaties verder te vereenvoudigen. Daarvoor gaat deze wereldwijde aanbieder van cloudconnectiviteit nauwer samenwerken met Databricks, Hugging Face en Meta.

Databricks
Databricks en Cloudflare werken al samen om de AI-levenscyclus te vereenvoudigen door het delen van data eenvoudiger en betaalbaarder te maken via Delta Sharing met R2-storage. Cloudflare's R2-storage is een zero egress, gedistribueerd object storage-aanbod, dat datateams in staat stelt om live datasets en AI-modellen te delen met Databricks, gemakkelijk en efficiënt, zonder de noodzaak voor complexe data transfers of duplicaties van datasets, en met nul egresskosten.

Beide bedrijven breiden hun samenwerking uit om MLflow-mogelijkheden naar ontwikkelaars te brengen die bouwen op Cloudflare's serverloze ontwikkelaarsplatform. Cloudflare sluit zich aan bij het open source MLflow-project als actieve deelnemer om de kloof te overbruggen tussen het trainen van modellen en het eenvoudig toepassen ervan op Cloudflare's wereldwijde netwerk. Daarop kunnen AI-modellen dicht bij eindgebruikers draaien voor een ‘low-latency’ ervaring.

In de nieuwe samenwerkingsfase op het gebied van MLflow, zorgen Cloudflare en Databricks voor een snelle en eenvoudige implementatie van AI-modellen naar Edge. MLflow is een open-source platform voor het beheer van de levenscyclus van machine learning (ML), gemaakt door Databricks. Het is een platform geworden voor end-to-end MLOps, waarmee teams van elke omvang elk model kunnen volgen, delen, verpakken en inzetten voor batch of real-time inferentie. Dankzij deze nieuwe samenwerking kunnen ontwikkelaars modellen trainen met behulp van het datacentrische AI-platform van Databricks en deze vervolgens toepassen op het ontwikkelaarsplatform en wereldwijde netwerk van Cloudflare, waar hyperlokale inferentie aan de rand wordt ingezet om de AI-levenscyclus te voltooien.

Hugging Face
Cloudflare gaat met Hugging Face samenwerken om het gebruik van de beste open AI-modellen toegankelijker en betaalbaarder te maken voor ontwikkelaars. Cloudflare wordt de eerste serverloze GPU voorkeurspartner voor het gebruik van Hugging Face-modellen. Daardoor kunnen ontwikkelaars snel en eenvoudig wereldwijd AI inzetten, zonder dat zij zich zorgen hoeven te maken over het beheer van de infrastructuur en zonder te betalen voor ongebruikte rekencapaciteit. Hugging Face gaat ook geoptimaliseerde generatieve AI-modellen aanbieden voor Cloudflare's nieuwe AI-inferentieplatform.

Generatieve AI zorgt voor een verschuiving in de wijze waarop bedrijven werken en de toepassingen die mogelijk zijn. Tot nu toe hadden bedrijven die hun producten wilden uitbreiden of bouwen met AI maar twee opties: vertrouwen op propriëtaire black box-modellen die alleen beschikbaar waren via betaalde API's, of experts worden in het toepassen, beheren en schalen van open AI-modellen op een speciale infrastructuur. Hugging Face’ modelhub gecombineerd met Cloudflare’s gedistribueerde edge-netwerk maakt het eenvoudiger dan ooit om op een betaalbare wijze schaalbare AI-toepassingen te bouwen.  

Meta
Cloudflare gaat met Meta samenwerken om het Llama 2 open source large language model (LLM) wereldwijd beschikbaar te maken voor ontwikkelaars die AI-toepassingen willen bouwen op het serverloze Cloudflare Workers platform. Daarmee kunnen de beide partners lokale inferenties voor iedereen aanbieden, waarbij de privacy voorop staat.

Tot voor kort was de enige manier om toegang te krijgen tot een LLM het gebruiken van proprietary modellen. Het opleiden van LLM's is een serieuze investering, in tijd, computers en kapitaal en dus niet zomaar toegankelijk voor veel ontwikkelaars. Meta's openbaar beschikbare Llama 2 heeft al een grote verschuiving teweeggebracht, waardoor ontwikkelaars ook eigen LLM's kunnen uitvoeren en toepassen. Dit vereist echter nog steeds toegang tot en beheer van de infrastructuur om de LLM uit te voeren.

Vanaf nu hebben ruim een miljoen ontwikkelaars die al Cloudflare’s platform gebruiken toegang tot een toonaangevende LLM om applicaties te verrijken. Het gedistribueerde edge-netwerk gaat ontwikkelaars overal in staat stellen om toepassingen met Llama 2 te bouwen. In combinatie mer Cloudflare's Data Localization Suite kunnen ze dit doen terwijl ze controleren waar hun data wordt verwerkt. Cloudflare's privacy-first benadering van applicatieontwikkeling kan bedrijven helpen het vertrouwen van klanten te behouden door ervoor te zorgen dat data die wordt gebruikt voor inferentie niet wordt ingezet voor het trainen of verbeteren van de LLM.
Meer over
Lees ook
Nieuwe AI-functies en strategische partnerships van SAP veranderen manier van werken

Nieuwe AI-functies en strategische partnerships van SAP veranderen manier van werken

SAP heeft weer volgende stappen gezet in zijn strategie om intelligente ondernemingen te creëren met behulp van AI. Op het jaarlijkse SAP Sapphire-evenement is bekendgemaakt dat het concern AI-functionaliteiten integreert in zijn cloudportfolio, dat is gericht op belangrijke bedrijfsprocessen.

CrowdStrike en Cloudflare breiden samenwerking uit voor netwerkbeveiliging en een AI-native SOC

CrowdStrike en Cloudflare breiden samenwerking uit voor netwerkbeveiliging en een AI-native SOC

CrowdStrike en Cloudflare hebben een uitbreiding van hun strategisch partnerschap aangekondigd. Beide bedrijven verbinden hun platforms om de beveiliging van apparaten en netwerken te verbeteren, de transformatie van het Security Operations Center (SOC) te versnellen en inbraakpogingen te stoppen.

Nutanix en EnterpriseDB werken samen aan integratie tussen EDB en Nutanix Database Service

Nutanix en EnterpriseDB werken samen aan integratie tussen EDB en Nutanix Database Service

Nutanix en EnterpriseDB (EDB) kondigen de integratie aan tussen EDB en Nutanix Database Service. Klanten kunnen daarmee de kracht van PostgreSQL benutten voor de veilige ondersteuning van hun meest data-intensieve applicaties en workloads.