Hoe minimaliseer je de technologische risico’s en waarborg je het succes van AI-projecten?

Mark Bakker AI Strategy Advisor EMEA H2O.ai-400400

Steeds meer bedrijven lijken zich af te vragen of de investeringen die ze in AI hebben gedaan wel de moeite waard zijn. IDC waarschuwt dat 28% van alle machine learning (ML)-projecten op een mislukking uitloopt.

Gartner zegt dat slechts 53% van alle AI-initiatieven hun weg van een testomgeving naar een productieomgeving vindt. En McKinsey vreest dat de meeste organisaties onvoldoende behendig zijn met AI en de technologie die daarbij komt kijken. Machine learning-projecten presteren misschien nog niet zoals verwacht, maar dat ligt vaak niet zozeer aan de technologie, als wel aan de gefragmenteerde ontwikkeling van AI-toepassingen.

 

Verschillende belangengroepen met uiteenlopende KPI’s

Met AI- of de ML-modellen zelf is meestal niet zoveel mis. En ook al wijzen de cijfers op problemen, veel van de investeerders zijn blij met de ontwikkelde AI-systemen. Problematisch is echter de manier waarop deze projecten voor de ontwikkeling en implementatie van AI-modellen worden samengesteld en gemanaged door de drie belangrijkste interne spelers.

Zo heb je de zakelijke beslisser, die de besluitvorming wil verbeteren met behulp van machine learning. Dan is er de data scientist, die zich bezighoudt met de manier waarop deze technologie moet worden ingezet om oplossingen te genereren voor de vraagstukken van de zakelijke beslisser. En als derde, de IT-afdeling, die de verantwoording draagt voor optimaal gebruik van aangeschafte IT-middelen door de andere gebruikers.

Deze spelers opereren vaak vanuit verschillende belangen met verschillende KPI’s. Informatiesilo’s en dergelijke uiteenlopende perspectieven helpen niet met het realiseren van succesvolle AI-toepassingen. Overbruggen van deze verschillen is noodzakelijk als organisaties het enorme potentieel van AI willen kunnen verwezenlijken.

Wie een AI-project aftrapt zonder gebruiksvriendelijke omgeving waar alle belanghebbenden op kunnen samenwerken, moet serieus rekening houden met een miskleun - hoe goed het project er op papier ook uit zag. Gelukkig is het faciliteren van een dergelijke omgeving tegenwoordig prima te doen.

Onze ervaring heeft geleerd dat er voor het goed op de rails krijgen van een zinvol ML-project een aantal componenten nodig zijn. Zo heb je een component nodig die de data voor het machine learning proces voorbereidt en een component waarmee je modellen kunt ontwikkelen. Je hebt een manier nodig waarmee je gebouwde modellen kunt observeren en begrijpen om ze te checken op en vrijwaren van bias. Verder heb je een component nodig waarmee je het ontwikkelde model snel operationeel kunt krijgen inclusief bijbehorende data governance en monitoring. En ten slotte heb je een component nodig die je organisatie de mogelijkheid biedt om het model (en bij voorkeur meerdere modellen) in applicaties in te bedden.

AI-klanten vragen een hybride omgeving

Organisaties gebruiken allerlei verschillende technologieën en processen om hun AI-projecten op koers te houden. Hierdoor loopt de praktische inzet van modellen vertraging op en zitten zakelijke beslissers lange tijd met lege handen. Wanneer ze al deze belangrijke aspecten met één platform kunnen managen, kunnen organisaties een stuk sneller toegevoegde waarde realiseren.

Daarvoor is ten eerste een omgeving nodig voor de ontwikkeling van kwalitatief hoogstaande applicaties die bijdragen aan optimale klantentevredenheid, en ten tweede een omgeving die de zakelijke beslisser in staat stelt om deze applicaties op eenvoudige wijze te gebruiken. Het ligt voor de hand om dan meteen aan cloud te denken. Maar die vlieger gaat niet altijd op. Om voor de juiste interne afstemming te zorgen moet je ook goed nadenken over de manier waarop AI binnen je organisatie zal worden gebruikt. Je hebt een methode nodig om een AI-toepassing van de R&D-fase naar de productiefase te krijgen, maar hoe wordt die toepassing vervolgens precies gebruikt? Wat we in de praktijk vaak merken, is dat organisaties in werkelijkheid liever een hybride development- en provisioning-omgeving hebben, waarin dit samenspel van technologieën probleemloos kan draaien. Ongeacht welke ontwikkelingsomgeving of doelomgeving ze ook willen gebruiken, in de cloud, op locatie of een hybride cloud.

Het is verstandig om te kiezen voor een projectomgeving die zoveel is gestandardiseerd. Dit voorkomt afhankelijkheid van een specifieke leverancier en zorgt ervoor dat je componenten die niet naar behoren werken eenvoudig kunt vervangen. Overweeg bijvoorbeeld ook open source waar dat kan. Weet ook dat data scientists een voorkeur hebben voor Python en dat die keuze niet zomaar van tafel geveegd moet worden. Applicaties die via het internet worden aangeboden moeten vaak in Java worden geprogrammeerd, maar data scientists die AI-toepassingen kunnen ontwikkelen op basis van traditionele frameworks voor applicatieontwikkeling zijn bijzonder dun gezaaid. Werken met een taal waarin zij wel bekwaam zijn, doet wonderen voor de productiviteit. Die applicaties zijn daarna perfect online te krijgen via een andere tool (disclaimer: H2O.ai biedt er een aan). 

En kijk voor het automatiseren van de implementatie van applicaties en het opschalen en beheer daarvan naar het container orchestration-systeem waar de IT-afdeling het liefste mee werkt - Kubernetes. Een geweldige orchestratie tool om de kosten van je cloud-infrastructuur in te dammen en desgewenst ook snel individuele componenten te implementeren.

Honderden uitmuntende modellen direct in productie nemen

Met een oplossing die alle tools samenbrengt, een geïntegreerd ‘hybride cloud’-platform voor de bedrijfsbrede ontwikkeling en implementatie van AI-toepassingen, kunnen organisaties sneller grote aantallen modellen in productie nemen. Een van onze klanten, een groot telecombedrijf kon zijn output opvoeren van een handvol machine learning-modellen tot honderden modellen per jaar. Het bedrijf was bovendien in staat om deze modellen op te schalen tot real-time toepassingen.

Ik ben daarom optimistischer gestemd. Volgens mij maken de teleurstellende cijfers van IDC en Gartner slechts deel uit van de leercurve. Ik denk dat de kans op niet-ingeloste beloften en mislukte projecten (of de wens van een vaak onnodige AI-infrastructuur) op de middellange termijn snel zullen afnemen.

Alles wat we nodig hebben om deze transformationele technologie samen tot een zakelijk succes te maken is wat mij betreft al beschikbaar. Waar wachten we dus nog op?

 

 

Mark Bakker, AI Strategy Adviser voor EMEA bij H2O.ai

Meer over
Lees ook
Pure Storage breidt enterprise AI uit om aan de groeiende vraag te voldoen met NVIDIA AI

Pure Storage breidt enterprise AI uit om aan de groeiende vraag te voldoen met NVIDIA AI

Pure Storage brengt nieuwe gevalideerde referentiearchitecturen uit voor generatieve AI use cases, waaronder een nieuwe NVIDIA OVX-ready gevalideerde referentiearchitectuur. Pure Storage en NVIDIA bieden klanten een bewezen framework voor het beheren van de hoge prestaties en compute-vereisten die zij nodig hebben voor succesvolle AI-implementatie1

Hexaware introduceert AI-webapp tensai GPT voor interne innovatie

Hexaware introduceert AI-webapp tensai GPT voor interne innovatie

Hexaware, de wereldwijde leverancier van IT-diensten en digitale oplossingen, introduceert de AI-webapp tensai GPT, in samenwerking met Microsoft. Met behulp van Microsoft Azure Open AI Service zal deze AI-webapp de medewerkers van Hexaware in staat stellen beschikbare kennis te benutten, waardoor de creativiteit in verschillende markten wordt bev1

Medallia Experience 2024: pionieren in klantbeleving met AI-innovaties

Medallia Experience 2024: pionieren in klantbeleving met AI-innovaties

Generatieve AI-technologie biedt enorme kansen op een nog persoonlijkere customer experience. Ook bij grote klantvolumes. Medallia liet tijdens het ‘Experience’-event in Las Vegas zien hoe die belofte in de praktijk steeds meer gestalte krijgt. “De nieuwe oplossingen zijn zoveel meer dan een leuke feature of een must-have simpelweg vanwege de AI-h1