Hoe minimaliseer je de technologische risico’s en waarborg je het succes van AI-projecten?

Mark Bakker AI Strategy Advisor EMEA H2O.ai-400400

Steeds meer bedrijven lijken zich af te vragen of de investeringen die ze in AI hebben gedaan wel de moeite waard zijn. IDC waarschuwt dat 28% van alle machine learning (ML)-projecten op een mislukking uitloopt.

Gartner zegt dat slechts 53% van alle AI-initiatieven hun weg van een testomgeving naar een productieomgeving vindt. En McKinsey vreest dat de meeste organisaties onvoldoende behendig zijn met AI en de technologie die daarbij komt kijken. Machine learning-projecten presteren misschien nog niet zoals verwacht, maar dat ligt vaak niet zozeer aan de technologie, als wel aan de gefragmenteerde ontwikkeling van AI-toepassingen.

 

Verschillende belangengroepen met uiteenlopende KPI’s

Met AI- of de ML-modellen zelf is meestal niet zoveel mis. En ook al wijzen de cijfers op problemen, veel van de investeerders zijn blij met de ontwikkelde AI-systemen. Problematisch is echter de manier waarop deze projecten voor de ontwikkeling en implementatie van AI-modellen worden samengesteld en gemanaged door de drie belangrijkste interne spelers.

Zo heb je de zakelijke beslisser, die de besluitvorming wil verbeteren met behulp van machine learning. Dan is er de data scientist, die zich bezighoudt met de manier waarop deze technologie moet worden ingezet om oplossingen te genereren voor de vraagstukken van de zakelijke beslisser. En als derde, de IT-afdeling, die de verantwoording draagt voor optimaal gebruik van aangeschafte IT-middelen door de andere gebruikers.

Deze spelers opereren vaak vanuit verschillende belangen met verschillende KPI’s. Informatiesilo’s en dergelijke uiteenlopende perspectieven helpen niet met het realiseren van succesvolle AI-toepassingen. Overbruggen van deze verschillen is noodzakelijk als organisaties het enorme potentieel van AI willen kunnen verwezenlijken.

Wie een AI-project aftrapt zonder gebruiksvriendelijke omgeving waar alle belanghebbenden op kunnen samenwerken, moet serieus rekening houden met een miskleun - hoe goed het project er op papier ook uit zag. Gelukkig is het faciliteren van een dergelijke omgeving tegenwoordig prima te doen.

Onze ervaring heeft geleerd dat er voor het goed op de rails krijgen van een zinvol ML-project een aantal componenten nodig zijn. Zo heb je een component nodig die de data voor het machine learning proces voorbereidt en een component waarmee je modellen kunt ontwikkelen. Je hebt een manier nodig waarmee je gebouwde modellen kunt observeren en begrijpen om ze te checken op en vrijwaren van bias. Verder heb je een component nodig waarmee je het ontwikkelde model snel operationeel kunt krijgen inclusief bijbehorende data governance en monitoring. En ten slotte heb je een component nodig die je organisatie de mogelijkheid biedt om het model (en bij voorkeur meerdere modellen) in applicaties in te bedden.

AI-klanten vragen een hybride omgeving

Organisaties gebruiken allerlei verschillende technologieën en processen om hun AI-projecten op koers te houden. Hierdoor loopt de praktische inzet van modellen vertraging op en zitten zakelijke beslissers lange tijd met lege handen. Wanneer ze al deze belangrijke aspecten met één platform kunnen managen, kunnen organisaties een stuk sneller toegevoegde waarde realiseren.

Daarvoor is ten eerste een omgeving nodig voor de ontwikkeling van kwalitatief hoogstaande applicaties die bijdragen aan optimale klantentevredenheid, en ten tweede een omgeving die de zakelijke beslisser in staat stelt om deze applicaties op eenvoudige wijze te gebruiken. Het ligt voor de hand om dan meteen aan cloud te denken. Maar die vlieger gaat niet altijd op. Om voor de juiste interne afstemming te zorgen moet je ook goed nadenken over de manier waarop AI binnen je organisatie zal worden gebruikt. Je hebt een methode nodig om een AI-toepassing van de R&D-fase naar de productiefase te krijgen, maar hoe wordt die toepassing vervolgens precies gebruikt? Wat we in de praktijk vaak merken, is dat organisaties in werkelijkheid liever een hybride development- en provisioning-omgeving hebben, waarin dit samenspel van technologieën probleemloos kan draaien. Ongeacht welke ontwikkelingsomgeving of doelomgeving ze ook willen gebruiken, in de cloud, op locatie of een hybride cloud.

Het is verstandig om te kiezen voor een projectomgeving die zoveel is gestandardiseerd. Dit voorkomt afhankelijkheid van een specifieke leverancier en zorgt ervoor dat je componenten die niet naar behoren werken eenvoudig kunt vervangen. Overweeg bijvoorbeeld ook open source waar dat kan. Weet ook dat data scientists een voorkeur hebben voor Python en dat die keuze niet zomaar van tafel geveegd moet worden. Applicaties die via het internet worden aangeboden moeten vaak in Java worden geprogrammeerd, maar data scientists die AI-toepassingen kunnen ontwikkelen op basis van traditionele frameworks voor applicatieontwikkeling zijn bijzonder dun gezaaid. Werken met een taal waarin zij wel bekwaam zijn, doet wonderen voor de productiviteit. Die applicaties zijn daarna perfect online te krijgen via een andere tool (disclaimer: H2O.ai biedt er een aan). 

En kijk voor het automatiseren van de implementatie van applicaties en het opschalen en beheer daarvan naar het container orchestration-systeem waar de IT-afdeling het liefste mee werkt - Kubernetes. Een geweldige orchestratie tool om de kosten van je cloud-infrastructuur in te dammen en desgewenst ook snel individuele componenten te implementeren.

Honderden uitmuntende modellen direct in productie nemen

Met een oplossing die alle tools samenbrengt, een geïntegreerd ‘hybride cloud’-platform voor de bedrijfsbrede ontwikkeling en implementatie van AI-toepassingen, kunnen organisaties sneller grote aantallen modellen in productie nemen. Een van onze klanten, een groot telecombedrijf kon zijn output opvoeren van een handvol machine learning-modellen tot honderden modellen per jaar. Het bedrijf was bovendien in staat om deze modellen op te schalen tot real-time toepassingen.

Ik ben daarom optimistischer gestemd. Volgens mij maken de teleurstellende cijfers van IDC en Gartner slechts deel uit van de leercurve. Ik denk dat de kans op niet-ingeloste beloften en mislukte projecten (of de wens van een vaak onnodige AI-infrastructuur) op de middellange termijn snel zullen afnemen.

Alles wat we nodig hebben om deze transformationele technologie samen tot een zakelijk succes te maken is wat mij betreft al beschikbaar. Waar wachten we dus nog op?

 

 

Mark Bakker, AI Strategy Adviser voor EMEA bij H2O.ai

Meer over
Lees ook
SAP voegt generatieve AI toe aan SAP Datasphere

SAP voegt generatieve AI toe aan SAP Datasphere

Softwarebedrijf SAP SE lanceert nieuwe oplossingen waarmee organisaties hun data effectiever kunnen inzetten. Hiermee creëren zij verbeterde inzichten en versnelde groei en realiseren zij meer efficiëntie binnen het tijdperk van kunstmatige intelligentie. Met de toevoeging van onder meer generatieve AI aan SAP Datasphere kunnen bedrijven hun bedri1

SoftwareOne: Copilot nu voor iedereen beschikbaar, maar let op de databeveiliging

SoftwareOne: Copilot nu voor iedereen beschikbaar, maar let op de databeveiliging

Deze week maakte Microsoft bekend dat Copilot voor Microsoft 365, de virtuele AI-assistent van Microsoft, beschikbaar is voor alle organisaties zonder minimale afname van 300 licenties. Dit is goed nieuws voor alle bedrijven die willen starten met Copilot. Een pilot draaien met een kleine groep medewerkers kan vanaf nu. SoftwareOne begeleidt organ1

Tien procent van de ondervraagde bedrijven nam GenAI-oplossingen in gebruik

Tien procent van de ondervraagde bedrijven nam GenAI-oplossingen in gebruik

cnvrg.io, een Intel-bedrijf en leverancier van platformen voor artificial intelligence (AI) en large language models (LLM), heeft de resultaten bekend gemaakt van het 2023 ML Insider-onderzoek.