AI Operating Model maakt AI-implementatie mogelijk in afwachting van regelgeving
De ontwikkeling van generatieve AI, en AI in het algemeen, zit in een enorme versnelling en de manier waarop de wereld werkt verandert in een rap tempo. Overheden kunnen dat maar nauwelijks bijbenen en werken daarom hard aan wet- en regelgeving die een verantwoord en veilig gebruik van AI waarborgen. Terwijl overheden de achterstand inlopen, helpt een AI Operating Model bedrijven bij het veilig en verantwoord toepassen van AI.
De snelle innovatie van generatieve AI biedt bedrijven kansen om de productiviteit van werknemers te verhogen, hun diensten te verbeteren en daarmee de winstgevendheid op te stuwen. Maar nog niemand heeft nu al het antwoord op de vraag wat de werkelijke impact van AI gaat zijn op werkgelegenheid, privacy en gegevensbescherming. De wet- en regelgeving hierover is nog onduidelijk of ontbreekt zelfs. Juridische adviseurs waarschuwen tegen het gebruik van AI, maar dat weerhoudt werknemers er in de dagelijkse praktijk niet van om AI-oplossingen te gebruiken en ermee te experimenteren. Daarom moeten directies nu al de verantwoordelijkheid nemen voor veiligheid en beveiliging bij het gebruik van AI. Als zij wachten op wet- en regelgeving, neemt de concurrentie een flinke voorsprong.
Omdat overheden nog werken aan regelgeving weten bedrijven niet precies welke maatregelen er nodig gaan zijn voor de naleving daarvan. Toch kunnen organisaties nu al aan de slag met AI door het opstellen van een AI Operating Model. Dit model richt zich op verschillende zaken, van regelgeving en transparantie tot ethiek en compliance. Het biedt een totaalplaatje van hoe AI veilig en verantwoord ingezet kan worden, zodat organisaties niet in aanvaring komen met wetgeving wanneer die eenmaal komt.
Een AI Operating Model is een verzameling richtlijnen voor verantwoord AI-gebruik. Bijvoorbeeld hoe AI veilig met ons kan samenwerken, onze intelligentie kan vergroten en onze prestaties kan verbeteren. Verantwoord AI-gebruik ondersteunt de besluitvorming en zorgt ervoor dat de voordelen voor iedereen beschikbaar zijn. Daarnaast waarborgen deze richtlijnen dat AI veilig, robuust en veerkrachtig is, dat de vertrouwelijkheid beschermd is en dat misbruik voorkomen wordt.
Ondanks de huidige onduidelijkheid van, of gebrek aan regelgeving, passen organisaties AI al toe. Bestuurders moeten zich daarom nu al bewust zijn van wettelijke verplichtingen om klanten en werknemers te beschermen bij het gebruik van AI. Dit geldt niet alleen voor het ontwikkelen en gebruiken van eigen AI-tools, maar ook van de AI-oplossingen van derden, zoals ChatGPT. Om risico's te beperken, integreert een AI Operating Model alle relevante criteria voor controles en configuraties. Dat voorkomt zowel onbedoeld als opzettelijk misbruik.
FAIR AI Target Operating Model (ATOM)
Rackspace Technology is zelf een goed voorbeeld van een organisatie met een AI Operating Model. De Foundry for AI by Rackspace, onze R&D-afdeling voor AI, ontwikkelde het AI Target Operating Model-(ATOM) voor de adoptie van AI in onze organisatie. ATOM draait volledig om het verantwoorde gebruik van AI en is gebaseerd op richtlijnen die bepalen hoe we het idee voor het AI-gebruik vormgeven (ideate), implementeren (incubate) en benutten (industrialize).
We bepalen allereerst welke AI-oplossingen de organisatie wil inzetten, rekening houdend met de ROI en het streven naar verantwoord AI-gebruik. We besluiten in deze fase ook of die gewenste oplossing moet worden gebouwd of gekocht. Vervolgens onderzoeken we hoe de AI-oplossingen zullen worden gebruikt en door wie. Daarbij houden we rekening met zowel interne medewerkers als externe klanten en partners. Tot slot beschrijven we hoe AI-oplossingen de productiviteit en winstgevendheid verhogen en hoe het gebruik ervan voor iedereen veilig kan worden gemaakt.
Eén ding mogen we niet vergeten in dit proces: of we het nu leuk vinden of niet, AI zal een integraal onderdeel worden van ons werk. Dat betekent dat AI de taken van mensen kan stroomlijnen, overnemen of uitbreiden. Bij Rackspace hebben we daarom besloten om AI-oplossingen te zien als elke andere collega. Dit houdt in dat we de implementatie van AI uitvoeren in lijn met workforce management. Want net zoals alle collega’s vraagt de inzet van een ‘AI-medewerker’ om beleid, richtlijnen, training en governance.
Het proces van workforce management begint met talentplanning en werving. Voor de ‘AI-medewerker’ betekent dit brainstormen de gewenste oplossingen en bepalen welke oplossing als eerste geïmplementeerd wordt. We stellen de gewenste resultaten vast en zoeken naar de vaardigheden en capaciteiten die nodig zijn om deze te bereiken. De volgende stap in workforce management is het inwerken en ontwikkelen van talent. Hoe gaan we de AI-medewerkers trainen en opnemen in de organisatie. Tot slot vraagt workforce management om talentmanagement en -meting. Dit geldt ook voor de AI-medewerker. We moeten de oplossing volgens beleid en richtlijnen aan het werk zetten in onze organisatie. Net zoals we doen voor collega's, willen we de prestaties van AI optimaliseren door doelen vast te stellen voor succes en deze te meten en continu te verbeteren.
Boudewijn van Dulken is General Manager voor Noord-Europa bij Rackspace Technology