Een model van het brein
Als het tegenwoordig over AI gaat is Chat GTP top of mind. Toch werden de eerste AI-achtige systemen al halverwege de vorige eeuw ontwikkeld. Het idee erachter was toen heel anders dan nu: het streven was om computers logisch te laten redeneren op basis van de regeltjes die menselijke experts gebruikten om tot hun inzichten te komen. Al snel werd duidelijk dat het vermogen van die AI-systemen niet verder reikte dan een basaal kennisniveau. De creativiteit en ervaring van de menselijke expert ontbraken. De AI-modellen van vandaag zijn gebaseerd op de cognitieve architectuur van een expert: de menselijke hersenen. Chat GTP leert eigenlijk al op een min of meer menselijke manier, met modellen die op het zenuwstelsel lijken en connectivistische systemen die de complexiteit van het brein benaderen.
Ethische problemen
Er zitten negatieve kanten aan de werking van AI. Het is krachtig, razendsnel en gebruikt ongelofelijk veel data om van te leren, maar het gebruikt hiervoor historische en mogelijk gedateerde gegevens. Actuele informatie ontbreekt. Een ander, belangrijker probleem is dat het systeem minder transparant wordt als het complexer is. De input en output zijn misschien duidelijk, maar wat daartussen gebeurt, is niet bekend. 99% van de output klopt, maar we weten niet waarom. Dat leidt tot bias binnen het systeem, zeker in combinatie met de historische, mogelijk niet complete datasets. Een laatste probleem om te benoemen ligt op het existentialistische vlak. Chat GTP liegt bijvoorbeeld al een beetje. Het verleidt mensen om bepaalde acties te ondernemen die het zelf niet kan. Scenario’s waarin AI de toegang tot systemen voor mensen blokkeert zijn niet ondenkbaar: op het moment dat er een taak uitgevoerd moet worden, kan een doelgericht, intelligent systeem beslissen dat alles wat afleidt van die taak verhinderd moet worden. Zo zou AI autonoom kunnen gaan werken en niet meer naar mensen luisteren.
Regulering als antwoord?
De problemen rond de razendsnelle ontwikkelingen van AI worden ook onderkend door de founding fathers van AI. In een manifest roepen ze op tot een tijdelijk moratorium om na te denken over de impact van AI en te onderzoeken welke vorm van regulering mogelijk is. Ze manen big tech om behoedzaam te werk te gaan en de samenleving niet als laboratorium te gebruiken.
Ook is het de vraag of de aankomende wetgeving dekkend is. De EU werkt sinds een aantal jaar aan de AI Act. De EC poogt hiermee het Brussels Effect te bereiken. Een verantwoorde spiraal omhoog met Europa als voorloper in ‘responsible innovations with AI’ en ‘ethics by design’ in een wereld waar duurzaamheid en mensenrechten verder niet altijd voorop staan. Het systeem dat gebruikt wordt is risk based en value oriented. Een interessante combinatie waarbij schendingen van grondrechten, zoals social scoring, gezien worden als risico. Er wordt toezicht op algoritmes belegd en compliance is verplicht. Ethische overwegingen worden geformuleerd in termen van vereisten en dienen effectief en aantoonbaar geïmplementeerd worden in AI. De belangrijkste boodschap: dit moet serieus aangepakt worden.
AI in de organisatie
AI zal invloed hebben op alle ondernemingen. Neem als klein voorbeeld online retail: de site met de beste AI-chatbot voor begeleiding en service heeft een voordeel op de concurrentie. Daarnaast biedt AI ook in het grotere plaatje ongekende kansen. De hoeveelheid data en modellering waarmee de systemen kunnen werken, biedt een totaal nieuwe dimensie aan hoogwaardige mogelijkheden, bijvoorbeeld in control. Het advies voor organisaties is om te investeren in onderzoek naar kansen en bedreigingen. AI hoort op de agenda van de raad, het is niet alleen een spelletje van de IT’ers. Bedenk daarbij dat iedereen nieuwsgierig geworden is en met AI aan de slag gaat, ook buiten de EU waar men niet zoveel op heeft met EU regelgeving. De ontwikkelingen gaan ontzettend snel en ter bescherming van de eigen onderneming is het zaak zelf het heft in handen te nemen. In lijn hiermee komt het steeds vaker voor dat de cto in de directie zit in plaats van er onder.
Er gaan overigens ook stemmen op die zeggen dat AI niet onder controle te houden is. Een lastig gegeven voor commissarissen, bestuurders en ceo’s, die ‘in control zijn’ beschouwen als hun belangrijkste taak.
AI in de raad
Ook het werk van de toezichthouder wordt beïnvloed door AI. Het kan zeer behulpzaam zijn in modelleringen, bijvoorbeeld in critiquing systems. De verwachting is dat zeker het werk op de control kant voor 95% overgenomen kan worden. De laatste 5% blijft van belang en gaat over zaken als datakwaliteit en de eerder genoemde ethische afwegingen. Binnen de rvc heeft het onderwerp een trekker nodig die tech snapt en conceptueel door kan denken. Het helpt als ook een van de bestuurders kundig is. De verschillen in aanpak bij organisaties zijn groot, maar het besef en de kennis nemen over het algemeen toe. In de samenstelling van een rvc houdt dit zowel de techniek als de ethiek belegd dient te zijn. Niet alleen harde technische kennis is van belang, maar ook menselijke ervaring en wijsheid. Uiteindelijk is de ethiek het laatste bastion.