Steeds meer organisaties zetten Artificial Intelligence (AI) in. Dit versnelt beslissingsprocessen en schept nieuwe inzichten omtrent risico’s, klanteigenschappen en commerciële kansen. Deze techniek is zeer nieuw en haar inzet roept dan ook vele vragen op over de juridische en ethische randvoorwaarden. Mag dat wel, een computer laten beslissen? Welke kaders hanteer je om een verantwoorde inzet van AI te realiseren? Wordt het tijd voor een AI Compliance Officer?
De toegenomen populariteit van AI heeft diverse redenen. De belangrijkste twee zijn eigenlijk heel simpel: het geeft nieuwe inzichten en versnelt bestaande procedures. En dat is natuurlijk waar, maar vaak wordt veel minder goed begrepen waar dit door komt. En dat brengt risico’s met zich mee.
De onderliggende technologiewerkt vaak met zogeheten machine learning algoritmes, hoewel steeds vaker de techniek van neurale netwerken wordt ingezet. Machine learning is statistische software die zoekt naar patronen in grote hoeveelheden data, om vervolgens op basis van die patronen nieuwe uitspraken te doen. Neurale netwerken proberen het denken van de menselijke hersenen te simuleren: in software gebouwde neuronen reageren op input door suggesties te sturen die worden gecombineerd tot het antwoord.
De details van deze technologie voert veel te ver. Waar het om gaat, is dat in beide gevallen uitgegaan wordt van data, het liefst zo veel mogelijk. Die data wordt geanalyseerd, herkauwd en verpakt om tot een methode te komen die gegeven een nieuw stukje data een uitspraak te doen: is dit akkoord, in welke categorie hoort dit, waar lijkt dit het meeste op. Omdat dit vaak met griezelige accuratesse gebeurt, worden dergelijke systemen “kunstmatig intelligent genoemd”.
De inzet van AI biedt nieuwe mogelijkheden. Bestaande processen kunnen fors worden versneld door menselijke tussenkomst te vervangen door een AI. Zo zou een AI-bewaker bagage van bezoekers kunnen screenen op ongewenste voorwerpen, en deze doet dat dan veel sneller dan een mens (en is bovendien om vijf uur niet moe en afgeleid). Een verzekeraar zou een AI in kunnen zetten om claims te kunnen analyseren.
Dergelijke analyses hebben echter ook diverse risico’s. Zo staan AI’s er om bekend dat zij bestaande vooringenomenheid (bias) uit de onderliggende data sterk uitvergroten, wat kan leiden tot ongewenst gedrag zoals discriminatie. Ook is het vaak lastig duidelijke uitleg te krijgen over hoe een AI tot zijn conclusie komt: dergelijke data-analyse is volkomen onvergelijkbaar met een menselijk gedachtenproces.
Deze risico’s maken organisaties nog steeds huiverig over de inzet van AI. Ook de wetgever heeft niet stilgezeten: in de Europese privacywet GDPR is een expliciet verbod opgenomen om mensen aan besluiten te onderwerpen die door een AI zijn genomen. Hieronder valt ook een besluit dat formeel wel door een mens wordt genomen, maar in de praktijk ‘voorgekookt’ wordt door een AI zonder dat de mens wezenlijke input heeft kunnen geven. En dat is hoe de praktijk vaak werkt, omdat er weinig grip op de AI te krijgen is.
In 2019 publiceerde de Europese Commissie de Ethics Guidelines for trustworthy AI. Deze richtsnoeren werden opgesteld om te kunnen brepalen of een AI betrouwbaar genoemd kan worden. Hieronder wordt verstaan zowel het voldoen aan wettelijke regels, maar ook aan meer algemene ethische principes. Het streven is dat organisaties deze richtsnoeren inzetten gedurende de volledige levenscyclus (van ontwerp tot buitendienststelling) van een AI-gedreven systeem.
Betrouwbare AI bestaat uit driecomponenten, waaraan gedurende de volledige levenscyclus van het systeem moet worden voldaan: de AI moet
Uitgaande van deze drie componenten komen de richtsnoeren tot zeven vereisten voor AI-systemen:
Het toetsen aan deze vereisten komt in de praktijk neer op het welbekende proces van compliance: formuleer criteria waarmee naleving kan worden gemeten, zorg dat mensen doordrongen zijn van het belang van naleving en toets op de criteria. Dat dan ook nog eens op een positieve manier; nee zeggen is altijd makkelijk, maar technologie op een compliant en werkbare manier de markt op krijgen is een stuk lastiger.
Omdat het hier ook nog eens gaat om geavanceerde technologie en vaak vele partijen betrokken zijn, is AI compliance een uitdagende kwestie. Een AI compliance officer moet dan ook behoorlijk thuis zijn in wetgeving, techniek en de toepassingspraktijk.
Het opdoen van de benodigde kennis is een hele kluif. Vaak wordt de informatie versnipperd aangeboden: een advocatenkantoor leert u over de wet, een AI-bedrijf legt graag de techniek uit en diverse postdoctorale trainingen bij universiteiten gaan in op de ethische kant van AI. Het komt echter niet vaak voor dat alle kennis in één opleiding te krijgen is.
Eén opleiding waar dat wel kan, is de leergang AI in de praktijk: compliance & governance van adviesbureau ICTRecht uit Amsterdam. Deze online leergang is speciaal ontwikkeld voor informatieprofessionals, juristen en compliance officers die aan de slag moeten of willen met AI en de toetsing daarvan. Geen blokkades opwerpen, maar zorgen dat bedrijven en instanties aan de slag kunnen. Weten wat er wel kan en hoe dat wordt bereikt.
De stof wordt volledig online aangeboden. Met geavanceerde vormen van elearning kan de cursist eenvoudig werken en effectief de stof tot zich nemen. De docent is online beschikbaar voor 1-op-1 overleg, en via een discussieforum kunnen cursisten met elkaar overleggen en brainstormen.
Met dat forum is trouwens iets bijzonders: het wordt aangeboden door een fictief Nederlands dorp. De leergang kent namelijk een serious game element, waarbij deelnemers optreden voor bedrijfsleven en overheid in dat dorp om te zorgen dat AI-initiatieven volledig compliant én bruikbaar worden. Hoe beter men het spel speelt, hoe hoger het dorp scoort in de wereldwijde competitie van de Most AI-focused city in the world, bijgehouden door het fictieve United Nations Office for Global AI (UNOGAI). Bij pittige onderwerpen als deze is serious gaming een bewezen techniek om leren effectiever te maken.
Durft u de uitdaging aan? Op 1 februari gaat de eerste ronde van start. Meer informatie en de inschrijfmogelijkheid vindt u hier:
https://www.ictrecht.nl/academy/opleidingen/ai-in-de-praktijk-compliance-governance
Auteur: Arnoud Engelfriet, opleidingsdirecteur bij ICTRecht
Bron: ICTRecht, (foto) Unsplash
© Copyright 2014 - 2024 Riskworld | Alle rechten voorbehouden | Privacy en veiligheid | Cookies | Disclaimer | Sitemap