Discriminerende en onnauwkeurige output
Kritisch blijven op de output van AI zal voorlopig nog van groot belang zijn, er wordt echter wel hard gewerkt aan het verbeteren van de output. Toen de eerste AI taalmodellen zoals ChatGPT voor het eerst werden aangeboden was het nog geen onverdeeld succes. Hoewel vrijwel iedereen onder de indruk was van de capaciteiten van deze nieuwe applicatie van AI, kwam de duistere kant ook vrij snel aan het licht.
De taalmodellen zijn afhankelijk van hun zogeheten training data, grote hoeveelheden tekst waar de patronen van een taal uit af te leiden zijn. Dat is in het kort de manier waarop ChatGPT en soortgelijke modellen functioneren. OpenAI en andere technologiebedrijven gebruikten hiervoor de grootste openbare verzameling aan tekst in de wereld: het internet. Bij deze orde van hoeveelheid aan data was het echter een enorme klus om een effectieve vorm van content monitoring in te zetten zodat het model de duistere kanten van het internet kon omzeilen. De voorganger van ChatGPT genaamd GPT-3 had een zeer sterke neiging naar seksistische en racistische opmerkingen.[3]
Sindsdien zijn de taalmodellen aanzienlijk verbeterd op het filteren van discriminerende en onnauwkeurige output. De zorgen blijven echter bestaan in de wetenschap dat de kern van deze taalmodellen gebaseerd is op een ongefilterde greep aan tekst van het internet, dat is immers niet veranderd. De manier waarop OpenAI ervoor heeft gezorgd dat hun taalmodel minder schadelijke content is gaan genereren is ook een punt van kritiek. Via een uitbestedingsbedrijf zijn werkers uit Kenya ingezet om voor een loon van maximaal 2$ per uur content te labelen zodat ChatGPT kon leren het kaf van het koren te scheiden. Behalve dat dit werk moest worden verricht voor een onbehoorlijk laag loon was het soort tekst en met name ook beeldmateriaal dat de datawerkers onder ogen kregen schadelijk voor hun eigen gezondheid[4]. Wat zegt dit over de rechtvaardigheid van hoe de data is verkregen? Is dit ethisch? En hoe gaan publieke en politieke instituties om de ethische vraag over verkrijging en rechtvaardiging?
Privacy en veiligheid in de Europese Unie
De risico’s van schadelijke content zijn overigens nog niet verdwenen. De krachten van GenAI zijn ook voor online chantage en oplichting zeer inzetbaar, dat is het nadeel van de grote flexibiliteit van deze technologie. Het is ook de reden dat SORA, het krachtige video generatie model van OpenAI, nog niet toegankelijk is in Europa. Het kost hun compliance-team grote moeite om te voldoen aan de strenge eisen van de GDPR en de EU AI Act[5].
Europa heeft in verhouding tot rest van de wereld een behoudend beleid als het gaat om privacy en veiligheid. Dit staat in lijn met onze normen en waarden, maar beperkt ook onze capaciteit voor groei en innovatie. In een rapport in opdracht van de Europese commissie over de toekomst van de concurrentiekracht van Europa worden strenge en inconsistente reguleringen als een ernstig knelpunt gezien voor innovatie. De tech sector wordt gedomineerd door de VS en China, en de meeste Europese succesvolle startups verhuizen naar de VS[6].
Uiteindelijk kan AI net als ieder ander gereedschap voor goede en kwade doeleinden worden ingezet, het is de vraag waar we een grens trekken. Wanneer is het risico dat kwaadwillende partijen de technologie naar hun hand weten te zetten te groot om het aan te bieden aan particulieren of bedrijven? Voor risicomanagers is het hierin van belang de vinger aan de pols te houden wat betreft de ontwikkeling van regels en wetten omtrent AI zowel als de publieke opinie over het gebruik van de technologie. Wat het rapport betreft zal de EU keuzes moeten maken die linksom of rechtsom de mogelijkheden voor innovatie verbeteren en investering aanmoedigen.
Vertrouwen in AI
In een recent onderzoek door het Center for the Governance of Change (CGC)[7] werd waargenomen dat meer dan 21% van Europeanen een AI app die data verzameld over hun politieke voorkeur voor hen zou laten stemmen, onder jongere deelnemers was dit bijna 35%. De vraag of AI verkiezingen op een goede of slechte manier zou beïnvloeden werd door 40% in negatieve zin beantwoord, in verhouding tot 33% die meer positieve kanten zag. Hierbij werd opgemerkt dat maar liefst 74% van ambtenaren een negatieve invloed op verkiezingen ziet aankomen. Deze cijfers vertonen een hoog vertrouwen in de krachten van AI en een laag vertrouwen in de capaciteit van overheden tot regulatie en verantwoording van de inzet van AI. Als het gaat om overheidstaken is er over het algemeen een significante meerderheid die het gebruik van AI steunt, zij het met menselijk toezicht. Onder ambtenaren is de overgrote meerderheid voor AI ondersteuning bij verschillende taken. De lijn wordt nog getrokken bij zaken die directe en grote gevolgen hebben voor het welzijn van mensen, zoals het toekennen van bijstand en bij voorwaardelijke vrijlating van gevangenen.
Met name de bereidheid tot het adopteren van verschillende applicaties van AI is veel hoger bij jongeren. Meer dan een kwart van Europeanen zou bijvoorbeeld een AI metgezel als potentieel romantisch partner overwegen, onder jongeren stijgt dit naar bijna 30%. Wellicht zijn deze cijfers verassend, de meningen over AI lopen immers sterk uiteen. Dit maakt het belang voor bedrijven om bewustzijn te vergroten over AI en de opinie van medewerkers te peilen des te groter. Het is even onwenselijk om de technologie aan mensen op te dringen als het is om te veel beperking op het gebruik van AI te leggen. Aangezien modellen zoals ChatGPT voor iedereen toegankelijk zijn kan dit als gevolg hebben dat medewerkers meer thuis gaan werken en op eigen houtje aan de slag gaan met AI.
Bewust optimistisch doorzetten met AI
Zoals aan het begin genoemd is AI een simpelweg onontkoombare innovatie. Het is geen optie om de technologie te negeren, het is aan te raden om minstens in de startblokken te staan voor een ‘fast follow’ wanneer het moment zich aandient. De meesten komen nu in actie of zijn al hard aan het werk om AI op verschillende manieren te benutten. Mogelijkheden in de zorg, voor overheden, in de financiële sector en vele andere sectoren zijn al aangetoond en de geprojecteerde waarde die de technologie kan creëren is enorm. Het is dus zaak om op een bewuste manier het enthousiasme vast te houden. We kunnen ons niet laten verblinden door de hype, maar ook niet vastbijten in bezwaren die we samen kunnen overkomen. AI is in verschillende opzichten een bewegend doelwit met kansen en risico’s die wekelijks veranderen en zich aanpassen aan nieuwe ontwikkeling, zoals de recente lancering van de nieuwe Chinese concurrent DeepSeek. De vraag is waar het benodigde houvast te vinden is. Hoe stel je een evenwichtig kader aan verantwoordelijke inzet en ontwikkeling van AI dat tegelijkertijd genoeg ruimte overlaat voor een dynamisch beleid? Waar komen beheersmaatregelen naar voren? Als ethisch raamwerk of vanuit ethische commissies in organisaties?
Het is een grote uitdaging voor de risicomanager om een werkbare balans te bewaken, maar risk zal er in dit geval niet alleen voor staan. Om alert en doortastend te kunnen zijn is het voor AI cruciaal om nauw samen te werken met bijvoorbeeld de CISO en HR en met het bestuur.
[1] https://www.unep.org/news-and-stories/story/ai-has-environmental-problem-heres-what-world-can-do-about
[2] https://www.ie.edu/cgc/research/european-tech-insights/
[3], 4 https://time.com/6247678/openai-chatgpt-kenya-workers/?utm_source=substack&utm_medium=email
[5] https://www.theguardian.com/technology/2024/dec/09/openai-ai-video-generator-sora-publicly-available
[6] https://commission.europa.eu/topics/strengthening-european-competitiveness/eu-competitiveness-looking-ahead_en#paragraph_47059
[7] https://www.ie.edu/cgc/research/european-tech-insights/
Bron: Foto van Freepik