AI Ethiek is een veelzijdig thema wanneer je het bekijkt vanuit een maatschappelijk en academisch perspectief. Wetenschappers uit verschillende disciplines zoals filosofie en psychologie mengen zich in een discussie over een kader voor ethische AI. De vragen die een filosoof stelt over dit thema zijn echter niet gelijk aan de vragen die een organisatie zichzelf stelt wanneer er een beleid gevormd moet worden. Dit wil niet zeggen dat de vaardigheden en perspectieven van academici niet waardevol zijn bij het vormgeven van een beleid voor ethische AI, in tegendeel zelfs. Voor een ethisch kader dat grondig bevraagd is door ethische deskundigen en tegelijk toepasbaar is in de context van een bedrijf of een ander soort organisatie zal een combinatie van wetenschappelijke zorgvuldigheid en bestuurlijke visie vereist zijn. Het vertalen van conceptuele ethische vraagstukken naar concrete richtsnoeren vergt een multidisciplinaire aanpak waarbij de specifieke benodigdheden en risico’s voor een organisatie worden overwogen.
Reid Blackman is expert op het gebied van AI Ethics, hij publiceerde het boek Ethical Machines bij HBR Press en schreef daarnaast een artikel voor de Harvard Business Review waarin hij een zeven-stappenplan schetst voor het operationaliseren van ethisch AI. Dit artikel is gebaseerd op Blackman’s visie voor ethische AI en een interview met AI Ethicus Shaiesta Gangadin.
De eerste stap voor een kansrijk programma voor AI Ethiek is om goed te kijken naar wat al in de organisatie aanwezig is aan kennis, infrastructuur en governance met betrekking tot gerelateerde onderwerpen. Een raad van advies voor data security kan bijvoorbeeld al een rijke bodem vormen voor de ontwikkeling van ethische principes voor AI en de vormgeving van een beleid. Door het begrip ethische AI richting te geven vanuit de top van de organisatie ontstaat een helder idee van de visie van een bedrijf voor medewerkers. Daarbij is het cruciaal dat zorgen geuit en vragen gesteld kunnen worden door degenen die de technologie dagelijks gebruiken. Zo ontstaat een dynamisch en specifiek beleid met draagvlak in de organisatie. Mocht er niets aanwezig zijn dat kan worden gebruikt als vertrekpunt voor een AI beleid dan zal het gevormd moeten worden – zoals een comité of raad van advies voor ethiek. Bij de eerste vormgeving van ethische principes met betrekking tot AI, en de ontwikkeling tot een beleid, is het ook belangrijk dat de juridische en de compliance afdeling worden betrokken, naast de risicomanager en de AI Ethicus (indien aanwezig).
Binnen een organisatie zullen altijd bepaalde ethische standaarden aanwezig zijn, ook als deze niet zijn vastgelegd of geïdentificeerd. Er zijn verschillende bedrijven die organisaties kunnen helpen de gemeenschappelijke drijfveer achter het bestuur en de medewerkers te vinden. Deze moet dan ook het vertrekpunt vormen voor een passend kader voor ethische AI. Hetzelfde geldt voor een governance structuur die wordt toegepast om het ethisch kader te kunnen operationaliseren. Deze zal vormgegeven moeten worden met oog op de verschillende belangen van stakeholders binnen en buiten een organisatie zowel als de eigen mensen. Zo is de doelstelling het bereiken van een combinatie van een ethisch kader waar iedereen in de organisatie zich voldoende in kan vinden en een governance structuur waar iedereen de verantwoordelijkheden heeft en neemt waar ze zich gewaagd aan voelen. Als dit bereikt wordt is het nog steed van belang dat een duidelijk pad is uitgestippeld voor risicomeldingen en escalaties, dat wil zeggen dat medewerkers weten waar ze zorgen of bezwaren veilig kunnen aankaarten.
Zoals bij iedere vorm van risicomanagement zijn de specifieke doelstellingen en de context van een sector of industrie bepalend voor de uitkomst van risicoanalyses en daarmee de prioritering van beheersingsmaatregelen. Er zijn sectoren waar ethische risico’s bovengemiddeld zwaar wegen, met name bij maatschappelijk relevante organisaties zoals de zorg en het onderwijs. De zorgsector in het bijzonder heeft een schat aan ervaring met het vormgeven, testen en toepassen van systematisch en effectief beleid voor het beheersen en mitigeren van ethische risico’s. Een voorbeeld nemen aan de zorg is onderdeel van een cross-sectorale blik op risicomanagement. Zorgprofessionals moeten dagelijks rekening houden met de ethische risico’s inherent aan de sector, zoals de privacy van patiëntgegevens en het verzekeren van geïnformeerde toestemming voor een behandeling. Om deze punten te concretiseren hebben verpleegkundigen zowel als toezichthouders en juristen deze aspecten van ethiek zorgvuldig bestudeerd. Hun bevindingen kunnen zich op een waardevolle manier vertalen naar de ethische dilemma’s die nu spelen bij AI. Neem het adequaat informeren van patiënten bijvoorbeeld, dit vergt een specifieke vaardigheid van medisch personeel om de specialistische terminologie waarmee zij een ziektebeeld zouden omschrijven te versimpelen zodat patiënten het kunnen begrijpen en een geïnformeerde beslissing kunnen maken. AI kent een probleem dat hierbij in de buurt ligt, de uitlegbaarheid van de technologie wordt alsmaar geringer naarmate deze geavanceerder wordt. Een gebrek aan uitlegbaarheid vergroot het risico dat gebruikers AI gegenereerd advies of content tot zich nemen zonder er zich bewust van te zijn. Het is daarbij aan de aanbieder om ervoor te zorgen dat het overduidelijk is welk advies en welke content automatisch is gegenereerd en op basis waarvan dit gebeurt. De zorg is slechts een voorbeeld van een sector waar ethiek zijn eigen betekenis en prioriteiten kent. In bijvoorbeeld de financiële en de publieke sector is er een groot belang om aandacht te besteden aan transparantie en evenwichtigheid en te waken voor onjuiste of mogelijk discriminerende output van een AI-systeem.
Een bekend en onacceptabel risico van AI is dat discriminerende vooroordelen die via de training-data in het model zitten gebakken de rechtvaardigheid van gevoelige processen beïnvloedt, zoals sollicitatieprocedures of kredietbeoordelingen. Voor dit soort processen heeft de uitlegbaarheid en transparantie van de beslissingen die worden gemaakt door AI dan ook een hoge prioriteit, maar niet alle processen die met behulp van AI werken hebben dezelfde gevoeligheden. De werknemers die een product op de markt moeten brengen of een dienst moeten kunnen leveren moeten voldoende zijn uitgerust om te kunnen beoordelen in hoeverre welke maatregelen per product van belang zijn, waarbij de hogere risicobeoordelingen helder gecommuniceerd en onderbouwd zijn. Risicobeoordelingen zijn deels afhankelijk van de sector en context, maar er is wel een aantal categorieën gedefinieerd in de EU AI Act die een eerste indicatie kunnen geven van de verschillende risiconiveau’s die spelen in een organisatie. Hieronder staan de verschillende niveau’s met enkele voorbeelden van geassocieerde risicocategorieën:
Bij de beoordeling van een specifiek risico wordt gekeken naar de kans en impact in een organisatie, zo worden bepaalde risico’s niet bij iedere organisatie hetzelfde beoordeeld. Risicobeoordelingen worden idealiter gemaakt op directieniveau, bijvoorbeeld door een Chief Ethics Officer, en gecommuniceerd naar afdelingsspecifieke AI-ethiekcoördinatoren die op team of productniveau hun verantwoordelijkheid nemen over naleving en prestaties.
Kennis en vaardigheden opdoen met betrekking tot AI is een van de belangrijkste opdrachten voor verschillende bedrijven en organisaties van dit moment. Voorlichting over ethiek en good practices vormt hier een belangrijk onderdeel van. Het ethisch raamwerk waar afspraken over zijn gemaakt binnen een organisatie dient algemeen bekend te zijn bij medewerkers. Niet alleen de regels en procedures, maar ook het waarom achter hoe een kader is vormgegeven is idealiter onderdeel van de voorlichting. Zonder de nodige achtergrond en uitleg wordt het beleid gereduceerd tot een afvinklijstje en gaat draagvlak en inzet van werknemers verloren.
Naast het aanbieden van voorlichting en het meenemen van werknemers in de gedachten achter een ethisch AI beleid, is het niet onbelangrijk om medewerkers te belonen voor hun betrokkenheid bij ethische AI. De tijd leert dat ethische standaarden naar de achtergrond kunnen verschuiven wanneer concrete motivatie ontbreekt. Door zichtbare investeringen te maken in het ontwikkelen van ethische omgangsnormen met AI laat een bedrijf zien dat het voor medewerkers de moeite waard is om tijd te investeren in de toepassing en verfijning van het ethisch kader.
Alle tijd en moeite die wordt geïnvesteerd in de voorgaande stappen levert bij voorkeur een degelijk en toepasselijk beleid op. Dit beleid zal echter zelden geheel waterdicht zijn. Om als organisatie van enige zekerheid te kunnen spreken dat ethische risico’s beheerst worden, en om wendbaar te kunnen zijn in veranderende situaties, is de monitoring van de invloed van het beleid in de buitenwereld van groot belang. Daarbij is het betrekken van stakeholders een waardevolle en effectieve strategie. De toepassingen van AI technologie worden doorlopend uitgebreid, en op enige afstand volgt ook de wetgeving. Dit maakt het extra uitdagend en belangrijk blijvend geïnformeerd en in controle te blijven wat betreft de toepassingen van de AI gerelateerde producten die een bedrijf levert. Om proactief om te gaan met compliance is het belangrijk om te anticiperen op de nieuwe regelgeving en wat deze betekent, zoals de EU AI Act en de Digital Service Act. Door daarnaast op een ethisch verantwoorde manier bij klanten en andere stakeholders een oog in het zeil te houden, en door regelmatig om feedback te vragen van externen, houdt u de vinger op de pols als het gaat om ethische beleidsnormen voor AI. Daarbij kan gedacht worden aan periodieke rapportages waarin AI incidenten en hun opvolging besproken worden, gebruikersonderzoeken naar tevredenheid over transparantie en evaluaties van de effectiviteit van maatregelen zoals de bias-reductie van een AI-systeem.
Hieronder staat in een tabel een aantal van de belangrijkste aandachtspunten waar rekening mee gehouden moet worden bij het operationaliseren van een AI beleid gebaseerd op ethische principes. Vervolgens staan de belangrijkste risico’s van AI die betrekking hebben op ethiek op een rij. In de rechterkolom staan gesuggereerde toetsvragen waarmee u kunt evalueren in hoeverre uw beleid grip heeft op de ethische toepassing van AI.
Aandachtspunten |
|
Risicoanalyse en beoordeling |
|
Governance structuur |
|
Kennis en bewustzijn |
|
Monitoring en evaluatie |
|
Uitlegbaarheid en transparantie |
|
Risicocategorieën |
|
Algoritmerisico’s |
|
Compliance |
|
Uitbesteding |
|
Het beheersen van de ethische risico’s heeft een aantal dimensies die voor een risicomanager bekend zijn, zoals degelijke en specifieke risicobeoordelingen en een robuuste governance structuur. Daarnaast zijn er enkele dimensies die speciale aandacht vragen, zoals het belang van kennis voor de benodigde uitlegbaarheid. Uiteindelijk is het doel om als organisatie een eigen koers te kiezen door de ethische dilemma’s van AI waar dat kan, en te anticiperen op wetgeving en deze na te leven waar dat moet. De kansen die AI biedt zijn even talrijk als de risico, daarmee is het uw eigen reflectie die een leidende rol moet spelen in de keuzes voor uw organisatie. Weet u al hoe ethische AI bij uw organisatie eruit ziet?
Bron: Foto van Freepik© Copyright 2014 - 2025 Riskworld | Alle rechten voorbehouden | Privacy en veiligheid | Cookies | Disclaimer | Sitemap