5 APR, 2022 • Achtergrond
Verantwoord omgaan met kunstmatige intelligentie: het kan dus
Leidt kunstmatige intelligentie straks tot computer says no? Welnee: grote bedrijven zijn allang bezig om te zorgen dat ze AI ethisch gebruiken. Maar dat gaat natuurlijk niet vanzelf…
Bijna iedereen heeft regelmatig te maken met kunstmatige intelligentie. Soms is het de chatbot die je aan de telefoon krijgt als je een helpdesk belt mailt of appt. Of het is onderdeel van het proces voor het afsluiten van een lening of hypotheek waar het risico voor de bank wordt bepaald. Is dat een probleem? Niet als je de gewenste inlichting krijgt of de lening. Maar wat als die lening niet wordt goedgekeurd? Het beroemde computer says no?
Dát kan een computer niet doen bij Rabobank, vertelt Martin Leijen, data-expert bij de bank – zijn afdeling met AI-makers is inmiddels uitgegroeid tot zo’n 160 man. En dat heeft een reden: voor de Rabobank blijft dit mensenwerk. Daarom hangt de bank een klip-en-klaar principe aan als het gaat om de ontwikkeling van kunstmatige intelligentie en het gebruik van bijbehorende data om AI-toepassingen te maken. ‘Je moet jezelf ’s ochtends in de spiegel aankijken en jezelf afvragen: de manier waarop wij omgaan met de data van klanten, is dat hoe ik zou willen dat een ander met mijn data zou omgaan? In praktijk is dat een erg bruikbaar principe.’ Oftewel: de gulden regel wat gij niet wilt dat u geschiedt, doet dat ook een ander niet. ‘Dat zorgt er ook voor dat we aan de voorzichtige, conservatieve kant zitten met de ontwikkeling en het gebruik van kunstmatige intelligentie’, zegt Leijen.
AI blijven begrijpen
Voor wat voor soort dingen ontwikkelt de bank dan AI-toepassingen? Een simpel voorbeeld. ‘Stel, je wilt als ondernemer graag een lening aanvragen, legt Leijen uit. ‘Voorheen ging een collega dan handmatig het hele dossier doorploegen. Dat kostte zomaar dik 1,5 uur. Nu selecteert de computer alvast alle relevante informatie uit bijvoorbeeld de jaarrekening. Dat gaat veel efficiënter, bovendien is dit voor mensen saai werk.’ Ook dat is een mooi uitgangspunt voor kunstmatige intelligentie, zegt Leijen. ‘We gebruiken AI om dit soort zaken te versnellen, of om conclusies te trekken uit statistieken. Maar nooit om iets te concluderen dat mensen niet meer kunnen begrijpen of volgen.’ Een vergelijking met de financiële crisis ligt voor de hand, toen er bankproducten werden ontwikkeld die niemand meer begreep.
Kunstmatige intelligentie wordt veelal gezien als gevaarlijk. Besteden we ons beoordelingsvermogen uit aan computers? Jean-Marc Leclerc is Co-Director van het Policy-lab van technologiebedrijf IBM in Brussel. IBM maakt AI-software die bijvoorbeeld helpt bij cybersecurity en het optimaliseren van bedrijfsprocessen en het voorspellen van risico’s. Daarnaast adviseert het ondernemingen die kunstmatige intelligentie willen gebruiken. Volgens Leclerc heeft het bedrijfsleven de verantwoordelijkheid om duidelijk uit te leggen waarvoor kunstmatige intelligentie wordt gebruikt en welke checks and balances zijn ingebouwd om te zorgen dat AI mensenwerk blijft. ‘Mensen gaan pas echt gebruik maken van techniek, als ze die techniek ook vertrouwen’, zegt Leclerc. ‘Je moet de gebruikers dus respecteren.’ Ruim vier jaar geleden vond IBM dat er een fundament gelegd moest worden onder het gebruik van AI. ‘Wij willen dat AI mens-centrisch is’, legt Leclerc uit. Met andere woorden: het moet ons helpen, niet vervangen.
Discussies
Dat leidt onvermijdelijk tot discussies met klanten en collega’s, zegt Martin Leijen van Rabobank. Want wat doe je wel en wat doe je niet? Daarom gebruikt de bank nóg een belangrijke stelregel: als geanonimiseerde data wordt gebruikt van een klant, dan moet die klant er wel direct voordeel van hebben. Soms zorgt dat voor het maken van een grondige afweging tussen verschillende belangen, legt Leijen uit. ‘Wij hebben bijvoorbeeld ook supermarkten als klant. Stel dat zij zouden willen weten waar hun klanten zitten, wat ze besteden en waaraan. Kunstmatige intelligentie zou dat perfect in kaart kunnen brengen. Wij kunnen een model bouwen om dat soort conclusies te trekken uit onze eigen financiële data zodat supermarkten nog scherper weten wat hun klanten willen. Technisch kan het, volgens wet- en regelgeving kan het ook, maar ethisch vinden we het niet oké. Het voordeel zou namelijk alleen bij de supermarkten terecht komen. En een ‘uitruil’ van data past niet bij ons, dat hoort meer bij big tech.’
Wat doet de EU?De EU is al behoorlijk ver in het denken over kunstmatige intelligentie. Het wil leidend worden om een standaard te zetten voor ethische AI. Europa maakt niet alleen regels, ze zorgt ook voor innovatie met bijvoorbeeld regulatory sandboxes, waar onder gecontroleerde regelarme omstandigheden nieuwe ontwikkelingen uitgeprobeerd kunnen worden. Bedrijven, vakbonden en ngo’s wordt om input gevraagd. Dat proces is behoorlijk transparant en alle inbreng is gewoon te vinden op internet.
Zelf regels maken
Bedrijven kunnen ook hun eigen regels opstellen, zegt Jean-Marc Leclerc. Hij verwijst naar de invoering van de Europese Privacyrichtlijn. ‘Veel bedrijven hebben toen een chief privacy officer aangesteld. Iets soortgelijks kunnen ze doen op het gebied van ethiek: benoem een ethics officer. Dat is dus geen projectleider die bij ontwikkeling is betrokken, maar iemand hoog in de organisatie die ergens een rem op kan zetten.’ Bij IBM is er een ethics board op ‘heel hoog niveau’ die gevraagd en ongevraagd een mening geeft of helpt bij ethische dilemma’s. Daar zitten onder andere de chief privacy officer van IBM Global in, en de global AI Ethics leader. De laatste was lid van de EU-expertgroep over AI. Zij hebben direct contact met de afdelingen research en de board van IBM. Ook Rabobank heeft zo’n commissie, met verschillende mensen (‘van bijvoorbeeld legal en privacy, die op de hoogte te zijn van alle wet- en regelgeving’) die toetsen of AI op een ethische manier wordt gebruikt. ‘Maar net zo belangrijk’, zegt Leijen, ‘is dat binnen het bedrijf alle programmeurs snappen wat ethische AI is. Achter elk stukje data zit een mens en dat vertel ik onze collega’s ook zo vaak mogelijk’, zegt Leijen. ‘Daarom is diversiteit – van gender tot etniciteit – in onze teams ook zo super belangrijk, zodat er met verschillende blikken kan worden gekeken naar AI. En een belangrijke regel binnen het team is ook: iedereen mag zich uitspreken, bij twijfel niet doen. Dat mag ook best een onderbuikgevoel zijn.’
Maak een data-manifest
De belangrijkste tip die Leijen andere bedrijven kan geven: maak een data-manifest waarin heel duidelijk is opgesteld wat je wel en niet met data van klanten doet (zoals bijvoorbeeld de regel: de klant houdt altijd controle over zijn of haar data). En zorg ervoor dat iedereen in je bedrijf ervan op de hoogte is. Dus juist niet alleen de programmeurs en de data-specialisten, maar echt iedere collega.
Want, benadrukt Leclerc, de verantwoordelijkheid voor AI houdt niet op binnen de muren van het bedrijf. Die strekt zich juist uit naar de klanten, de gebruikers. Ethische AI is alsof je een fles sinaasappelsap koopt in de supermarkt, zegt Leclerc. ‘Daar kijk je op het label om te weten wat er in zit. Voor AI geldt hetzelfde, zeg aan je klant wat je doet, welke gegevens je gebruikt en waarvoor. Ik denk dat de consument niet wil weten hoe de techniek precies werkt. Zie het als elektriciteit, niemand weet met welke techniek de stroom precies wordt opgewekt en naar jouw stopcontact komt. Je wil dat het werkt en dat het veilig is. Daar moeten bedrijven en overheden voór zorgen. Als de helpdesk een chatbot gebruikt, zeg dan aan de klant: U wordt nu doorverbonden met een chatbot.’
Wachten of aan de slag
Is het niet beter en makkelijker om op regelgeving te wachten? Nee, zegt Leclerc. ‘Dit onderwerp is te belangrijk. Je hoeft niet te wachten tot er een wet is voordat je je druk maakt over transparantie en uitlegbaarheid. Daar is geen tijd voor, daarvoor gaan de ontwikkelingen te snel. Wij hebben alvast niet stilgezeten en tools en diensten ontwikkelt die klanten hiervoor kunnen gebruiken.’ En voor wie daar hulp bij nodig heeft: Rabobank deelt graag kennis met andere bedrijven. Zo houdt Leijen regelmatig presentaties, van Anwb tot politie benaderen hem dan vervolgens om te helpen meedenken. ‘We horen vaak dat wij hier ver mee zijn’, zegt Leijen. ‘Niet zozeer met het gebruik van AI, maar wel het ethische aspect. Grote bedrijven stappen niet zo snel op me af, juist andere organisaties. Kijk, ik ga niet aan de grote klok hangen hoe commerciële modellen precies werken. Maar wel hoe je verantwoord om kunt gaan met AI. Voor dat aspect staat onze keuken voor iedereen open.’
Handig: de wekelijkse Forum-alert
Handig: de wekelijkse Forum-alert