- Home >
- Services >
- Access to Knowledge >
- Trend Monitor >
- Domain of Application >
- Trend snippet: The rise of AI ethics in The Netherlands
Trends in Security Information
The HSD Trendmonitor is designed to provide access to relevant content on various subjects in the safety and security domain, to identify relevant developments and to connect knowledge and organisations. The safety and security domain encompasses a vast number of subjects. Four relevant taxonomies (type of threat or opportunity, victim, source of threat and domain of application) have been constructed in order to visualize all of these subjects. The taxonomies and related category descriptions have been carefully composed according to other taxonomies, European and international standards and our own expertise.
In order to identify safety and security related trends, relevant reports and HSD news articles are continuously scanned, analysed and classified by hand according to the four taxonomies. This results in a wide array of observations, which we call ‘Trend Snippets’. Multiple Trend Snippets combined can provide insights into safety and security trends. The size of the circles shows the relative weight of the topic, the filters can be used to further select the most relevant content for you. If you have an addition, question or remark, drop us a line at info@securitydelta.nl.
visible on larger screens only
Please expand your browser window.
Or enjoy this interactive application on your desktop or laptop.
The rise of AI ethics in The Netherlands
Het vitale belang van verantwoorde AI Artificiële Intelligentie (AI) is zonder enige twijfel de meest invloedrijke technologie van dit moment. Van de rechtspraak tot het onderwijs, van de zorg tot het openbaar bestuur, en van ons dagelijks internetgebruik tot de journalistiek: overal in de samenleving spelen algoritmes een steeds grotere rol in ons doen en laten. Die invloed wordt zowel bejubeld als gevreesd. AI kan een positieve invloed hebben op de maatschappij en de economie, maar heeft ook een keerzijde. Zitten er geen vooroordelen ingebakken in algoritmes en data, en wordt er niemand buitengesloten? Kunnen mensen nog wel overzien hoe AI-systemen werken, en verantwoordelijkheid nemen voor beslissingen die ze nemen op basis van AI? Deze grote impact van AI op mens en maatschappij brengt een bijzondere verantwoordelijkheid met zich mee. Zowel voor de ontwerpers en ontwikkelaars van AI-systemen als voor de toepassers en gebruikers ervan. Hoe kunnen we AI-systemen verantwoord ontwerpen? Hoe kunnen we bepalen of deze systemen verantwoorde data gebruiken? En hoe kunnen we ze op een goede manier maatschappelijk inbedden en gebruiken? Het belang van deze vragen wordt breed herkend en in 2019 was er bijna geen branche, regering, bedrijf dat niet een ethische code had opgesteld. Het jaar 2019 is de boeken al ingegaan als het jaar van de AI-ethiek.1 Ook in de internationale verhoudingen is het streven naar ‘verantwoorde AI’ van cruciaal belang. In de mondiale concurrentiestrijd profileert Europa zich immers steeds nadrukkelijker als ‘derde weg’, naast de kapitalistische benadering van ‘Big Tech’ in het Westen en de centralistische benadering van staatscontrole in het Oosten. In deze derde weg staat de mens centraal. Niet alleen commerciële belangen van bedrijven of de behoefte van de staat om de samenleving te kunnen sturen vormen hier de drijvende kracht, maar de ambitie om AI te verbinden met menselijke waarden. Mensgerichte AI als de derde weg, een weg die Oost en West met elkaar verbindt, en AI ten dienste van de gehele mensheid wil stellen. Nederland heeft de potentie om een kernspeler te zijn in deze derde weg. Het wetenschappelijk onderzoek op AI-gebied is van hoog niveau en Nederland kent veel succesvolle AI-gerelateerde bedrijven. Het poldermodel van de Nederlandse economie vormt bovendien een uitstekende basis om overheid, wetenschap, bedrijfsleven en de samenleving met elkaar te verbinden. Daarnaast heeft het Nederlandse onderzoek op het gebied van Maatschappelijk Verantwoord Innoveren (MVI) en de ethiek van technologie een mondiale toppositie.2 In de Nederlandse aanpak wordt ethiek sterk verbonden met technologisch ontwerp: ethische reflectie mondt niet alleen uit in mooie beschouwingen maar slaat ook neer in de technologie zelf. Deze pragmatische aanpak biedt een solide basis om niet alleen ethisch te praten over AI, maar om AI ook ethisch vorm te geven. Daarbij gaat het niet alleen om de algoritmes, maar ook om de vraag hoe, waar en door wie ze worden toegepast. Gebeurt dat rechtvaardig, met respect en met solidariteit? Algoritmes worden bovendien altijd getraind met data. Eerlijke algoritmes vergen dan ook representatieve trainingsdata.3 Het wordt dan ook tijd om deze unieke kracht van Nederland optimaal te benutten voor mensgerichte Artificiële Intelligentie. Om dat duidelijk te maken laten we hieronder allereerst zien op welke manier AI de samenleving aan het veranderen is en wat daarin de uitdagingen zijn: we zitten in de ‘vierde industriële revolutie’, die tot de ‘vijfde samenleving’ leidt. Wij pleiten vervolgens voor een benadering waarin AI-systemen worden ontwikkeld vanuit een ethisch verantwoord en maatschappelijk zinvol perspectief. Tot slot verbinden we die benadering met de rollen die alle partijen in de ‘quadrupel helix’ kunnen spelen – overheid, bedrijfsleven, wetenschap en de burger – om zodoende een duurzame en verantwoorde basis voor welvaart en welzijn te realiseren.
Verantwoorde AI: van principes naar praktijk In de veelheid aan ethische analyses en kaders rondom Artificiële Intelligentie6 komt steevast een aantal kernthema’s terug. Allereerst draait de discussie vaak om eerlijkheid en rechtvaardigheid: algoritmes kunnen bevooroordeeld zijn, door hun eigen ontwerp of door de data waarmee ze getraind zijn, en een onrechtvaardige impact op de samenleving hebben. Een tweede centraal thema is aansprakelijkheid: in hoeverre is het mogelijk mensen aansprakelijk te houden voor het functioneren en de impact van AIsystemen, bijvoorbeeld voor besluiten die mede genomen zijn op basis van AI? Daarnaast zijn transparantie en uitlegbaarheid belangrijke ethische issues: in welke mate kan een systeem uitleggen hoe het tot zijn conclusies is gekomen, zodat mensen kunnen overzien op grond waarvan ze het systeem en de onderliggende data kunnen vertrouwen, ook als die data zelf onvolledig en onbetrouwbaar zijn? En tenslotte wordt ook de veiligheid van de systemen vaak benoemd: in hoeverre zijn ze betrouwbaar en bestand tegen vijandig gebruik (‘dual use’) en is de mens vaardig genoeg om goed met AI-systemen om te gaan? Ethische issues als deze zijn sterk gericht op het beschermen van de menselijke autonomie tegen de nieuwe vorm van ‘autonomie’ die de techniek ontwikkelt: is er nog voldoende menselijke controle mogelijk, en sluit het systeem de mens of groepen mensen niet teveel buiten in bepaalde gevallen? Er is echter ook een hele categorie ethische vragen die hier buiten valt. Die richten zich minder op het individu, en meer op de gemeenschap. Inclusie is zo’n thema: hoe waarborgen we participatie en diversiteit in onze samenleving? Welzijn is een ander voorbeeld: hoe ontwikkelen we AI die een positieve bijdrage levert aan het floreren van de gehele samenleving? Ook deze thema’s verdienen expliciete ruimte in het debat. Na een periode van het formuleren van kaders, principes en uitgangspunten is het nu tijd om de ethiek concreet te verbinden met de praktijk. Dat vereist een andere invulling van ethiek dan het klassieke beeld van de ‘ethische toetsing’. Al te vaak wordt ethiek geassocieerd met een soort externe beoordeling, zoals een medisch-ethische toetsingscommissie beoordeelt of een bepaald onderzoek wel of niet uitgevoerd mag worden. Maar de ethiek van Artificiële Intelligentie moet zich juist met de techniek verbinden. Het gaat erom het samenspel tussen AI, data, mens en maatschappij op een goede manier te begeleiden, en in een participatief proces te zoeken naar zinvolle en verantwoorde toepassingen. Door te identificeren welke impact concrete AI-systemen en de onderliggende data kunnen hebben op mens en maatschappij, en de waarden die daarbij in het geding zijn een plek te geven in het ontwerp, de maatschappelijke inbedding en het gebruik van die systemen. 7 Op deze manier blijft het ontwikkelen van mensgerichte en maatschappelijk verantwoorde AI op basis van eerlijke data niet bij het formuleren van algemene principes, maar wordt ethiek concreet verbonden met de technologische praktijk: het leidt tot een ethiek ‘van binnenuit’ en niet alleen ‘van buitenaf’. Bovendien krijgt ethiek hierdoor niet alleen een negatieve, maar ook een positieve rol: naast het formuleren van de grenzen van wat we niet willen, richt ze zich op het formuleren van de voorwaarden/handelingsopties om te bereiken wat we wel willen.