- Home >
- Services >
- Access to Knowledge >
- Trend Monitor >
- Source of threat >
- Trend snippet: Responsible AI: Connecting the ethics of AI with technological practice
Trends in Security Information
The HSD Trendmonitor is designed to provide access to relevant content on various subjects in the safety and security domain, to identify relevant developments and to connect knowledge and organisations. The safety and security domain encompasses a vast number of subjects. Four relevant taxonomies (type of threat or opportunity, victim, source of threat and domain of application) have been constructed in order to visualize all of these subjects. The taxonomies and related category descriptions have been carefully composed according to other taxonomies, European and international standards and our own expertise.
In order to identify safety and security related trends, relevant reports and HSD news articles are continuously scanned, analysed and classified by hand according to the four taxonomies. This results in a wide array of observations, which we call ‘Trend Snippets’. Multiple Trend Snippets combined can provide insights into safety and security trends. The size of the circles shows the relative weight of the topic, the filters can be used to further select the most relevant content for you. If you have an addition, question or remark, drop us a line at info@securitydelta.nl.
visible on larger screens only
Please expand your browser window.
Or enjoy this interactive application on your desktop or laptop.
Responsible AI: Connecting the ethics of AI with technological practice
-Focus on the pursuit of social values
-The business community takes joint responsibility for social innovation
-Knowledge institutions provide responsible AI education and research
-Introduce ethical guidance and regulation
-Organize ethics from the perspective of citizens and stakeholders
-Connect AI with sustainability
-Support wide access to responsible and meaningful solutions
Verantwoorde AI: van principes naar praktijk In de veelheid aan ethische analyses en kaders rondom Artificiële Intelligentie6 komt steevast een aantal kernthema’s terug. Allereerst draait de discussie vaak om eerlijkheid en rechtvaardigheid: algoritmes kunnen bevooroordeeld zijn, door hun eigen ontwerp of door de data waarmee ze getraind zijn, en een onrechtvaardige impact op de samenleving hebben. Een tweede centraal thema is aansprakelijkheid: in hoeverre is het mogelijk mensen aansprakelijk te houden voor het functioneren en de impact van AIsystemen, bijvoorbeeld voor besluiten die mede genomen zijn op basis van AI? Daarnaast zijn transparantie en uitlegbaarheid belangrijke ethische issues: in welke mate kan een systeem uitleggen hoe het tot zijn conclusies is gekomen, zodat mensen kunnen overzien op grond waarvan ze het systeem en de onderliggende data kunnen vertrouwen, ook als die data zelf onvolledig en onbetrouwbaar zijn? En tenslotte wordt ook de veiligheid van de systemen vaak benoemd: in hoeverre zijn ze betrouwbaar en bestand tegen vijandig gebruik (‘dual use’) en is de mens vaardig genoeg om goed met AI-systemen om te gaan? Ethische issues als deze zijn sterk gericht op het beschermen van de menselijke autonomie tegen de nieuwe vorm van ‘autonomie’ die de techniek ontwikkelt: is er nog voldoende menselijke controle mogelijk, en sluit het systeem de mens of groepen mensen niet teveel buiten in bepaalde gevallen? Er is echter ook een hele categorie ethische vragen die hier buiten valt. Die richten zich minder op het individu, en meer op de gemeenschap. Inclusie is zo’n thema: hoe waarborgen we participatie en diversiteit in onze samenleving? Welzijn is een ander voorbeeld: hoe ontwikkelen we AI die een positieve bijdrage levert aan het floreren van de gehele samenleving? Ook deze thema’s verdienen expliciete ruimte in het debat. Na een periode van het formuleren van kaders, principes en uitgangspunten is het nu tijd om de ethiek concreet te verbinden met de praktijk. Dat vereist een andere invulling van ethiek dan het klassieke beeld van de ‘ethische toetsing’. Al te vaak wordt ethiek geassocieerd met een soort externe beoordeling, zoals een medisch-ethische toetsingscommissie beoordeelt of een bepaald onderzoek wel of niet uitgevoerd mag worden. Maar de ethiek van Artificiële Intelligentie moet zich juist met de techniek verbinden. Het gaat erom het samenspel tussen AI, data, mens en maatschappij op een goede manier te begeleiden, en in een participatief proces te zoeken naar zinvolle en verantwoorde toepassingen. Door te identificeren welke impact concrete AI-systemen en de onderliggende data kunnen hebben op mens en maatschappij, en de waarden die daarbij in het geding zijn een plek te geven in het ontwerp, de maatschappelijke inbedding en het gebruik van die systemen. Op deze manier blijft het ontwikkelen van mensgerichte en maatschappelijk verantwoorde AI op basis van eerlijke data niet bij het formuleren van algemene principes, maar wordt ethiek concreet verbonden met de technologische praktijk: het leidt tot een ethiek ‘van binnenuit’ en niet alleen ‘van buitenaf’. Bovendien krijgt ethiek hierdoor niet alleen een negatieve, maar ook een positieve rol: naast het formuleren van de grenzen van wat we niet willen, richt ze zich op het formuleren van de voorwaarden/handelingsopties om te bereiken wat we wel willen.
Naar ethisch verantwoorde en maatschappelijk zinvolle toepassingen: een oproep Om AI en de onderliggende data te verankeren in ethisch verantwoorde en maatschappelijk zinvolle toepassingen is een nieuwe aanpak nodig, en nauwe afstemming tussen alle betrokken partijen. We stellen daarom de volgende acties voor:
1. Stel het streven naar maatschappelijke waarden centraal Om AI-toepassingen ethisch verantwoord en maatschappelijk zinvol te maken is het belangrijk om uit te gaan van een goede identificatie van de sociaal-maatschappelijke problemen en uitdagingen die een brede welvaart in de weg staan. Voorbeelden hiervan zijn armoede, onveiligheid, kans-ongelijkheid, arbeidsmarkt-uitsluiting, eenzaamheid, lichamelijk ongemak en onderwijs-barrières. Verzamel data, kennis en inzichten in deze onderliggende problematiek en valideer deze zodat ze erkend worden. Stel de inzichten ter beschikking in een open context om partijen die aan innovaties werken de kans te geven zinvolle oplossingsrichtingen te exploreren en te exploiteren.
2. Het bedrijfsleven neemt medeverantwoordelijkheid voor maatschappelijke innovatie Om deze gezamenlijke agenda te realiseren is het van belang dat het bedrijfsleven zich committeert aan ‘Responsible Innovation’. Innovatie is dan niet alleen technologie-gedreven maar ook maatschappijgedreven. Daarin verdienen juist publieke waarden een centrale rol: digitale technologie is gaan behoren tot de vitale infrastructuur van samenlevingen overal ter wereld, en kan daarom niet uitsluitend vanuit private waarden worden vormgegeven. Al in het ontwerp en de ontwikkeling van AI-systemen dient ethiek een rol te spelen. Om dit te kunnen realiseren is nauwe samenwerking nodig met wetenschappers op het gebied van AI, data en ethiek en met maatschappelijke organisaties uit de sectoren waarvoor AI-systemen ontwikkeld worden. Ethiek van binnenuit, niet van buitenaf.
3. Kennisinstellingen zorgen voor verantwoord AI onderwijs en onderzoek De wetenschap en de kennisinstellingen zouden zich moeten richten op verantwoorde onderwijs en onderzoekspraktijken: omdat AI zowel is gebaseerd op wetenschappelijk onderzoek als ook een belangrijke rol speelt in de hedendaagse wetenschappelijke praktijk, dienen de kaders voor wetenschappelijke integriteit en kwaliteit te worden bijgesteld in interactie met de nieuwe mogelijkheden die AI biedt. Datasets moeten op een eerlijke en transparante manier worden samengesteld en algoritmes moeten ze op een uitlegbare manier bewerken. Van waarde-vrije wetenschap naar waardevolle wetenschap.
4. Introduceer ethische begeleiding en regulering Voor het verantwoord inbedden van AI-systemen in de samenleving draagt de overheid een bijzondere verantwoordelijkheid. Wet- en regelgeving dient afgestemd te zijn op de nieuwe uitdagingen waar AI de samenleving voor stelt, en dat vergt ruimte voor experiment en dynamiek. Daarnaast vraagt mensgerichte AI om het stimuleren van normatieve analyse en reflectie in de praktijken zelf waar AIsystemen en de onderliggende data worden ingebed, zodat de ethiek concreet wordt ingezet voor herontwerp, maatschappelijke implementatie en verantwoord gebruik. AI en data hebben bovendien invloed op het functioneren van de overheid zelf: AI-systemen helpen de overheid de samenleving te analyseren en beslissingen te nemen. Dat vergt bijzondere aandacht voor de impact van AI en de kwaliteit van data op het functioneren van de democratie, en op de manier waarop politieke kwesties worden benaderd, gerepresenteerd en geanalyseerd. Een ethiek van begeleiding, niet van beoordeling.
5. Organiseer ethiek vanuit burgers en betrokkenen De stem van de burger is onvoldoende aanwezig in debatten over AI en data. In het maatschappelijke debat zijn het vooral maatschappelijke organisaties en intellectuelen die het woord nemen, en niet de burger en de professional die de impact van AI in het dagelijks leven en werken heel direct en concreet ervaart. Deze stem van burgers en betrokkenen zou expliciet moeten worden verbonden met die van wetenschap, overheid en bedrijfsleven. Zoals ‘co-design’ of ‘design thinking’ heel gebruikelijk is geworden in het ontwerpveld (waarom zou de ontwerper beter weten wat de gebruiker wil dan de gebruiker zelf?), en zoals in de wetenschap ‘burgerwetenschap’ sterk in opkomst is (waarom zouden wetenschappers een monopolie hebben op het doen van wetenschappelijk onderzoek?), zo zou de ethiek zich expliciet moeten richten op ‘burgerethiek’, waar het AI betreft. In de aanpakbegeleidingsethiek zijn mooie eerste resultaten bereikt doordat zorgprofessionals en patiënten een ethische dialoog over AI en data in de zorg zijn aangegaan. Welke concrete ethische vragen en zorgen hebben burgers ten aanzien van concrete toepassingen van AI en data? En hoe kunnen we die verbinden met onderzoek, innovatie, beleid en hun/ons eigen gedrag? Een ethiek van onderop, niet van bovenaf.
6. Verbind AI met Duurzaamheid Steeds vaker wordt een vijfde element toegevoegd aan de quadrupel helix: de natuur en de toekomst van onze planeet. Om op een goede manier vorm te geven aan de samenleving dient AI niet alleen mensgericht maar ook natuurgericht te zijn. Ecosystemen zijn kwetsbaar en de mensheid met hen. AI en de onderliggende data hebben een substantiële impact op die systemen, vanwege de grondstoffen waarmee computers worden gebouwd en de energie die AI-systemen en dataopslag consumeren, maar ook vanuit de manier waarop AI-systemen en data het mogelijk maken klimaatsystemen beter te begrijpen en klimaatproblemen te voorspellen, analyseren en tegemoet te treden. Van quadrupel helix naar quintupel helix, en naar duurzame, mensgerichte AI.
7. Ondersteun en stimuleer brede toegankelijkheid van verantwoorde en zinvolle oplossingen Om de doelstelling van brede welvaart te realiseren, is het belangrijk dat de AI-oplossingen die bedacht en ontwikkeld worden leiden tot een verantwoord gebruik van AI ook in commerciële toepassingen en dat deze kunnen worden opgeschaald tot proporties die alle inwoners bereiken en insluiten. Iedereen moet erop kunnen vertrouwen dat AI-systemen verantwoord worden ontworpen en gereguleerd, en kunnen profiteren van de positieve bijdrage die AI-systemen kunnen leveren aan ons welzijn en onze welvaart.
Met de bovenstaande zeven aanbevelingen zetten we in op Mensgerichte Artificiële Intelligentie voor een brede samenleving en welvaart. We nodigen u uit om ze kritisch onder de loep te nemen in het licht van snelle ontwikkelingen rond het gebruik van AI. Belangrijke vragen die u zich daarbij kunt stellen zijn: wat is AI en wat is er goed aan? Hoe krijgen we het beter met AI en waar trekken we de grens? Hoe benutten we de mogelijkheden van AI zonder de balans te verstoren tussen individuele vrijheid en collectieve waarden en rechten? Hoe reguleren we het gebruik van AI in toepassingen met de juiste machtsverhoudingen tussen bedrijven, overheden en burger? Omdat AI een nieuw interdisciplinair innovatiedomein is, dat ons dagelijks leven, zorgen, leren en werken in de samenleving ingrijpend zal veranderen, willen wij als Nederlanders graag zelf bepalen vanuit welke Nederlandse cultuur en waarden we willen omgaan met AI-ontwikkelingen en dit vraagt om een brede maatschappelijke dialoog.