- Home >
- Services >
- Access to Knowledge >
- Trend Monitor >
- Type of Threat or Opportunity >
- Trend snippet: The potential use of artificial intelligence (AI) by the Royal Netherlands Marechaussee (military police) for various applications, highlighting the legal and ethical challenges around transparency, explainability, and the need for updated legal framework
Trends in Security Information
The HSD Trendmonitor is designed to provide access to relevant content on various subjects in the safety and security domain, to identify relevant developments and to connect knowledge and organisations. The safety and security domain encompasses a vast number of subjects. Four relevant taxonomies (type of threat or opportunity, victim, source of threat and domain of application) have been constructed in order to visualize all of these subjects. The taxonomies and related category descriptions have been carefully composed according to other taxonomies, European and international standards and our own expertise.
In order to identify safety and security related trends, relevant reports and HSD news articles are continuously scanned, analysed and classified by hand according to the four taxonomies. This results in a wide array of observations, which we call ‘Trend Snippets’. Multiple Trend Snippets combined can provide insights into safety and security trends. The size of the circles shows the relative weight of the topic, the filters can be used to further select the most relevant content for you. If you have an addition, question or remark, drop us a line at info@securitydelta.nl.
visible on larger screens only
Please expand your browser window.
Or enjoy this interactive application on your desktop or laptop.
The potential use of artificial intelligence (AI) by the Royal Netherlands Marechaussee (military police) for various applications, highlighting the legal and ethical challenges around transparency, explainability, and the need for updated legal framework
The text explores several potential AI applications being explored by the Royal Netherlands Marechaussee (military police):
Virtual Border Guard
The Marechaussee is investigating the use of AI for automated border control and threat detection at borders. This raises challenges around ensuring transparency and explainability of the AI decision-making process, as these systems will directly impact citizens.
Autonomous Robotics
The Marechaussee is exploring the use of autonomous robots for repetitive or dangerous duties, such as patrolling. In these cases, the need for transparency is less critical as the robots do not directly interact with citizens.
Sensor Analysis
The Marechaussee is using AI-powered sensor analysis to build threat assessments. While some level of explainability is still required, the impact on citizens is less direct compared to decision-making systems.
Legal and Ethical Considerations
The text highlights several key legal and ethical challenges in the use of AI by the Marechaussee:
- Lack of Specific Legal Frameworks
Existing legal frameworks, such as the Police Data Act, provide some guidance but are not fully adapted to the nuances of AI-based decision-making. This results in organisations relying on self-imposed guidelines, and a need for further legal development through case law.
- Transparency and Explainability
The complexity of AI models makes it challenging to explain how decisions are made, which is important for ensuring accountability and allowing affected individuals to defend themselves. There is a trade-off between the accuracy of complex AI models and the need for simple, explainable algorithms when directly impacting citizens' lives.
- Ethical Considerations
Executing police duties with AI requires upholding public values and principles, such as proportionality, which is not yet a natural part of the police's data and AI-related practices. Controlled experimentation and active discussion of existing legal frameworks are needed to overcome the current impasse and ensure the responsible use of AI in the security domain.
In summary, the text provides a comprehensive overview of the Marechaussee's exploration of AI applications, highlighting the key legal and ethical challenges around transparency, explainability, and the need for updated legal frameworks to govern the responsible use of AI in the security domain.
Inhoud
Marc Schuilenburg en Melvin Soudijn AI-criminaliteit: een verkenning van actuele verschijningsvormen 12
Wouter Landman Samenwerken met politiemachines. Politievakmanschap in het tijdperk van artificiële intelligentie 30
Jorrit Bootsma en Mariel van Staveren Op verkenning in de digitale frontlinie: de mogelijke toepassingen van kunstmatige intelligentie bij de Koninklijke Marechaussee 47
Margriet Mutsaers en Maaike Kempes Wat kan artificiële intelligentie betekenen voor de kwaliteit van de forensische advisering? 62
Emmeke Veltmeijer, Erik van Haeringen en Charlotte Gerritsen Geautomatiseerde herkenning en voorspellen van emoties voor crowdcontrol: kansen en risico’s 79
Gabriele Jacobs, Friso van Houdt, ginger coons, Max van Meerten en Tijn Kuyper Democratische uitdagingen van AI-toepassingen in het Living Lab Scheveningen 96
Marc Steen Ethische aspecten bij het ontwikkelen en toepassen van AI. Een methode voor reflectie en deliberatie 109
Martijn Wessels, Jeroen van Rest, Liisa Janssens, Jesper van Putten en Ron Boots Is meer écht wel beter? Technische, organisatorische en juridische overwegingen bij het opschalen van AItoepassingen binnen het veiligheidsdomein 127
Marc Schuilenburg en Melvin Soudijn AI-criminaliteit: een verkenning van actuele verschijningsvormen
In dit artikel geven we op basis van een uitgebreide literatuurstudie een overzicht van de meest actuele verschijningsvormen van AI-criminaliteit. Hiertoe onderscheiden we drie vormen van AI-criminaliteit: (1) met AI, (2) gericht op AI en (3) door AI. Voordat we ingaan op deze indeling bespreken we eerst hoe AI het veiligheidsdomein verandert. Vervolgens gaan we in op de resultaten van het literatuuronderzoek naar AI-criminaliteit. In de conclusie duiden we de verschillen tussen AI-criminaliteit en cybercrime en bespreken we tot welke vragen en uitdagingen AI-criminaliteit leidt voor de preventie en opsporing ervan.
Wouter Landman Samenwerken met politiemachines. Politievakmanschap in het tijdperk van artificiële intelligentie
Het gebruik van artificiële intelligentie (AI) in de uitvoering van politiewerk zorgt voor een verandering in de rol die digitale technologie in het politiewerk speelt. Die rol is van oudsher ondersteunend en wordt steeds meer vormend: door AI beweegt digitale technologie zich van de randen naar de kern van het politiewerk. Dit wil zeggen dat processen van betekenisgeving van politiemensen in toenemende mate worden versterkt én worden overgenomen door AI. De politiemachine gaat ten opzichte van de politiemens een grotere rol spelen in de uitvoering van politiewerk. Dit vraagt op onderdelen ander vakmanschap van uitvoerende politiemensen. In dit artikel ga ik in op dit politievakmanschap. Ik behandel eerst de impact van AI op werk in algemene zin en verken dan de gevolgen voor politiewerk en politievakmanschap
Jorrit Bootsma en Mariel van Staveren Op verkenning in de digitale frontlinie: de mogelijke toepassingen van kunstmatige intelligentie bij de Koninklijke Marechaussee
Dit artikel beoogt inzicht te geven in mogelijke toepassingen van AI binnen de Koninklijke Marechaussee. Hiervoor is het belangrijk om de taken van de Marechaussee voor ogen te hebben. De Koninklijke Marechaussee waakt over de veiligheid van het Koninkrijk der Nederlanden.4 Zij heeft drie hoofdtaken. De eerste is de grenspolitietaak: het bestrijden van grensoverschrijdende criminaliteit zoals terrorisme, drugssmokkel, identiteitsfraude en mensensmokkel. De tweede is bewaken en beveiligen: het beveiligen van objecten, personen en diensten die van cruciaal belang zijn voor de Nederlandse Staat. Ondanks dat de Marechaussee onderdeel is van Defensie voert zij de eerste twee taken uit onder gezag van het Ministerie van Justitie en Veiligheid. De derde taak betreft internationale en militaire politietaken: de Marechaussee treedt op als politie voor alle Nederlandse Defensie-onderdelen, ook in het buitenland en in conflictgebieden en in Nederland gevestigde internationale militaire hoofdkwartieren. Het takenpakket van de Marechaussee is zeer divers, zo ook de mogelijke toepassingen van AI. Om de mogelijke toepassingen te onderzoeken voert de Marechaussee diverse experimenten uit. Drie experimenten worden in dit artikel behandeld. Tot slot komen de uitdagingen vanuit het perspectief van de mogelijke toepassingen aan bod.
Margriet Mutsaers en Maaike Kempes Wat kan artificiële intelligentie betekenen voor de kwaliteit van de forensische advisering?
In dit artikel gaan we in op de ervaringen met een exploratief onderzoek naar de mogelijkheden van door TNO ontwikkelde programmatuur voor de ondersteuning van de indicatiestelling voor klinische forensische zorg door het NIFP. Dat betreft een relatief overzichtelijk proces, op basis van reeds bestaande diagnostiek. Het doel was om daarvoor een prototype van een beslissingsondersteunend instrument te formuleren. Dit zou niet alleen opzoekwerk kunnen overnemen van de indicatiestellers, maar ook hun beoordeling moeten faciliteren. Om de uitkomsten van het project te kunnen begrijpen, gaan we eerst in op de taakstelling van indicatiestelling klinische forensische zorg en de aard van de beslissing, en daarna op de opzet, randvoorwaarden en uitvoering van het onderzoek. Vervolgens worden de opbrengst en lessen besproken. In de slotparagraaf beschrijven we hoe deze lessen kunnen worden verbreed naar de toepassing van AI in andere beslisprocessen in het justitiële veld en de ontwikkeling daarvan.
Emmeke Veltmeijer, Erik van Haeringen en Charlotte Gerritsen Geautomatiseerde herkenning en voorspellen van emoties voor crowdcontrol: kansen en risico’s
Emoties liggen ten grondslag aan groepsgedrag (Ngo e.a. 2016; Martin 2006), wat een mogelijke oplossing voor dit probleem kan zijn: het analyseren van emoties van de menigte kan worden ingezet om gedrag te voorspellen of vroegtijdig te herkennen, zodat indien nodig op tijd ingegrepen kan worden (Holder & Tapamo 2018). Binnen ons onderzoek aan de Vrije Universiteit Amsterdam hebben we daarom de focus gelegd op het automatisch analyseren van emoties in mensenmenigtes, in plaats van direct naar groepsgedrag te kijken. Het doel is om een digitaal AI-gebaseerd systeem voor crowdcontrol te ontwikkelen dat op basis van de dynamiek van de emoties van de menigte op een intelligente manier kan interveniëren. Er kunnen hierbij drie belangrijke stappen worden onderscheiden, namelijk (1) het meten van emoties op het huidige tijdstip, (2) het voorspellen van de verdere ontwikkeling van de emoties en (3) het ingrijpen op basis van deze voorspelde ontwikkeling. In dit artikel wordt uitgelegd wat de huidige stand van zaken is met betrekking tot het onderzoek rondom stap 1 en 2. De derde stap, het ontwikkelen van een interventie, valt daarmee buiten de reikwijdte van het artikel.
Gabriele Jacobs, Friso van Houdt, ginger coons, Max van Meerten en Tijn Kuyper Democratische uitdagingen van AI-toepassingen in het Living Lab Scheveningen
Voor de ontwikkeling van democratische en inclusieve AI-oplossingen geldt hetzelfde als voor alle grote maatschappelijke uitdagingen. Geen enkele actor kan op eigen kracht inclusieve oplossingen ontwikkelen (George e.a. 2016). Het vereist cocreatie op alle niveaus van de samenleving. Multistakeholder-samenwerkingsverbanden tussen de publieke en private sector, maar ook academici, activisten en ngo’s moeten nieuwe benaderingen van complexe problemen ontwerpen (Schütz e.a. 2019). Inclusieve cocreatie van AI heeft dus veel ‘kritische vrienden’ (Becker 2023) nodig. Dergelijke kritische vrienden schuwen moeilijke discussies en confronterende vragen niet, maar delen het gemeenschappelijke belang om een democratische, duurzame, veilige en eerlijke samenleving voor iedereen te creëren (Jacobs e.a. 2024). We schrijven deze bijdrage in een diverse auteursgroep van praktijkmensen en academici, met als doel onze kritische vriendschap rond de ontwikkeling van AI-toepassingen in het Living Lab Scheveningen (LLS) vorm te geven. In dit artikel willen we aan de hand van het voorbeeld van het LLS verkennen hoe ‘inclusieve AI’ eruit zou kunnen zien. De resultaten en reflecties die wij hier presenteren, komen voort uit een onderzoeksproject waar alle vijf de auteurs momenteel bij betrokken zijn (AI-MAPS1 ). Gezamenlijk onderzoeken wij de ethische, juridische en maatschappelijke aspecten van (experimentele en gerealiseerde) AI-toepassingen op het gebied van publieke veiligheid en de (democratische) uitdagingen daarvan. We geven eerst een korte beschrijving van nieuwe methoden en technieken van onderzoek, en vervolgens zoomen we in op concrete AItoepassingen op het gebied van veiligheid in het LLS. We sluiten dit artikel af met een verkenning van de uitdagingen van de ontwikkeling en implementatie van AI-toepassingen op het gebied van veiligheid.
Marc Steen Ethische aspecten bij het ontwikkelen en toepassen van AI. Een methode voor reflectie en deliberatie
In dit artikel zullen we ons richten op de systemen en algoritmen die de overheid op dit moment gebruikt (Van Veenstra e.a. 2021a). Dat zijn meestal relatief eenvoudige algoritmen, vergeleken met state-ofthe-art systemen op basis van deep learning, waarbij een ‘artificial neural network’ wordt getraind op basis van enorme hoeveelheden data, zoals ChatGPT. Denk ook aan een algoritme dat het Centraal Justitieel Incassobureau (CJIB) gebruikt om in te schatten of iemand een boete wel of niet zal betalen, zodat het CJIB diegene kan helpen om niet (verder) in de schulden te komen.1 Zo’n algoritme is gebaseerd op relatief eenvoudige als-dan-regels, bijvoorbeeld: als [vorige bekeuringen keurig betaald], dan [stuur standaard herinnering]. Die eenvoud heeft voordelen, bijvoorbeeld voor de transparantie. Zo kun je als ontwikkelaar, als uitvoerend ambtenaar, en zelfs als burger redelijk gemakkelijk inzicht krijgen in hoe het algoritme werkt; je kijkt daarvoor naar die als-dan-regels. Bij deep learning is dat een heel ander verhaal. In ChatGPT bepalen miljarden parameters in een ‘artificial neural network’ de werking van het systeem. Niemand kan precies volgen hoe het werkt in detail; ‘als het maar werkt’ is het motto. Echter, in een gevoelig domein zoals Justitie en Veiligheid is transparantie een belangrijk vereiste. Je moet kunnen uitleggen hoe de beslissingen die worden genomen op basis van een berekening van een AI-systeem tot stand zijn gekomen hoe het systeem (ongeveer) werkt, welke data erin gingen, hoe de berekening (ongeveer) verloopt, en wat daarom de uitkomst is. In de volgende paragraaf behandelen we enkele ethische aspecten die spelen bij het ontwikkelen en toepassen van AI-systemen. Vervolgens bespreken we een methode waarmee mensen met verschillende achtergronden met elkaar in gesprek kunnen gaan over deze aspecten: een iteratief en participatief proces van reflectie en deliberatie. Tot slot wordt de meerwaarde besproken van transdisciplinaire samenwerking en deugdethiek voor het organiseren van dergelijke bijeenkomsten. Het doel van dit artikel is het ondersteunen van mensen die betrokken zijn bij het ontwikkelen en toepassen van AI-systemen bij het integreren van ethische aspecten in hun projecten.
Martijn Wessels, Jeroen van Rest, Liisa Janssens, Jesper van Putten en Ron Boots Is meer écht wel beter? Technische, organisatorische en juridische overwegingen bij het opschalen van AItoepassingen binnen het veiligheidsdomein
In deze bijdrage zetten wij allereerst uiteen wat wordt bedoeld met AItoepassingen en introduceren wij de centrale casus: geweldsdetectie in camerabeelden. In de paragrafen erna gaan wij in op de verschillende vormen van opschaling die in de literatuur worden onderscheiden, en op de organisatorische, technische en juridische aspecten die van belang zijn om mee te nemen in opschalingsvraagstukken en -besluiten. In het laatste deel van deze bijdrage reflecteren wij op de complexiteit om publieke waarden te versterken via opschaling. Wij staan stil bij drie centrale publieke waarden: efficiëntie, effectiviteit en verantwoording (accountability). Efficiëntie en effectiviteit zijn aspecten die worden genoemd als ‘stuwende beginselen’ voor de inzet van technologie (WRR 2011, p. 74), en zo ook voor de inzet van AI. Accountability is een ‘procesmatig beginsel’ waarlangs de inzet van dergelijke toepassingen moet plaatsvinden (WRR 2011, p. 74), en die ook onder druk kan komen te staan door het opschalen van AI-toepassingen. Deze publieke waarden zijn bepalend voor de wenselijkheid om AItoepassingen op te schalen. Uiteraard zijn meerdere waarden en beginselen van belang bij de inzet van technologie en AI (bijv. nondiscriminatie en dataprotectie), maar die worden in deze bijdrage buiten beschouwing gelaten.