Trends in Security Information
The HSD Trendmonitor is designed to provide access to relevant content on various subjects in the safety and security domain, to identify relevant developments and to connect knowledge and organisations. The safety and security domain encompasses a vast number of subjects. Four relevant taxonomies (type of threat or opportunity, victim, source of threat and domain of application) have been constructed in order to visualize all of these subjects. The taxonomies and related category descriptions have been carefully composed according to other taxonomies, European and international standards and our own expertise.
In order to identify safety and security related trends, relevant reports and HSD news articles are continuously scanned, analysed and classified by hand according to the four taxonomies. This results in a wide array of observations, which we call ‘Trend Snippets’. Multiple Trend Snippets combined can provide insights into safety and security trends. The size of the circles shows the relative weight of the topic, the filters can be used to further select the most relevant content for you. If you have an addition, question or remark, drop us a line at info@securitydelta.nl.
visible on larger screens only
Please expand your browser window.
Or enjoy this interactive application on your desktop or laptop.
Knowledge and opportunities of artificial intelligence in the security domain
• AI is everything that machines cannot yet do.
• Nuance 'science' and 'fiction' from AI.
• Mirror performance of AI with performance of humans.
• Focus on knowledge and prevent a digital skills gap.
Trends in Veiligheid 2019 beschreef hoe artificial intelligence (AI) geen hype meer is, maar blijvende technologie. Ook de Covid-19 pandemie toont de waarde van data, algoritmes en AI voor de veiligheid van onze samenleving. Overheden en ketenorganisaties, met name in het veiligheidsdomein, experimenteren internationaal met toepassingen van AI. Het gaat dan om toepassingen zoals beeldherkenning, fraudedetectie en criminaliteitvoorspellingen. Ontwikkelingen van nieuwe technologie als AI wekken echter ook onzekerheid en angst op onder de bevolking. AI is voor velen nog nieuw en onbekend. Het onbekende is eng, zeker als dit zowel het persoonlijke leven van burgers als de nationale veiligheid beïnvloedt. Dit wordt versterkt door verhalen in de media over AI-toepassingen die bijvoorbeeld inbreuk maken op privacy – zoals het inzetten van gezichtsherkenning om burgers te monitoren in China. Daarom is het binnen Nederland des te belangrijker dat de overheid introductie en adoptie van AI binnen het veiligheidsdomein in goede banen leidt.
Het publieke debat over AI wordt gevoerd door twee tegenpolen. Enerzijds is technologie als AI noodzakelijk
om de samenleving veiliger te maken. Anderzijds heerst de angst dat AI onze vrijheid en veiligheid beperkt – hetzij door privacy-schendende multinationals, hetzij via big brother-achtige overheden. De werkelijkheid is complexer. Nuance verdwijnt wanneer de bevolking dagelijks wordt gebombardeerd door Hollywood films en (AI-gestuurde) media. Om nog maar te zwijgen over misinformatie en doemscenario’s over het Corona virus of alle misinformatie omtrent Corona Apps en hun mogelijke werking. Slecht nieuws krijgt nu eenmaal meer aandacht. Door alle verhalen over algoritmes en 'foute’ AI die onze vrijheid en veiligheid
bedreigen is het moeilijk de science van de fictie te onderscheiden.
Artificial intelligence is een snel ontwikkelende tak van wetenschap, gericht op het ontwikkelen van algoritmes en machines die menselijk gedrag kunnen nabootsen. Doorbraken in machine learning en data- opslag stellen ons in staat om slimme algoritmes te ontwikkelen. Veel organisaties (publiek en privaat) binnen het veiligheidsdomein passen deze technologieën dagelijks toe om processen te optimaliseren, te voorspellen en kosten te besparen.
Het is belangrijk dat we ons realiseren dat AI werkt op basis van data(sets) en algoritmes – beiden worden door mensen geproduceerd. Met deze data en algoritmen kunnen machines menselijk gedrag nabootsen, zie het als een digitale medewerker.
AI leert snel door goede data, maar deze afhankelijkheid heeft ook een keerzijde. Zonder data van voldoende kwaliteit én kwantiteit zal een AI-toepassing niet erg nauwkeurig zijn. AI bevat in de beginfase veel kinderziektes. Wanneer ingevoerde data bijvoorbeeld niet volledig of representatief is, zie je al snel dat AI tot discriminerende resultaten komt. Dit is extra problematisch binnen het veiligheidsdomein, vanwege de gevoelige data en de impact op het individu. Dergelijke berichten leiden tot wantrouwen in de samenleving. De oorzaak van dit probleem ligt echter niet in de technologie, maar in de (mogelijk onethische) toepassing ervan door mensen.
Ontwikkelaars én bestuurders moeten zich bewust zijn van ethische complicaties om de toepassing van AI te verbeteren en tegelijkertijd verwachtingen te managen. Enerzijds dient de performance van AI goed gemonitord te worden. Dit kan bijvoorbeeld via het 'vier ogen principe', waarbij mensen de besluitvormingsprocedure van de machine controleren en verifiëren. Anderzijds dienen organisaties in het veiligheidsdomein te accepteren en te anticiperen op het feit dat AI fouten kan maken, zeker in het begin. Bovendien is AI nooit 100% foutloos, zoals mensen dat ook niet zijn. Transparantie is een ander groot onderwerp binnen AI. Besluitvorming van AI over bijvoorbeeld de correctheid van je belastingaangifte, risicoprofielen voor fraude of het voorspelde brandgevaar van je woning, dienen verklaarbaar en uitlegbaar te zijn. Ook hier is AI te spiegelen met onszelf. Menselijke (of bestuurlijke) besluitvorming is vaak niet transparant maar achteraf wel uitlegbaar. Hetzelfde geldt voor AI, die beslissingen niet maakt op basis van regels (deterministisch) maar via kansberekeningen. Deze berekeningen zijn vaak moeilijker uitteleggenaanmensendaneenbeslisboom. Eenuitleg vergroot het vertrouwen en daarmee de acceptatie van AI door de gemiddelde burger. Evalueren hoe een AI presteert in vergelijking met de menselijke medewerker, met andere woorden wiens bias minder duidelijk is, nuanceert het debat. De vraag moet niet zijn hoe goed of slecht een AI-toepassing is, maar hoe goed de AI is in vergelijking met de mens.
De AI-discussie wordt gevoed door te veel woorden en te weinig daden. Naast wetgeving en beleid is het van belang ook actief onderzoeksresultaten om te zetten in productie. Experimenten en ‘Proof of Concepts’ met AI hebben weinig betekenis voor de maatschappij totdat deze op schaal toegepast worden. Het verschil wordt gemaakt door ethische inzet van AI en het belichten van de kansen die het biedt. Technologie is een middel, geen doel op zich. Als mensen hebben wij vaak moeite met verandering en AI is hier ook onderdeel van. Zie erop toe dat AI goed ingezet wordt, voor de veiligheid van het individu én de maatschappij.