- Home >
- Services >
- Access to Knowledge >
- Trend Monitor >
- Type of Threat or Opportunity >
- Trend snippet: Experts foresee an AI growth path with three intelligence levels and two important conditions
Trends in Security Information
The HSD Trendmonitor is designed to provide access to relevant content on various subjects in the safety and security domain, to identify relevant developments and to connect knowledge and organisations. The safety and security domain encompasses a vast number of subjects. Four relevant taxonomies (type of threat or opportunity, victim, source of threat and domain of application) have been constructed in order to visualize all of these subjects. The taxonomies and related category descriptions have been carefully composed according to other taxonomies, European and international standards and our own expertise.
In order to identify safety and security related trends, relevant reports and HSD news articles are continuously scanned, analysed and classified by hand according to the four taxonomies. This results in a wide array of observations, which we call ‘Trend Snippets’. Multiple Trend Snippets combined can provide insights into safety and security trends. The size of the circles shows the relative weight of the topic, the filters can be used to further select the most relevant content for you. If you have an addition, question or remark, drop us a line at info@securitydelta.nl.
visible on larger screens only
Please expand your browser window.
Or enjoy this interactive application on your desktop or laptop.
Experts foresee an AI growth path with three intelligence levels and two important conditions
WAAROM AI-PILOTS IN DE PUBLIEKE SECTOR ZO BELANGRIJK ZIJN
Begin door te experimenteren en leren met open data
In dit magazine leest u over de eerste ronde AI pilots in de publieke sector. Soms lijken de mogelijkheden voor AItoepassingen eindeloos. Van een pilot waarbij AI helpt bij het beantwoorden van kamervragen, tot en met de experimenten waarbij AI het onderhoud van bruggen voorspelt. AI kan niet alleen worden ingezet op technisch vlak, maar ook op sociaal vlak. Dat blijkt bijvoorbeeld uit de pilot waarbij AI in de gemeente Den Haag helpt om mensen weer zo snel mogelijk op weg te helpen naar werk, of de pilot van CBS dat werkt aan eerlijke algoritmes
Onderzoeker Nitesh Bharosa snapt de uitdagingen waar AI en de acceptatie daarvan voor staat. Volgens hem is er wel een oplossing. Namelijk, zoveel mogelijk open experimenteren. In dit artikel legt hij uit waarom dit zo belangrijk is, en hoe dit het beste kan worden uitgevoerd. Als wij niet met AI experimenteren, worden wij afhankelijk van de oplossingen uit het buitenland. Stel je voor dat je (na de Corona crisis) met de auto een weekendje naar Parijs wilt rijden. Zou je dat zonder je navigatiesysteem kunnen? Wellicht, al is het ongetwijfeld fijner met een navigatiesysteem als assistent. Op dezelfde manier zoals een navigatiesysteem, maakt AI (als verzamelnaam voor diverse zelflerende technologieën 1 ) een stapsgewijze intrede in ons leven. Niet als vervanger, maar als assistent. Als je Google Maps, Siri, Pinterest, Facebook of een email-spamfilter gebruikt, werk je al (mogelijk onbewust) met AI. Als we deze lijn volgen ga je in de toekomst niet meer je administratie doen en heb je 24/7 de beste digitale dokter direct tot je beschikking (denk aan IBM Watson). Experts 2 voorzien een groeipad met drie intelligentieniveaus: assisted AI (technologie als ondersteuning van menselijke besluitvorming), augmented AI (technologie als verrijking van menselijke capaciteiten) en autonomous AI (technologie als uitvoerder van complexe taken zonder menselijke controle of begeleiding). Een belangrijke voorwaarde voor het doorlopen van dit groeipad is toegang tot betrouwbare data. AI toepassingen hebben data nodig om de algoritmes te trainen, te verbeteren en uit te voeren. De benodigde data is vaak niet bij één organisatie, data deling tussen organisaties en zelfs tussen sectoren is een belangrijke randvoorwaarde voor de ontwikkeling van AI oplossingen.3 Niet gek dat de Europese Commissie (EC) op eenzelfde moment zowel een Datastrategie 4 als een AI strategie 5 heeft gelanceerd. De EC wil de ontwikkeling van AI versnellen en erkent dat er hiervoor meer datadeling nodig is. Gewenste toepassingen van AI zijn toepassingen die bijdragen aan het vergroten van de veiligheid (bijvoorbeeld misdaadbestrijding) en aan een betere kwaliteit van leven (bijvoorbeeld diagnoses in de zorg, stimuleren van een gezonde leefwijze, machines die mensen zwaar werk uit handen nemen). Om hier te komen moeten niet alleen bedrijven, maar ook publieke organisaties data delen en AI benutten ten gunste van de samenleving. Naast datadeling is er nog een randvoorwaarde: draagvlak voor experimenten in de publieke sector. Er is veel data in de publieke sector. En er zijn diverse maatschappelijke uitdagingen in sectoren als zorg, onderwijs, veiligheid en wonen die zich lenen voor de toepassing van AI. Het Strategisch Actieplan AI toont ook de politieke wil om met AI aan de slag te gaan.6 Toch blijkt het moeizaam om op AI gebaseerde oplossingen in de publieke sector te lanceren. Niet zo lang geleden heeft de rechter een AI toepassing voor fraudebestrijding stopgezet.7 Of het nou om zelflerende algoritmen of ‘statische’ dataanalyses gaat, zodra oplossingen het label AI krijgen, ontstaat wantrouwen. Mensen zijn bezorgd over privacy, de vooringenomenheid van algoritmen en mogelijk misbruik door organisaties. AI-oplossingen worden daarnaast gekenmerkt door hun ondoorzichtigheid (black box) — naarmate de algoritmen meer leren wordt het voor mensen steeds onduidelijker hoe de algoritmen leren. Daarmee kunnen de fundamentele rechten van mensen in het geding komen. Vind dan nog maar een bestuurder die durft achter een AI oplossing te staan. Hier komt de catch 22: als niemand het durft te experimenteren, kunnen we niet leren hoe we AI wel effectief kunnen ontwikkelen en inzetten. En als we niet zelf leren en ontwikkelen, komt de technologie steeds meer uit andere delen van de wereld waar andere normen en waarden prevaleren. Bij Digicampus hebben we in samenwerking met de Data Science Initiative dit dilemma vanuit een experimenteer- en leerstrategie aangepakt waarbij ‘open’ het sleutelwoord is. Vanuit de driehoek: overheid, wetenschap en markt zijn we gestart met een AI (machine learning) experiment op basis van open en gestandaardiseerde publieke data over het onderwijsdomein. Hiervoor wordt een open source AI applicatieontwikkeltool gebruikt.8 De datasets, applicaties, instructies, toegepaste data-analysetechnieken en resultaten staan openbaar op Gitlab en zijn voor iedereen toegankelijk en te gebruiken.9 Met deze bottom-up benadering leren we wat mogelijk is en wat niet. Tot dusver hebben we geleerd dat je met een gestandaardiseerde open dataset en open source tooling binnen een dag zelflerende algoritmes kunt ontwikkelen. Het automatisch laten classificeren van typen onderwijsinstellingen gaat behoorlijk accuraat. Algoritmen doen dit veel sneller dan de mens. Maar het automatisch herkennen van patronen op basis van regressie analyses lukt (nog) niet. De experimenten lopen nog tot juni 2020. Deze werkwijze gaan we ook toepassen op open data uit het woondomein. Hierna verkennen we samen met de partijen in de hele dataketen de wensen voor nieuwe experimenteren. Op basis van de geleerde lessen kunnen we — mits er een duidelijke behoefte is — in de toekomst gaan experimenteren met fictieve persoonsgegevens (dummy data). Hierbij is de driehoek niet genoeg, we moeten naar een vierhoek waarmee burgers/gebruikers vanaf het begin betrokken zijn en direct een stem hebben bij het ontwerpen van een AI toepassing. Via methoden als value sensitive design 10 kunnen we met elkaar de ethische vraagstukken rond de toepassing van AI scherp krijgen. Het is essentieel om vooraf publieke waarden in het ontwerp van oplossingen te borgen (public values in design). Tot slot: als je de werking van een AI oplossing niet kunt uitleggen gaan de meeste mensen het niet accepteren. Alleen door transparant te zijn en mensen te betrekken kunnen we de ontwikkeling van AI toepassingen ten gunste voor de samenleving versnellen