Back

Verantwoord inzetten en mythbusting van AI: REAIM Summit

March 06, 2023

“AI heeft het potentieel om een revolutie te ontketenen in hoe oorlogen worden uitgevochten en gewonnen. Maar het brengt ook aanzienlijke risico's en uitdagingen met zich mee. Om misbruik te voorkomen, moeten we internationale richtlijnen opstellen. Het is cruciaal dat we nú actie ondernemen.” Zo opende Wopke Hoekstra, de Nederlandse minister van Buitenlandse Zaken, de REAIM-top over AI in het Defensiedomein… Om vervolgens te onthullen dat de intro van zijn openingsstatement was geschreven door ChatGPT. AI is overal, en het verandert de manier waarop we werken. Oók bij Defensie. Nederland (en Thales!) vindt dat het verantwoord ontwikkelen, inzetten en gebruiken van kunstmatige intelligentie (AI) in het militaire domein hoger op de internationale agenda moet komen. Samen met twee van onze innovatie-experts blikken we terug op het event en kijken we naar de inzet van AI in het militaire domein, plus onze eigen expertise.

REAIM (Responsible AI in the Military Domain) vond plaats op het World Forum in Den Haag en bood een platform voor wereldwijde stakeholders (overheden, industrie, maatschappelijke organisaties, academische instututen en denktanks) om gezamenlijk te kijken naar de kansen, dilemma's en kwetsbaarheden rond militaire AI. Alle workshops, sessies en lezingen waren gebaseerd op een van drie belangrijke, relevante thema's:

1. Mythbusting AI: de kenmerken van AI– wat moeten we weten over de technische aspecten van AI om te begrijpen hoe je het op verantwoorde wijze kan toepassen in een militaire context?

2. Verantwoorde inzet en gebruik van AI: wat betekenen militaire toepassingen van AI in de praktijk? Wat zijn de belangrijkste voordelen en kwetsbaarheden?

3. Bestuurskaders: welke kaders bestaan er om ervoor te zorgen dat AI op een verantwoorde manier wordt toegepast in het militaire domein? Welke aanvullende instrumenten en hulpmiddelen kunnen richtlijnen en regelgeving versterken, en hoe kunnen belanghebbenden bijdragen?

Terminator-frame

Thales Research and Technology director Dr. Michel Varkevisser en senior AI researcher Dr. Gregor Pavlin waren het snel eens over een gedeelde frustratie, die door bijna elke aanwezige AI-professional werd benoemd: het ‘Terminator-frame’ waar de pers vaak mee wegloopt. AI presenteren als killer-robots wordt snel vermoeiend, omdat dit maar één extreem uiterste van het AI-spectrum weergeeft. Dit specifieke frame belemmert zelfs het algemene begrip van AI en geeft geen inzicht in hoe je AI al in het dagelijks leven daadwerkelijk tegenkomt. Het zit in je zoekmachines, TikTok-filters en zelfrijdende auto’s... en is geen zelfbewust, zelfdenkend wezen. Gregor legt uit: "De disproportionele focus op volledig autonome combatmachines kan de nodige aandacht en middelen afleiden van specialistische, beslissingsondersteunende systemen. Daarin kan AI een enorme positieve impact hebben op kritieke beslissingen met anders mogelijk nadelige gevolgen."

Veel defensie-experts die presenteerden tijdens het event, benadrukten die noodzaak naar het gebruik van AI in beslissingsondersteunende systemen te kijken, aangezien het relevanter is in de nabije toekomst. Gregor, zelf panellid in een REAIM-sessie over beslissingsondersteunende systemen en mens-machine-interactie, vervolgt: “In feite wordt AI al gebruikt op verschillende niveaus van besluitvormingsprocessen in verschillende militaire domeinen, wat zijn waarde bewijst bij het automatiseren van back-ups, administratieve taken, logistiek, verwerking van militaire inlichtingen en nog veel meer. Dit vereist onze focus en multidisciplinaire aanpak, zodat we operationele, technische, ethische en juridische uitdagingen op de juiste manier aanpakken. Thales draagt proactief methoden en tools bij, die verantwoorde en efficiënte levenscycli mogelijk maken van betrouwbare AI oplossingen voor decision support systems.”

Multidisciplinaire benadering van AI

De meest gehoorde wens tijdens de REAIM-top was: een multidisciplinaire aanpak bij de ontwikkeling van AI-(ondersteunings)systemen ‘by-design’, rekening houdend met de gehele levenscyclus van dergelijke systemen. Michel beaamt: “By-design betekent dat alle stakeholders (klant, eindgebruikers, juristen, ethici, ontwerpers/ontwikkelaars) bespreken welk(e) probleem(en) in welke context opgelost gaan worden. Zowel een goede probleemdefinitie als contextuele inbedding vergroten de kans dat AI-systemen worden ontwikkeld en gebruikt waarvoor ze bedoeld zijn. Bovendien, als een AI-(ondersteunings)systeem eenmaal goed is getraind en uitgerold, moet je het gebruik en hergebruik van deze systemen monitoren. En de systemen, indien nodig, herevalueren op hun prestaties.”

We vroegen Gregor en Michel wat er volgens hen vaker besproken en onderzocht zou moeten worden rond AI in Defensie. Beide benadrukten de behoefte aan input van alle mogelijke belanghebbenden, en het opstellen van de juiste protocollen om AI-uitvindingen vanuit elke hoek te bekijken. “Bijna alle AI-systemen zullen in de nabije toekomst de operator-in-the-loop hebben en alleen ondersteuning bieden bij het zingevings- of besluitvormingsproces. Tijdens de hele summit werd benadrukt dat menselijke operators in de nabije toekomst nog steeds de uiteindelijke beslissingen zullen nemen, met name tijdens combatsituaties. Dat vraagt om goede protocollen. Daarnaast moeten we natuurlijk ook nadenken over de verantwoording van en regelgeving rond volledig autonome systemen. ‘Responsible AI in the Military Domain’ maakt deel uit van een snel opkomend veld dat uiterst belangrijk is om de kracht van AI op de juiste manier te benutten.”

Naturalistisch besluitvormingsproces

Thales is zich volledig bewust van alle legitieme vragen die spelen rond AI, en werkt aan kunstmatige intelligentie die verantwoordelijk en in staat is om de juiste beslissingen te nemen, waarbij controle en verantwoordelijkheid worden geborgd. Zo ligt de focus op TrUE AI, wat staat voor Transparant AI (waar gebruikers de data kunnen inzien die heeft geleid tot een besluit), Understandable AI (legt uit en verantwoord resultaten), en Ethical AI (volgt standaard protocollen, wetten, en mensenrechten).

Thales Research and Technology rondde onlangs een aantal interessante AI-projecten voor militaire doeleinden af, en werkt verder aan verschillende innovatieve manieren van AI-gebruik. Michel: “We hebben AI-oplossingen geleverd voor missieplanning, classificatie van objecten, samenvoegen van informatie en detectie van cyberdreigingen. Verder ontwikkelen we AI voor vormen van spooranalyse, zoals voorspelling en anomaliedetectie. In de nabije toekomst zullen dit soort ontwikkelingen een complexer karakter krijgen wanneer voertuigen of bijvoorbeeld schepen uit verschillende landen moeten samenwerken, dus informatie delen en elkaars assets gebruiken. In dat kader zullen ook diverse onbemande systemen aan de keten worden toegevoegd, voor bewakings- en defensiedoeleinden.”

Gregor voegt eraan toe dat de onderzoeks- en technologieteams van Thales zich steeds meer richten op ethische en betrouwbare op AI gebaseerde oplossingen, en benadrukt dat deze de juiste levenscycli vereisen die de ontwikkeling, introductie en werking van dergelijke technologieën versimpelen. “De sleutel tot dergelijke oplossingen is het begrijpen van het ‘naturalistische besluitvormingsproces’, waarin AI is verwerkt die bepaalde stappen automatiseerd terwijl de meeste taken door mensen worden uitgevoerd. Deze alomvattende aanpak, die principes van menselijke factoren, AI en 'best practises' softwareontwikkeling combineert, zorgt ervoor dat we klanten kunnen voorzien van krachtige AI die voldoet aan strikte ethische, veiligheids- en juridische principes.”