AI als slimme, snelle en onvermoeibare assistent
“Stel je een assistent voor die ingewikkelde taken kan uitvoeren. En dat veel sneller dan een mens ooit zou kunnen. En ook nog eens zonder moe te worden! Dat is kunstmatige intelligentie, oftewel artificiële intelligentie (AI).” Ajuna Soerjadi is oprichter van het Expertisecentrum Data-Ethiek en helpt overheidsinstanties om AI op een ethische manier in te zetten. Ze vertelt over de voor- en nadelen van AI.
Volgens Ajuna heeft AI enorm veel mogelijkheden: “AI kan helpen bij alles wat te maken heeft met ‘intelligente’ taken. Een voorbeeld van zo’n taak is het analyseren van gegevens. En dat is er afgelopen jaren gebeurd. Steeds meer gegevens worden geregistreerd. Door al die gegevens te combineren, zijn er bijzondere dingen mogelijk.”
AI kan op verschillende manieren worden ingezet.
Voorbeelden van taken die je met AI kunt doen:
- Ingewikkelde teksten of informatie toegankelijker maken.
- Snel beleidsdocumenten analyseren.
- Patronen ontdekken op basis van eerdere gegevens.
- Vragen van inwoners en ondernemers automatisch beantwoorden.
De risico’s die AI met zich meebrengt
Ajuna vertelt dat AI een steeds grotere impact op ons dagelijks leven heeft. Het is al niet meer weg te denken en de ontwikkelingen volgen zich snel op. Dit geldt ook voor toepassingen binnen de overheid. En omdat AI een steeds grotere rol speelt, is het ook belangrijk om naar de risico’s te kijken.
Discriminatie is zo’n voorbeeld van een risico. Ongelijkheden in de maatschappij worden vaak herhaald en ook nog eens versterkt door algoritmen. Omdat het om een algoritme gaat is dit vaak ook nog eens moeilijker op te sporen en op te lossen. Daarom moet je er van tevoren al goed over nadenken. Het is belangrijk om vooraf dit risico in kaart te brengen.
De resultaten van AI zijn afhankelijk van 3 dingen
- Hoe je iets bouwt. Wat vraag je het systeem voor jou op te lossen?
- Welke gegevens je gebruikt. Met welke gegevens laat je het systeem werken? Als de gegevens niet representatief zijn, zijn de uitkomsten ook niet representatief.
- Hoe je dit inzet. Wat doe je vervolgens met de uitkomsten?
Ajnua deelt hiervan een voorbeeld. “Discriminatie komt vaak terug in de data-ethiek. We merken helaas dat dezelfde groepen mensen geraakt worden. Het fraudeopsporingsalgoritme van DUO is hiervan een voorbeeld. Wanneer het niet duidelijk is hoe een algoritme werkt, is het moeilijk voor mensen om een onterechte beslissing te herkennen en te bewijzen. Met algoritme bedoel ik het aantal stappen dat je zet om een bepaald doel te bereiken.”