Is het ethisch om niets te doen? Over technologie als ‘oplossing voor alles’

Geschreven door Laurens van den Berg

Nederland digitaliseert. Steeds meer overheidsdiensten verhuizen naar het internet. Dat is handig voor veel mensen. Maar miljoenen anderen haken af. Laaggeletterden. Nieuwkomers. Ouderen (en jongeren!). Wie moeite heeft met lezen, schrijven of technologie, valt stilletjes buiten de boot. Terwijl de loketten sluiten, verdwijnen ook de alternatieven. Het probleem is bekend. En toch blijft structurele actie vaak uit.

Tegelijk dienen zich nieuwe technologieën aan. Chatbots, taalmodellen, versimpelaars: tools die veelbelovend zijn voor wie nu niet mee kan. Ze kunnen drempels verlagen, vertaalslagen maken en informatie begrijpelijker maken. Maar ze zijn niet perfect. Ze missen nuance. Ze maken fouten. En ze worden soms niet goed begrepen door de mensen die ze moeten helpen. Dan rijst een ongemakkelijke vraag: hoe ethisch is het om te handelen met gebrekkige technologie?

Technologie maakt fouten, maar andere fouten dan mensen

AI maakt fouten. Maar op een andere manier dan mensen. Mensen vergissen zich bijvoorbeeld door stress, onkunde of onduidelijkheid. Die fouten zijn meestal te begrijpen – en te corrigeren. AI-systemen maken andere missers. Ze hallucineren. Ze brengen onwaarheden met overtuiging. Of ze slaan nuances plat.

Neem grote taalmodellen van makers als OpenAI. Die werken op basis van patronen, niet op begrip. Daardoor kunnen ze razendsnel een antwoord formuleren dat volkomen onjuist is – maar toch logisch klinkt. En juist die schijn van logica maakt het gevaarlijk. Zeker als de gebruiker zelf niet in staat is om het antwoord te controleren.

En er is meer. Een recent MIT-onderzoek suggereert dat intensief gebruik van AI-tools als ChatGPT het werkgeheugen en het kritische denkvermogen kan aantasten. Gebruikers onthouden minder goed wat ze eerder schreven en raken afhankelijk van de tool. ‘Cognitieve schuld’ noemen de onderzoekers dat. Tegelijkertijd benadrukken zij dat het effect niet eenduidig is en dat verantwoord gebruik de sleutel is. Dat vraagt om een realistische blik: AI biedt gemak, maar alleen als het verstandig wordt ingezet.

AI voor kwetsbaren: hoopvol, maar ook precair

Juist kwetsbare doelgroepen kunnen profiteren van AI-ondersteuning. Chatbots, automatische vertalingen, tekstversimpelaars: ze kunnen drempels verlagen. Maar in de praktijk vallen ze soms tegen. Onderzoek van Jules Ernst en Wiep Hamstra laat zien waarom.

Hun conclusie: veel tools produceren onvolledige of foutieve informatie. De AI ‘begrijpt’ niet wat belangrijk is en laat cruciale details weg. Gemeenten die de tools testten, moesten zelfs waarschuwingen opnemen dat de informatie mogelijk niet klopte. Dat is niet de betrouwbare, inclusieve dienstverlening waar we op hoopten.

Techniek als hulpmiddel, niet als excuus

Toch is het te makkelijk om deze AI-technologie dan maar af te schrijven. Want het potentieel is groot. Mits goed gebruikt. Mits niet als vervanging van menselijk contact, maar als versterking ervan. Stanford-onderzoekers spreken van een ‘human in the loop’: technologie ondersteunt, maar de mens blijft aan zet.

In de praktijk betekent dat: automatische vertaling, maar met een eindredacteur. Een chatbot die suggesties doet, maar met een back-up van het klantcontactcentrum. Een tekstversimpelaar die een eerste poging doet, maar waar een communicatiemedewerker kritisch naar kijkt. Het kan. En het gebeurt al. Maar alleen als we het goed willen organiseren.

Daarnaast: AI kan pas goed helpen als de bron goed is. Veel tools werken op basis van bestaande teksten. Zijn die teksten onduidelijk en dubbelzinnig, dan versimpelt de AI iets dat nooit helder was. Dat leidt tot verlies. Niet tot winst. Dus misschien is de eerste stap wel: zelf beter schrijven. Pas dan wordt AI een hulpmiddel in plaats van een lapmiddel.

De echte vraag: wat weegt zwaarder?

We komen bij een hamvraag over wat hier ethisch is: foutgevoelige AI blijven inzetten, of pas ermee doorgaan als het perfect is?

De medische ethiek spreekt over ‘weldoen’ en ‘niet-schaden’. Over goed doen zonder schade aan te richten. Maar in de praktijk schuurt dat. Want niets doen is óók schade: elk jaar dat we vasthouden aan onze traditionele dienstverlening zonder AI, begrijpen miljoenen laaggeletterden en anderstaligen de teksten en formulieren niet.

WRR-raadslid Ernst Hirsch Ballin stelt daarom: AI zou vooral moeten worden ingezet als het publieke waarden worden beschermd en versterkt. En: demystificatie is belangrijk. De beeldvorming over AI is namelijk nog vaak vertekend. Bijvoorbeeld door misplaatste angsten en overspannen verwachtingen. Met een realistisch beeld kunnen we teleurstellingen voorkomen en ervoor zorgen dat burgers de goede kanten van AI-technologie durven te omarmen. Alleen dan kan technologie bijdragen aan gelijkheid, in plaats van nieuwe ongelijkheid scheppen.

Wat kunnen overheden doen?

Overheden zitten klem. Enerzijds de druk om te innoveren. Anderzijds de plicht om zorgvuldig te zijn. Gelukkig hoeft dat geen tegenstelling te zijn. In Nederland lopen al initiatieven om publieke AI transparanter te maken. Denk aan het TNO-register van AI-toepassingen. Of de AI-pilots die gemeenten samen uitvoeren binnen werkgroepen. Transparantie en samenwerking zijn sleutelwoorden.

Ook is het cruciaal dat AI-oplossingen getoetst blijven aan toegankelijkheid en mensenrechten. Technologie moet een brug slaan, geen muur optrekken. Daarvoor zijn duidelijke spelregels nodig. Duidelijke verantwoordelijkheden ook. En lef. Lef om iets te proberen, maar ook om het te stoppen als het niet werkt.

Slot: tussen hoop en risico

De inzet van AI bij de overheid is meer dan een technisch vraagstuk. Het is een morele afweging. Wie nu niets doet, laat kwetsbaren vastlopen in een systeem dat hen niet ziet. Maar wie alles inzet wat glimt, riskeert nieuwe schade.

De oplossing ligt in de nuance. Technologie kan helpen. Maar alleen als we haar gebruiken met beleid. Met een ‘human in the loop’ Met aandacht voor taal. En vooral: met het lef om toe te geven dat we het niet zeker weten, maar wél iets willen doen. Omdat niets doen soms het meest onethische is wat je kunt doen.