Met welke argumenten kan ik mijn vrienden overtuigen om geen AI te gebruiken?

Robin Aisha Pocornie © Wai Seu Chan

Vrijwel iedereen gebruikt dagelijks artificial intelligence (AI), ook zonder dat we het doorhebben. Dus ook jij en jouw vrienden. Natuurlijk horen we regelmatig over de kansen die het gebruik van AI creëert, zoals het voorspellen van wat je nieuwe favoriete film zal zijn of het nauwkeurig kunnen transcriberen van een audiobericht. Ik heb AI laatst zelfs een reisplan laten maken voor een weekendje weg in Spanje, en dat was superhandig! Maar aan het gebruik van AI zijn ook verschillende risico’s verbonden die grote impact kunnen hebben op mensenlevens. Daarom is belangrijk dat aan deze risico's meer aandacht wordt besteed. Ik heb hieronder drie argumenten uiteengezet die je zou kunnen gebruiken om je vrienden ervan te overtuigen om AI met een kritischere blik te gebruiken.

AI-systemen worden voor verschillende doeleinden ingezet om enorme hoeveelheden persoonlijke gegevens te analyseren. Dit betekent dat jouw informatie – van onlinezoekopdrachten tot financiële gegevens – wordt gebruikt om patronen te bepalen. De overheid gebruikt deze patronen bijvoorbeeld om risico’s van fraude te kunnen voorspellen. Dit creëert een risico op zogeheten oversurveillance en kunnen overheden ons gedrag monitoren en verbanden leggen die niet altijd hoeven te kloppen, met alle gevolgen van dien. In 2020 oordeelde de rechtbank in Den Haag dat het door de overheid ingezette surveillancesysteem SyRI, een ‘anti-fraudesysteem’, de privacy van burgers schond én mensen onterecht als fraudeur kon bestempelen. Het toeslagenschandaal is een voorbeeld van een situatie waar duizenden mensen slachtoffer werden van oversurveillance door verkeerde implementatie van dergelijke AI-systemen.

Een ander belangrijk punt is de ethische kant van AI. AI-systemen zijn vaak gebaseerd op data die inherente vooroordelen bevatten, wat kan leiden tot discriminerende resultaten. Ik ben hier zelf tegenaan gelopen toen de AI-gezichtsdetectie in academische antispieksoftware, die ik verplicht moest gebruiken tijdens online-examens, mijn gezicht niet kon detecteren. Dat mijn gezicht niet door de software werd ‘herkend’ komt omdat de algoritmes zijn getraind op witte gezichten. Mijn zwarte huid maakt geen deel uit van wat het algoritme kon detecteren als ‘mens’. 

Tot slot is er de onvoorspelbaarheid van AI. Ondanks de beloftes van nauwkeurigheid en efficiëntie, kunnen AI-systemen fouten maken die moeilijk te corrigeren zijn. In medische of juridische contexten kan dit verstrekkende gevolgen hebben, waarvan het toeslagenschandaal een voorbeeld is. Zelf ben ik daarom een voorstander van het verantwoordelijk houden van de entiteit die ervoor kiest een AI-systeem te implementeren. De overheid is verantwoordelijk voor het onrechtmatig bestempelen van onschuldige mensen als fraudeur. Zo is ook een ziekenhuis die met algoritmes het ziektebeeld bij patiënten voorspelt in gebreke wanneer die vaker misdiagnoses stelt bij Zwarte patiënten dan bij witte patiënten. 

Ook wijzelf zijn verantwoordelijk voor de door AI gegenereerde informatie en beelden die wij de wereld in brengen. Wanneer je je vrienden ervan probeert te overtuigen geen AI te gebruiken, laat ze dan vooral nadenken over de sociale verantwoordelijkheid die zij dragen wanneer het fout gaat. Dus hoewel AI handig kan zijn, zoals tijdens mijn weekendje in Spanje, moeten we ons bewust zijn van de risico's en ethische dilemma's die deze technologie met zich meebrengt. Want wie weet is het algoritme alleen getraind om alle commerciële, grootschalige attracties in je vakantiestad aan je voor te stellen, en zul je nooit die lokale bakkerij of dat bijzondere familiebedrijf tegen komen.


Genoten van dit artikel? Word ‘friend’ van Lilith en support ons journalistieke en feministisch platform of doneer.
Enjoyed this article? Become our
friend and support us or donate.