Naaktfoto’s genereren in de zogeheten ‘uitkleed-apps’ en Russische propaganda overgedragen door chatbots. Allemaal mogelijk gemaakt door AI. Hoe beter AI zich blijft ontwikkelen, hoe meer AI voor slechte doeleinden kan worden gebruikt. Overheden en techbedrijven zoeken naar manieren om dit misbruik tegen te gaan, maar de aanpak verloopt moeizaam.
Volgens hoogleraar AI Eric Postma van de Tilburg University, gaan ontwikkelingen zo snel en bedrijven proberen elkaar af te troeven zonder altijd de juiste grenzen te stellen in hun algoritmes. Hij noemt bias in AI-systemen een groot probleem: “AI leert van bestaande data, en daarmee ook de vooroordelen die erin zitten. Dit kan leiden tot onrechtvaardige beslissingen, zoals eerder te zien was in de toeslagenaffaire.”
De Europese Unie neemt met de AI Act een voortrekkersrol in de regulering van AI. Deze wet verplicht bedrijven transparanter te zijn over hun AI-modellen en risicovolle toepassingen strikter te controleren. Toch is er kritiek: regelgeving loopt vaak achter op de razendsnelle technologische ontwikkelingen. “Tegen de tijd dat wetten worden ingevoerd, heeft AI alweer een nieuw stadium bereikt.”
Grote techbedrijven zoals Google, OpenAI en Microsoft stellen steeds vaker beperkingen in voor AI-gebruik. Zo weigeren sommige AI-systemen expliciete prompts en worden schadelijke toepassingen geblokkeerd. Maar volgens Postma is dit niet genoeg: “Techbedrijven zitten in een hevige concurrentiestrijd en zetten ethiek soms op de tweede plaats.”
Ondertussen blijven criminelen en kwaadwillende overheden AI misbruiken. Rusland gebruikt AI-gegenereerde desinformatie om Westerse democratieën te beïnvloeden, terwijl deepfake-technologie wordt ingezet voor identiteitsfraude en privacyschendingen.
De vraag blijft: wie is uiteindelijk verantwoordelijk als AI wordt misbruikt? Zolang die niet wordt opgelost, blijft de grens tussen nuttige en gevaarlijke AI vaag. Waar trekken wij als samenleving nu de grens voor het ontwikkelen van AI? Je hoort verslaggever Isabella van de Luijtgaarden.