Factcheck: Gaan we veel consequenties voelen door ontwikkelingen van AI?

Factcheck: Gaan we veel consequenties voelen door ontwikkelingen van AI?

Bron: Pexels Tara Winstead

In een artikel van de NRC waarschuwt AI-expert en hoogleraar Stuart Russell voor de gevaren van kunstmatige intelligentie (AI) als de overheid niet ingrijpt. Hij zegt: “Als de overheid niet ingrijpt, gaan we in de komende twaalf tot achttien maanden de consequenties serieus voelen. Denk aan grote desinformatiecampagnes die met behulp van AI zijn ontworpen om verkiezingen te beïnvloeden. Of terroristen die met behulp van AI-systemen biologische of chemische wapens produceren of cyberaanvallen uitvoeren. Dat zijn behoorlijk realistische scenario’s”. Deze uitspraak klopt gedeeltelijk.

De term “Artificial Intelligence”, ook wel bekend als AI, werd geïntroduceerd in de jaren 50. Tegenwoordig zien we steeds vaker berichtgeving over AI, vooral omdat de mogelijkheden toenemen en meer mensen er toegang tot hebben, bijvoorbeeld met de introductie van ChatGPT in 2022. Er wordt veel gesproken over AI, vooral in verband met de voordelen ervan, zoals bij ChatGPT dat gebruikt kan worden om vragen te beantwoorden en in de medische sector waarbij AI ingezet wordt voor medische data. Hoewel AI ons leven op verschillende manieren makkelijker kan maken, zijn er ook discussies over de mogelijke gevaren van deze technologie.

AI-expert en hoogleraar Stuart Russell waarschuwt dat de overheid dringend moet ingrijpen in de ontwikkeling van kunstmatige intelligentie. Anders kunnen er ernstige gevolgen zijn. De AI-markt zal groeien met een 37.6% van 2023 tot 2030, AI zal zich dus alleen maar meer uitbreiden, wat nieuwe ontwikkelingen zal meebrengen.

Over de mogelijke gevaren wordt inmiddels al veel gesproken. Nederland is een van de bijna dertig landen die de gevaren van AI erkennen en een verklaring hebben ondertekend. Deze verklaring is afgelegd tijdens de tweedaagse top op het Engelse landgoed Bletchley Park, waar tech bedrijven en politici over de kansen en risico’s van de technologie spraken. Dit houdt dus in dat AI inderdaad gevaren meebrengt en dat er al gekeken wordt of dit mogelijk gefilterd kan worden.

Margot van Brakel, expert op het gebied van de mens-kant van AI, wijst erop dat AI in staat is om te reageren op de gevaren die Stuart benoemt. Ze benadrukt hierop dat achter AI altijd een menselijke factor aanwezig is. “We zien dat steeds meer mensen zich bezighouden met AI, dit heeft invloed op ons dagelijks leven. Hierdoor ontstaan ​​belangrijke vragen, wat terecht is, maar het is belangrijk te realiseren dat het door mensen wordt ontwikkeld.” Volgens Margot is er zeker kans dat AI op negatieve wijze wordt toegepast zoals de voorbeelden die Russell aangaf, maar dat het vrijwel niet mogelijk is voor de overheid om in te grijpen. “Regelgeving is belangrijk, maar de illusie dat hiermee op korte termijn volledige veiligheid wordt gegarandeerd, is niet realistisch.”

Hogeschool Saxion docent Casper de Jong die zich bezighoudt met de ontwikkelingen in AI, deelt over de uitspraak van Britt Russel, waarin wordt gesteld dat we de komende twaalf tot achttien maanden consequenties zullen ervaren het volgende: “Gebaseerd op verwachtingen en de huidige voortgang, zien we dat de groei en verbetering van systemen exponentieel toeneemt. Als systemen in staat zijn zichzelf nieuwe dingen aan te leren en te verbeteren, kan dit kloppen.”

Het rapport van de Brown University wijst op de noodzaak om de negatieve effecten van kunstmatige intelligentie aan te pakken, zoals inbreuken op de privacy, verspreiding van misinformatie en cyberaanvallen. Deze zorgen zijn niet alleen aanwezig bij AI-experts, maar ook bij het publiek. Uit een recent Stanford onderzoek blijkt dat 36% van de respondenten vreest dat de AI-ontwikkeling een nucleaire ramp zou kunnen veroorzaken,  zo heeft dus niet alleen Russel zorgen over de toekomst met AI.

“Ik weet niet of AI zelf biologische of chemische wapens kan maken. Ik denk het niet maar het kan het mensen wel gemakkelijker maken dat te doen als zij bijvoorbeeld een darkweb versie van ChatGPT kunnen bevragen die deze informatie prijsgeeft. Maar die informatie is nu ook al op het darkweb beschikbaar, en AI zal dit niet zelfstandig gaan doen, het kan hooguit kwaadwillende helpen om dit te doen. Als het gaat over cyberaanvallen, zou AI kunnen helpen om snel adressen te vinden om met DOS-aanvallen (Denial of Service is een vorm van cyberaanval waarbij de aanvaller probeert een dienst, zoals een website of online service, onbruikbaar te maken voor gebruikers.) te bestoken,” vertelt Henk van den Heuvel directeur van het Centre for Language and Speech Technology (CLST). Wanneer het komt tot desinformatiecampagnes zal nepnieuws waarschijnlijk toenemen en AI-taalmodellen zullen helpen dit geloofwaardiger te maken door goed geformuleerde berichten ruimer te verspreiden, geeft van den Heuvel aan.

Conclusie
Diverse rapporten, bijeenkomsten en onderzoeken, waaronder die van Brown University en Stanford, signaleren al zorgen, kansen en nadelen met betrekking tot de versnelde impact van AI. Toch kan deze impact niet daadwerkelijk worden gemeten, Casper de Jong zei al dat het gaat om de verwachtingen. De uitspraken van Russell Stuart kan dus niet compleet bevestigd worden. Wel is er een mogelijkheid in de gevaren die hij opnoemt, wat resulteert in een gedeeltelijke waarheid van de claim.

Over de auteur

Maria Belkadi

Mijn naam is Maria en ik ben een 20-jarige journalist in opleiding, hiervoor heb ik mbo-marketing en communicatie afgerond, maar journalistiek is mijn passie. Ik wil de verhalen kunnen vertellen van andere en gebeurtenissen in beeld brengen. Als kind wilde ik altijd dingen weten en later door de jaren heen is dit nooit afgenomen. Ik ben altijd nieuwsgierig en durf vragen te stellen om op antwoorden te komen. Ik zal nooit uitgeput raken van de grote wereld die zich omringt met verhalen, verhalen die ik wil vertellen.