(Dit werk is incompleet en is alleen wegens feedback in het nakijkmoment al gepubliceerd. Alle animatievideo’s zijn wel al af en zijn middels een Youtube link in dit bestand te vinden. MaM werkte niet naar behoren, en als ze wel nog in de mail verschijnen verwerk ik ze in de publicatie.)
Is AI een gevaar voor de journalistiek?
Met de komst van ChatGPT bibbert de journalist uit angst van zijn stoel. Is ons vakgebied straks overgenomen door algoritmen en robots? Is het bovendien een rationele angst? Nou journalist, klim maar weer op je stoel en wees vooral niet bang. Kunstmatige intelligentie heeft al veel langer zijn weg gevonden in de werkprocessen van journalisten en zelfs op wijzen waar de journalist zich dikwijls niet van bewust is. Dit blijkt uit onderzoek van Nele Goutier (onderzoeker en journalist) en haar collega’s.
Uit het onderzoek blijkt dat het gebruik van Google als zoekmachine het researchproces van de journalist kan beinvloeden “Algoritmische logica in zoekmachines beïnvloedt het journalistieke onderzoeksproces, want journalisten blijken het vaakst te klikken op de bronnen die Google ze op de eerste pagina voorschotelt.” Het feit dat de meest gebruikte zoekmachine ter wereld gebruik maakt van kunstmatige intelligentie en daarmee invloed heeft op het researchproces van de journalist, kan dan ook wel als een gevaar ervaren worden. Journalisten zijn zich vaak wel bewust van het feit dat er zelflerende algoritmen aan het werk zijn bij het gebruik van Google, maar staan niet stil bij de invloed hiervan.
Goutier benadrukt dat er risico’s zijn: “Ik denk dat AI voor de samenleving als een geheel een uitdaging is. Het zit onderhand overal, niet alleen in ons journalistieke vakgebied. Het probleem is dat het black-boxed is. Mensen hebben vaak niet in de gaten hoe zo’n zoekopdracht van een bepaalde input tot een bepaalde output komt. Wat zijn de stappen die daartussen gebeuren?”, zegt Goutier.
Daar benoemt Goutier wel degelijk een van de grootste risico’s van kunstmatige intelligentie in de toekomst, in ons werkgebied. Namelijk het gebrek aan transparantie. Hoe verder de ontwikkeling van AI zich vordert, hoe lastiger het zich maakt om gecontroleerd te worden op haar stappen. Nu zijn er experts die zich daar kunnen om bekommeren, maar hoe verder wij gaan met de ontwikkeling van AI, hoe lastiger dat zal worden. Vooral als het gaat om deep-learning. “Het systeem ontdekt zelf vaak de patronen in een hele bak data, dat door de journalist in het systeem is gestopt, maar het systeem kan niet zelf vertellen waarop hij dat baseert, en mensen kunnen dat niet reprocuderen”, concludeert Goutier.
Een ander risico van kunstmatige intelligentie is dat bij het gebruik ervan, mensen het idee krijgen dat wat er uit komt altijd objectief is. “Dat is een misvatting. Het zijn mensen die de AI-systemen bedenken, maken en trainen. De vooroordelen van mensen kunnen daar heel makkelijk insluipen en dan ineens op een grote schaal een rol spelen”, vertelt Goutier. Ze geeft vervolgens een voorbeeld, van een dergelijke situatie. De Universiteit van Amsterdam experimenteerden tijdens de coronapandemie met een anti-spieksoftware. Deze software was bedoeld om studenten tijdens toetsmomenten in de gaten te houden: kijken of de student blijft zitten en niet met mensen naast zich praat. Dit deed de software op basis van kunstmatige intelligentie, in het specifiek gezichtsherkenning-AI. Wat echter het probleem bleek te zijn: de software was niet genoeg getraind op studenten met een donkere huidskleur. Gevolg: de software herkende studenten met een donkere huidskleur niet en sloot deze studenten buiten van het tentamen.
Het is van belang dat de journalist zich meer bewust maakt van het bestaan van kunstmatige intelligentie en hoe het werkt. Als de journalist zich meer ‘snugger’ maakt op het gebied van kunstmatige intelligentie, kan het in de toekomst van de journalist vooral als hulptool gebruikt worden. Goutier benadrukt dit: “AI is ook echt een hulpmiddel want je kan vaak veel groter onderzoek doen. Je kan AI inzetten om patronen te ontdekken in je data, of om data te genereren of van sociale media te scrapen. Het biedt echt kansen, maar het is het belangrijkste dat we als journalist veel meer AI-savvy worden.” Goutier en haar collega’s zijn momenteel bezig een platform op te zetten met lesmaterialen voor journalistiek. Deze is bedoeld om de journalisten meer ‘savvy’ op het gebied van AI te maken, zodat journalisten in staat zijn kritisch en bewust om te gaan met AI en de juiste vragen te stellen. Journalisten moeten niet alleen wegwijs worden met de mogelijke AI tools maar vooral begrijpen dat het in de samenleving op allerlei vlakken wordt ingezet. Een journalist kan zijn werk als waakhond niet doen als ze niet weten waarmee ze te maken hebben.
Soorten tools
Dat er tegenwoordig al bijna overal AI ingezet is, weten we allemaal wel. Het is nu vooral interessant om te kijken naar de specifieke tools die er zijn ontwikkeld met AI, en hoe deze specifieke tools journalisten kunnen helpen in hun werkgebied. In dit artikel worden vier categorieën aan AI-tools besproken. De data-analyse en visualisatietools, zogeheten ‘language models & processors’, fact-check tools en automatisatie tools. Deze laatste, omdat er veel tools te benoemen zijn die eigenlijk niet onder een vaste categorie vallen. Uit gemak is gekozen voor deze naam omdat het doet wat het suggereert: het automatiseren van lastige werkprocessen in het specifiek. Houd de eerder beschreven risico’s in het achterhoofd bij het toepassen van deze AI-tools.
Data analyse & visualisatie
Link naar animatievideo: Data Analyse & Visualisatie
Een van de belangrijkste aspecten van journalistiek – vooral in de tijd van nu – is het verzamelen en presenteren van data. Van bijna elke journalist wordt er verwacht om te kunnen gaan met het analyseren van data en hier verhalen in zien te vinden. Met de opkomst van AI zijn er steeds meer tools beschikbaar die hiervoor ingezet kunnen worden. Deze tools kunnen journalisten helpen bij het efficiënt verzamelen en analyseren van grote hoeveelheden data en bovendien het ontdekken van patronen. Ook zijn er tools om deze data aantrekkelijk mee te presenteren. Hier volgen wat voorbeelden van dergelijke tools.
Pinpoint
Google Pinpoint is in 2020 gereleased als onderdeel van het Google News Initiative. Het is een tool voor journalisten waarmee grote aantallen documenten geanaliseerd kunnen worden, met behulp van de Google zoekmachine. Hier is uiteraard ook AI en machine learning aan te pas. Pinpoint is een krachtige tool omdat er heel veel documenten tegelijkertijd kunnen bewerkt worden. Collecties kunnen eenvoudig met collega’s gedeeld worden en de tool kan tekst in afbeeldingen detecteren. Ook is er een audiotranscriptie functie.
Kumu.io
Kumu maakt het makkelijk om complexe gegevens te presenteren in zogeheten ‘relatiekaarten’ die visueel aantrekkelijk zijn. Deze relatiekaarten zijn interactief en zijn vooral handig voor stakeholder-mapping. Stakeholder-mapping is een techniek waarbij er makkelijk personen of belanghebbenden, bij een bepaald thema of onderwerp, in kaart kunnen worden gebracht. Stakeholder mapping kan helpen bij bronselectie in de researchfase of om voor de lezer een hiërarchie in een bedrijf in kaart te brengen bijvoorbeeld.
Tableau
Tableau, een data-visualisatie tool die gebruikt maakt van augmented analytics (een vorm van AI en machine learning), waarmee gebruikers interactieve grafieken, kaarten en dashboards kunnen maken. De tool laat je deze data ook analyseren aan de hand van wat handige interne tools.
Neo4j
Neo4j is een open-source graphdatabase-platform. Een graphdatabase is een soort database die gegevens opslaat in de vorm van knopen (nodes) en relaties (edges) in plaats van tabellen met rijen en kolommen. Dit maakt het eenvoudiger om gegevens te visualiseren en complexe relaties tussen gegevens te ontdekken. Voor journalisten kan Neo4j een geschikte tool zijn voor het onderzoeken van gegevens waarbij de relaties tussen de gegevens belangrijk zijn, zoals in politiek of zakelijke onderwerpen, waar Neo4j kan helpen bij het ontdekken van verbanden die anders misschien over het hoofd gezien zouden worden.
Language models & word-processors
Link naar animatievideo: Language Models
Language models zijn er om tekst en taal te verwerken en te analyseren. Een language model is een soort programma dat getraind is om menselijke taal te begrijpen en zelf te genereren. Deze kunstmatige intelligentie kan ingezet worden om bijvoorbeeld teksten samen te vatten of transcripties van audiomateriaal te maken. Een word-processor is een tool zoals Microsoft Word. In deze tools bewerk je en schrijf je tekst.
ChatGPT
ChatGPT is momenteel de bekendste language model. OpenAi deed er sinds de release ogen wereldwijd openen en mensen verbazen over de kracht en mogelijkheden van AI. ChatGPT kan hele verhalen bedenken, genereren en analyseren. De tool biedt zeker mogelijkheden voor journalisten. Het kan de ideale rechterhand zijn voor een journalist. Denk aan het meedenken aan verhaallijnen of gebruik het als een slimme zoekmachine.
Charm-AI
Charm-AI is een word-processor, net als Google Docs of Microsoft Word. Charm-AI onderscheidt zich echter van deze omdat het gebruik maakt van een language model waardoor het AI gedreven suggesties kan leveren op het schrijven. Het biedt een schrijftoonindicator, een verhalenschrijver en een ideeën generator. Het zal vast niet lang duren voordat de meer gevestigde word-processors dergelijke functies zullen toevoegen aan hun eigen programma’s.
Factcheck-tools (verificatietools)
Link naar animatievideo: verificatietools
Automatisatie-tools
Link naar animatievideo: Automatisatie-tools
Ontwikkelingen AI algemeen in journalistiek
Hoe kijkt de journalistiek naar AI in journalistiek?
Welke impact kan het gebruik van AI hebben op de toekomstige werkomgeving en werkwijzen van journalisten?