TikTok is allang niet meer alleen een platform voor dansjes en grappige sketches het is steeds vaker ook een bron van politieke informatie, vooral voor jongeren. Maar wat zien we eigenlijk in onze feed, en waarom zien we dat? Het antwoord zit verborgen in het algoritme van TikTok: een complexe ‘black box’ die bepaalt welke video’s ons bereiken.
In deze video onderzoeken we hoe jouw politieke voorkeur invloed heeft op wat TikTok je laat zien. We zetten ons eigen experiment op, waarin we gesimuleerde TikTok-accounts hebben gemaakt om te kijken hoe het algoritme reageert op links- of rechts-georiënteerde interesses. Het resultaat? Een kijkje achter de schermen van de persoonlijke aanbevelingen, en inzicht in hoe filterbubbels en gepersonaliseerde content bijdragen aan polarisatie
Dataverantwoording
Voor dit project hebben we gebruikgemaakt van bestaand onderzoek én ons eigen experiment. Zo konden we eerst kijken naar het grotere plaatje in Nederland en daarna zelf in de praktijk testen hoe het algoritme van TikTok precies werkt.
Gebruik van bestaande onderzoeksdata
Om te laten zien waarom dit onderwerp belangrijk is, gebruiken we in de video een grafiek van EenVandaag. Zij hebben onderzoek gedaan naar hoe jongeren politiek nieuws volgen op social media. Deze data zijn dus niet van onszelf, maar van EenVandaag. De bron wordt daarom expliciet vermeld, zodat transparantie en traceerbaarheid van data gewaarborgd zijn.
Eigen experimenteel onderzoek
We wilden met eigen ogen zien hoe het algoritme van TikTok werkt. Daarom hebben we onderzocht of de video’s in je feed veranderen als je een duidelijke politieke voorkeur laat zien. We hebben hiervoor zelf een experiment uitgevoerd. (zie bijlage voor uitgebreide richtlijnen van ons experiment)
Opzet van het experiment
Hiervoor hebben we twee gesimuleerde TikTok-accounts aangemaakt:
-
Account A: links-progressieve politieke voorkeur
-
Account B: rechts-conservatieve politieke voorkeur
Om deze accounts een ‘gezicht’ te geven, hebben we gericht video’s gezocht, bekeken en geliket die pasten bij deze politieke stromingen. Zo deden we alsof we twee verschillende types gebruikers waren.
Het experiment is uitgevoerd over een periode van vijf opeenvolgende dagen, waarbij per account dagelijks 15 minuten is gescrold. Dat is lang genoeg voor het algoritme om je te leren kennen, maar ook realistisch voor een gemiddelde gebruiker. We hebben alleen geliket en gekeken, maar niet gereageerd op video’s. Zo bleven we zo dicht mogelijk bij het gedrag van een ‘normale’ kijker die vooral consumeert.
Dataverzameling en -analyse
Tijdens elke sessie zijn screen recordings gemaakt, die later handmatig zijn geanalyseerd. Iedere getoonde video is gecategoriseerd volgens de volgende politieke labels:
-
Links
-
Rechts
-
Neutraal/algemeen politiek
-
Niet-politiek
De categorisatie is gebaseerd op vooraf opgestelde richtlijnen, die rekening hielden met:
-
De context van de video
-
De dominante boodschap
-
Visuele elementen
-
Taalgebruik en framing
Deze richtlijnen zijn ontwikkeld met het Nederlandse politieke spectrum als referentiekader. Handmatige analyse is bewust gekozen boven geautomatiseerde methoden. Hoewel TikTok-video’s vaak hashtags bevatten, komt de daadwerkelijke politieke inhoud niet altijd overeen met deze metadata. Een automatische analyse zou nuance en context onvoldoende hebben kunnen waarborgen.
De resultaten van het experiment zijn vastgelegd in een Excel-bestand, waarin per video het politieke label is genoteerd. Hierin is onder andere bijgehouden:
-
Het aantal politieke versus niet-politieke video’s in de feed
-
De verdeling van video’s over de verschillende politieke categorieën
Beperkingen van het onderzoek
Dit onderzoek heeft een aantal belangrijke beperkingen die de interpretatie van de resultaten beïnvloeden:
-
Kleine steekproef: Het experiment is gebaseerd op slechts twee testaccounts. Hierdoor kunnen de uitkomsten niet worden gegeneraliseerd naar de gehele TikTok-gebruikerspopulatie.
-
Momentopname: TikTok’s algoritmes worden continu aangepast en geoptimaliseerd. De resultaten representeren daarom vooral een specifiek moment in de tijd en bieden inzicht in terugkerende patronen en mogelijke effecten van personalisatie, maar geen definitieve uitspraken over het platform als geheel.
-
Beperkt interactieniveau: Door te kiezen voor een consumptiegericht profiel zonder reacties kan het experiment slechts een deel van de gebruikerservaring simuleren; actieve interactie kan het algoritme op andere manieren beïnvloeden.
-
Subjectieve categorisatie: Ondanks zorgvuldig opgestelde richtlijnen blijft handmatige labeling gedeeltelijk subjectief. Verschillen in interpretatie kunnen kleine variaties in de resultaten veroorzaken.
Conclusie
Het experiment biedt een kwalitatief én kwantitatief inzicht in hoe politieke voorkeuren van gebruikers kunnen leiden tot gepersonaliseerde aanbevelingen binnen TikTok. In combinatie met bestaande onderzoeksdata, zoals het EenVandaag-onderzoek, helpt dit de maatschappelijke context van algoritmische personalisatie en politieke contentconsumptie onder jongeren beter te begrijpen. Hoewel de bevindingen niet generaliseerbaar zijn, geven ze een overzicht van patronen en mogelijke trends.
