Van vrolijke honden en motivatie-quotes tot heftige ruzies en mentale problemen: TikTok claimt dat de ‘For You’-pagina precies laat zien wat jij leuk vindt. Maar is dat wel zo? Of heeft het algoritme een ingebouwde voorkeur voor drama en negativiteit, zelfs als je probeert alleen het positieve op te zoeken? In deze explainer onderzoeken we in hoeverre het algoritme nieuwe gebruikers actief stuurt en of je als gebruiker echt de controle hebt over je eigen tijdlijn.
Dataverantwoording
Voor ons onderzoek naar de sturing van het TikTok-algoritme wilden we objectief vaststellen of interactie met bepaalde emoties (positief of negatief) direct invloed heeft op de content die je voorgeschoteld krijgt. Omdat het algoritme van TikTok een “black box” is, hebben we een experiment opgezet met drie verschillende profielen.
1. Hoe zijn de data verzameld en geprepareerd?
Om een eerlijke vergelijking te maken, hebben we drie volledig nieuwe TikTok-accounts aangemaakt. Deze accounts begonnen met een “schone lei” (geen eerdere geschiedenis of cookies).
-
Account Positief: Getraind door uitsluitend video’s met vrolijke muziek, humor, en ‘wholesome’ content af te kijken en te liken.
-
Account Negatief: Getraind door uitsluitend te reageren op video’s met boosheid, conflict, verdriet of mentale problemen.
-
Account Neutraal: Dit account diende als nulmeting. Er werd alleen gescrold zonder enige interactie (geen likes, niet afkijken).
In totaal hebben we 300 video’s (100 per account) gecodeerd op basis van een vooraf opgesteld beoordelingssysteem. Hierbij hebben we gekeken naar de emotionele toon, het thema en visuele/auditieve kenmerken (zoals schreeuwen versus vrolijke muziek).
2. Welke analyses zijn uitgevoerd?
We hebben de data uit onze spreadsheet geanalyseerd door de verhouding tussen positieve, negatieve en neutrale content per account te vergelijken.
-
De sturing: We keken of een positief getraind account ook daadwerkelijk meer positieve video’s krijgt dan het neutrale account.
-
De ‘negativiteits-lek’: We hebben geanalyseerd hoeveel negatieve content er alsnog “doorlekt” naar een account dat uitsluitend positief getraind is.
-
De standaardinstelling: Door het neutrale account te analyseren, konden we bepalen wat de “basis” is die TikTok een nieuwe gebruiker aanbiedt zonder sturing.
3. Patronen en uitschieters
Uit onze dataset kwamen duidelijke patronen naar voren die direct gelinkt zijn aan de werking van het algoritme:
-
De onvermijdelijke schaduwkant: Een cruciaal patroon is dat het Positieve account alsnog 26% negatieve content te zien kreeg. Zelfs met maximale sturing naar blijdschap, blijft het algoritme “zware” onderwerpen aanbieden.
-
Negativiteit als standaard: Bij het Neutrale account zagen we meer negatieve video’s (39) dan positieve (36). Dit suggereert dat het algoritme van nature een lichte voorkeur heeft voor prikkelende, negatieve emoties omdat deze waarschijnlijk voor meer kijktijd zorgen.
-
De filterbubbel: Het Negatieve account werd het snelst in een richting geduwd; hier was meer dan de helft van de content (51%) direct negatief, tegenover slechts 24% positieve content die nog doorkwam.
Betrouwbaarheid en validiteit
Om de betrouwbaarheid te waarborgen, hebben we gewerkt met een strikt codeerschema. Een video was niet zomaar “stom”, maar werd pas als negatief gelabeld als er sprake was van specifieke kenmerken zoals boosheid, ruzie of mentale problemen. Hierdoor hebben we onze persoonlijke mening omgezet in meetbare data.
Kanttekeningen
-
Momentopname: Het algoritme van TikTok is dynamisch en verandert continu op basis van trends.
-
Beperkte dataset: Met 300 video’s hebben we een representatief beeld voor dit experiment, maar op de miljarden video’s op TikTok blijft dit een indicatie.
-
Locatie: De data zijn verzameld in Nederland; het algoritme kan in andere regio’s anders reageren op basis van lokale wetgeving of trends.
Conclusie
Ons onderzoek bevestigt dat je als gebruiker je feed kunt sturen, maar dat je nooit volledig ontsnapt aan de negatieve kant van het platform. Het feit dat een neutraal account direct meer negativiteit ziet, ondersteunt de zorgen van organisaties zoals Amnesty International over de impact van Big Tech op het welzijn van jongeren.
