Eind vorig jaar hebben Facebook, Google en Twitter aangekondigd dat ze gaan werken met zogeheten ‘trust indicators’ om consumenten te helpen de betrouwbaarheid van publicaties en journalisten in hun tijdlijnen beter in te schatten. Daarnaast gaan ze onderling kennis delen en een gezamenlijke database bijhouden van nepnieuws-artikelen en van onbetrouwbare nieuwsverspreiders.

Bij een artikel in de tijdlijn van Google (News en Search), Facebook (tijdlijn) en Twitter (tijdlijn) verschijnt een icoontje waaraan je kunt zien wie de bron ervan is en of het een reclame betreft of niet. Door hierop te klikken verschijnt de Wikipedia-informatie van deze bron zodat lezers zich hierover kunnen informeren. De lezer kan dan zelf een inschatting maken van de betrouwbaarheid.

De gebruikte indicatoren zijn ontwikkeld door het Trust Project van het Santa Clara Institute of Applied Ethics. Amerikaanse partners zijn de New York Times, Washington Post en USA Today. Europese partners zijn onder andere de BBC, The Economist en La Repubblica.

Het ‘ergste’ nepnieuws bestrijden

Facebook werkt sinds 2017 in diverse landen samen met de belangrijkste fact-checkers, die zich houden aan de internationale ‘code of principles’. Facebook richt zich in eerste instantie op ‘het ergste nepnieuws’: bewust onjuiste berichten die opzettelijk verspreid worden om te misleiden, te spammen of er geld mee te verdienen. Facebook richt zich dus niet op vermeende uitspraken van politici en de interpretatie ervan: het gaat die voortdurende discussie uit de weg.

Krijgt een artikel de beoordeling ‘niet waar’ van één fact-checker dan wordt het minder gepromoot in newsfeeds. Zodra tenminste twee fact-checkers een bericht als onwaar bestempelen, krijgt een gebruiker een boodschap bij het artikel te zien dat het bericht ‘in twijfel wordt getrokken door externe fact-checkers’. Door hierop te klikken kan de gebruiker meer te weten komen wie het artikel in twijfel trekt en waarom. Fact-checkers kunnen een toelichting geven bij hun beoordeling.

Momenteel duurt het zo’n drie dagen voordat een artikel zo’n label krijgt. Voor nieuws is dit veel te laat: hoaxes verspreiden zich in de eerste uren het snelst. Facebook probeert dit proces daarom te versnellen. Gebruikers kunnen zelf ook berichten aanmelden als mogelijk nepnieuws. Facebook maakt hiervan een overzicht dat ze deelt met de fact-checkers die dan gericht aan de slag kunnen.

Effectiviteit wordt betwist

Artikelen die in twijfel worden getrokken, worden door Facebook lager geplaatst op de lijst artikelen die in de News Feeds van andere gebruikers verschijnen. Deze krijgen, als ze zo’n twijfelachtig artikel willen delen in hun netwerk, een pop-up te zien met de vraag of ze dit echt willen. Facebook beweert dat dit alles ervoor zorgt dat zo’n artikel 80% minder verspreid wordt.

Verschillende media betwijfelen of dit percentage zo hoog is omdat veel artikelen (of varianten van deze berichten) in omloop blijven, ondanks dat ze overduidelijk als nepnieuws zijn aangemerkt. Gebruikers blijken zich weinig aan te trekken van de notificaties omdat ze vinden dat hun vrienden het sowieso moeten weten of omdat ze blijven volharden in hun eigen gelijk.

Kunstmatige intelligentie

De grote sociale netwerken zetten tevens in op de ontwikkeling van slimme algoritmen. Zo kan er inzicht verkregen worden in hoe nieuws wordt verspreid, via welke accounts en via welke knooppunten in sociale netwerken. Hiermee kunnen ze volgen hoe een discussie zich ontwikkelt en daar gericht op ingrijpen als er bijvoorbeeld heel veel accounts tegelijk spam versturen, of als tijdlijnen dreigen te worden overspoeld. Twitter, dat vergeleken met Google en Facebook het meest gevoelig is, bepaalt op basis van patroonherkenning of (potentiële nep)accounts of het het ‘retweeten’ van berichten tijdelijk moet bevriezen.

Met kunstmatige intelligentie kunnen patronen worden gevonden in nieuwsberichten en kan de consistentie ervan worden vastgesteld. Google is met zijn zoekmachine en nieuwsaggregator een belangrijke speler. Google’s zoekmachine is gebaseerd op een algoritme dat uit vele informatiebronnen informatie destilleert, kijkt naar kruisverbanden en doorverwijzingen tussen websites en corrigeert voor echoputten, marketeers (SEO) en reputatie van bronnen.

Daarnaast heeft Google een databank aangelegd vol feitelijke, wetenschappelijke en encyclopedische informatie: de Google Knowledge Vault. Hiermee kan het informatie op waarheid checken zoals de omvang van de aarde, de snelheid van het licht en dergelijke. Een bericht over sneeuw in Israël zou dan aangemerkt kunnen worden als ‘onwaarschijnlijk’ vanwege het warme klimaat van het land.

Omgaan met gepolariseerd debat

Google’s algoritme zoekt naar consensus tussen de informatie uit verschillende bronnen. Dat wordt echter lastig als er twee tegenovergestelde ‘waarheden’ zijn die allebei even fanatiek gepromoot worden in een netwerk van personen en nieuwssites.

Google meldde al dat het hier last van had tijdens de laatste Amerikaanse presidentsverkiezingen. Er waren twee kampen met een hecht netwerk van ‘incrowd’ die voortdurend elkaar versterken, herhalen en zich afzetten tegen de tegenstander. In Nederland kunnen we denken aan de recente discussie over vermeend racisme binnen Forum voor Democratie (FvD): ook hier is een zeer gepolariseerd debat tussen bronnen die zeker zeggen te weten dat FvD racistisch is, maar er is ook een grote FvD-aanhang die alle aantijgingen met veel nadruk ontkent.  

Google-topman Eric Schmidt gaf in een interview in 2017 aan dat het bedrijf niet al te positief is over de mogelijkheden om met kunstmatige intelligentie slechte berichtgeving tegen te houden.

Kunstmatige intelligentie als heilige graal?

De Nederlandse startup NWZER is hier positiever over. Dit bedrijf gebruikt kunstmatige intelligentie om de betrouwbaarheid van een bericht in te schatten, door net als Google te kijken naar consensus in berichtgeving. Wanneer meerdere bronnen over eenzelfde feit berichten, is de kans groot dat dit bericht waar is. De software kijkt naar consistentie in berichtgeving en kan dankzij de kunstmatige intelligentie ook gegevens uit verschillende bronnen vergelijken. Onjuiste informatie valt dus eerder door de mand.

Het Groningse Trust the Source ontwikkelt een automatische Nederlandstalige online fact-checker. Door op zoek te gaan naar de bron en verbanden te leggen tussen taalgebruik, locatie en andere kenmerken wordt een inschatting gemaakt van de betrouwbaarheid van een tweet. Een tweet in de ik-vorm door iemand vlakbij de plaats van een incident heeft bijvoorbeeld een hoge betrouwbaarheid. In de toekomst zal ook gekeken worden naar de foto’s en video’s in tweets. De tool kan journalisten helpen bij hun speurwerk.

De toegevoegde waarde van kunstmatige intelligentie zit dus vooral in het opsporen van inconsistente informatie en het ontdekken van bepaalde verspreidingspatronen. Een harde uitspraak doen zoals fact-checkers is een brug te ver. Dit komt omdat het vrijwel onmogelijk is om over alle informatie te beschikken voor het vellen van een sluitend oordeel. Een bericht kan onwaarschijnlijk maar toch waar zijn. Er blijft dus actie nodig zoals het controleren van berichten door observaties ter plekke, van experts of door meerdere betrokken personen te raadplegen.

Labelen of filteren?

Google, Facebook en Twitter gebruiken voortdurend algoritmes om te bepalen in welke volgorde en op welke manier we nieuws in onze tijdlijnen te zien krijgen. Door hun strijd tegen nepnieuws komen daar nieuwe criteria bij. Onwaarschijnlijke berichten krijgen sneller een lage ranking in tijdlijnen en zoekresultaten. Daarmee worden de platformen nog sturender in de informatie die ze ons aanbieden.

Het automatiseren van nepnieuwsbestrijding is interessant maar leidt tegelijkertijd tot meer filtering van informatie en systemen die daarover beslissen. Menselijke controle, nuance en satire, debat en kritische journalistiek ontbreken daarin. De berichtgeving van De Volkskrant over de leugen van Halbe Zijlstra begon met een vermoeden op basis van onwaarschijnlijkheid maar kon pas hard worden gemaakt na gedegen journalistiek onderzoek. Kunstmatige intelligentie mag dan een veelbelovende technologie zijn, het is nog niet de door velen gehoopte oplossing voor nepnieuws.

Lees ook deel 1 van deze serie: Een betere definitie van nepnieuws is broodnodig.

Lees ook deel 2: Fact-checken: gevecht tegen de bierkaai!?

Nepnieuws
Nog geen reactie — begin de discussie!