Het algoritme van LA Times-programmeur Ken Schwencke schreef afgelopen week het eerste nieuwsbericht over een aardbeving. Drie minuten na de beving verscheen het artikel al online. Een indrukwekkende journalistieke verandering, volgens velen. “Robots vervangen de journalist”, koppen diverse websites. Journalisten maken plaats voor machines. Stevige uitspraken over technieken die al meer dan tien jaar bestaan. Maar zou het kunnen, robots als de nieuwe journalistieke gatekeepers? Wat vindt de lezer daarvan?

“Robotjournalistiek dringt wereldwijd tot de redactievloeren door”, schrijft BBC eerder deze week. “Het is over voor de journalist”, kopt Huffington Post. Schwenke zelf probeert baan-vrezende journalisten gerust te stellen in een interview met Slate. Volgens hem vullen de robotartikelen het werk van de journalist juist aan. “Met hoe ik het zie, zal niemand zijn baan verliezen, maar maakt het ieders baan juist interessanter.”

De techniek van de robotjournalist

Schwenke maakte voor het aardbevingbericht gebruik van vaste templates waar hij ruwe data in laat rollen. Het aardbevingbericht was niet zijn eerste geautomatiseerde klus. Eerder schreef hij een algoritme dat gegevens over moorden verzamelt en publiceert. In zijn aardbevingartikel combineert hij twee technieken: enerzijds verzamelt hij real time informatie en zet deze om naar data met een betekenis, en anderzijs vertaalt hij deze betekenisvolle data naar een narratief.

Het verzamelen en verwerken van real time data is een techniek die we bewust of onbewust overal tegen komen. Denk aan Buienradar, denk aan de filemeldingen op de ANWB-site. Schwencke voegt hier een alarmfunctie aan toe. Op het moment dat een waarde boven of onder een ingesteld punt komt, zet het systeem een volgende stap in werking: het schrijven van het artikel.

Automatisch verhalen genereren

Voor Nederlandse onderzoekers is de techniek van het automatisch vertellen van verhalen niet nieuw. Al in 2000 ontwikkelden onder meer Mariet Theune en Emiel Krahmer templates om ruwe data om te zetten in een narratief. Het systeem D2S [pdf] zette hierbij Infostrada-data om naar eenvoudige geautomatiseerde sportberichten. De artikelen waren simpel van opbouw, maar doeltreffend. Prima geschikt voor een Teletekst-pagina.

Het vakgebied van Theune en Krahmer heet Natural Language Generation (NLG). Makkelijk gezegd: het omzetten van losse data naar gesproken of geschreven narratieven.

Sinds 2000 werkten vele onderzoekers aan gerelateerde projecten. Zo lanceerde de Universiteit van Aberdeen in 2013 ‘Blogging Birds’. In dit project doen vogels automatisch verslag van hun vluchten. Ze dragen sensoren die hun hoogte, locatie en temperatuur meten. Het NLG-systeem zet deze losse data om in geschreven tekst, waardoor vogels automatisch kunnen bloggen.

Het vakgebied richt zich overigens niet alleen op het genereren van geschreven of gesproken teksten. Het kan ook andersom: het samenvatten van eerdere geschreven teksten, of het vereenvoudigen van teksten. Een vakgebied waar onder meer Sander Wubben van de Universiteit van Tilburg sterk in is.

Van universiteit naar redactie

De technieken van Natural Language Generation zaten tot voor kort verborgen bij computerwetenschappers. Commerciële bedrijven introduceren de technieken nu in het journalistieke veld.

De eerste berichten over het gebruik van computer gegeneerde artikelen stammen uit 2006, toen Thomas Reuters aankondigde gebruik te maken van algoritmes voor het schrijven van financiele nieuwsberichten. Het bedrijf Narrative Science zette in 2012 het gebruik van robotjournalisten echt op de kaart door een samenwerking met Forbes.

Narrative Science zette het wetenschappelijke onderzoek om naar een praktische toepassing waar nu ook de Washington Post en New York Times mee werken. Hierbij hebben ze goed naar hun Nederlandse peers gekeken; in hun recent openbaar gemaakte patent verwijzen ze onder meer naar de onderzoeken van Theune en Krahmer.

Narrative Science ontwikkelde eerdere technieken verder: met hun programma Quill maken ze nu geautomatiseerde berichten die stukken verder gaan dan een feitelijke beschrijving. Het systeem kan een tone of voice toevoegen, of zelfs een voorspellende waarde geven. Een techniek die in de financiële wereld al enige jaren is ingeburgerd. En dat is nog maar het begin, stelt Kris Hammond, CTO van Narrative Science.

In Nederland lijken de redacties nog niet weg te lopen met automatisch gegenereerde berichten. Maar dat is volgens Bart Brouwers, hoofd business development bij TMG slechts een kwestie van tijd. In zijn functie bij Dichtbij ontwikkelde hij templates voor automatische berichten, die alleen nog niet in de praktijk zijn gebruikt. “Maar dit is iets waar we in de toekomst zeker verder mee gaan.”

Wat journalisten van robots vinden

Journalisten wereldwijd reageren gemengd op hun nieuwe robot journalisten. Onderzoeker Arjen van Dalen (Syddansk Universiteit) analyseerde de inhoud van de eerste blogs van techjournalisten over het gebruik van geautomatiseerde schrijvers.

Hij ontdekte een positieve houding, waarbij journalisten hun kans rijk zien om de eenvoudige stukken uit handen te geven en zo meer tijd te spenderen aan stukken met een meer doorwrochte aanpak. Anderen reageren minder enthousiast. Of omdat ze niet geloven dat het echt werkt, of omdat ze wellicht vrezen voor hun baan.

Maar wat vindt de lezer?

De discussie over het gebruik van robotjournalists wordt momenteel vooral gevoerd onder journalisten zelf. We weten weinig van hoe de lezer hier naar kijkt. Terwijl de opkomst van robotjournalistiek vele interessante vraagstukken met zich mee brengt die verder gaan dan de ontwikkeling van de techniek zelf. Want hoe zien de lezers een artikel dat geschreven is door een algoritme? Vertrouwen ze deze afzender meer of minder dan een journalist? Zien ze het verschil eigenlijk wel? Maakt het ze iets uit?

Eerste inzichten laten zien dat het wat de betrouwbaarheid van de afzender niet zo veel uit maakt. Zo concludeert Christer Clerwall van de Karlstad Universiteit dat robotjournalisten net goed scoren op objectiviteit en betrouwbaarheid als menselijke journalisten. Een reden voor Wired om de journalistiek direct gedag te zeggen.

Clerwall gebruikte voor zijn onderzoek een kleine groep respondenten. Aan de Universiteit van Tilburg en voor het Lectoraat Media, Interactie & Narratie van Fontys Hogescholen voer ik momenteel een soortgelijk onderzoek uit.

Uit de eerste resultaten van een experiment onder tweehonderd lezers komt een zelfde beeld naar voren. Lezers beoordelen een computerschrijver wat betrouwbaarheid betreft niet veel anders dan een journalist. Het gaat hierbij om eenvoudige, neutrale nieuwsberichten.

In aanvullende experimenten kijken we onder meer naar de beoordeling van nieuwsberichten waarin een waardeoordeel naar voren komt. Hoe zien lezers dit? Is een waardeoordeel van computers gebaseerd op ruwe data meer te vertrouwen dan het waardeoordeel gebaseerd op het menselijke, journalistieke brein? En welke rol speelt de programmeur hierbij? Is hij dan wellicht de nieuwe gatekeeper?

Robotjournalisten: de nieuwe gatekeeper? Een interessante discussie om op de redactievloer te voeren en als wetenschappers verder te ontdekken.

Al één reactie — discussieer mee!