Wordt datajournalistiek een soort van ‘invuljournalistiek’?

Het lijkt tegenwoordig steeds makkelijker te worden om aan datajournalistiek. Je gooit wat cijfers in een webdienst als Datawrapper of LocalFocus en rolt vanzelf een mooie visualisatie uit. Betekent dit dat datajournalistiek een simpele invuloefening wordt voor elke journalist?

Alhoewel datajournalistiek al meer dan 50 jaar oud is begint zij nu pas aan een grote vlucht. Met regelmaat publiceren de media resultaten van analyse van cijfers, meestal voorzien van schitterende visualisaties. De lintjesregen, de beste gemeente van Nederland, sterftecijfers van ziekenhuizen, inbraken, verkeersongelukken, verkiezingsuitslagen en natuurlijk vluchtelingen/asielzoekers, alles wordt gekwantificeerd en de conclusies zijn nieuws.

Sociale wetenschap met een deadline

Datajournalistiek is, zei Steve Doig,

“social science done on deadline”.

Datajournalisten graven steeds dieper in de gereedschapskist van de sociale wetenschappen voor het maken van nieuwsverhalen. Een beter gefundeerde omschrijving is:

Data journalism is a process by which analysis and presentation of data are employed to better inform and engage the public. Its roots are in the fields of computer-assisted and investigative reporting, but data journalism products may add engagement through customization and user contribution made possible by Web development and programming techniques.”

‘Precision journalism’

Phillip Meyer, een van de grondleggers van deze vorm van journalistiek, gebruikte in de jaren zestig de uitkomsten van een survey om de rellen in Detroit te verklaren. Hij gebruikte voor de analyse een IBM mainframe en noemde het precison journalism:

“…to push journalism toward science, incorporating both the powerful data-gathering and -analysis tools of science and its disciplined search for verifiable truth.”

Pas met de introductie van desktopcomputers ging datajournalistiek iets voorstellen. Spreadsheets en databases kwamen voor het eerste binnen handbereik van journalisten en werden gebruikt om nieuws te maken. ‘Drunken driving’ (bestuurders van schoolbussen met een veroordeling van rijden onder invloed) is een van de inmiddels klassieke voorbeelden van wat toen heette CARR – Computer Assisted Research and Reporting.  CARR is een slechte naam want computers gebruiken voor reporting zegt niets, beter is de term ‘analytical journalism’.

Upshot

De laatste 5 jaar is de term ddj (data driven journalism) of datajournalistiek populair geworden. Datajournalistiek lijkt een eigen journalistieke discipline te worden. Niet alleen publiceren media resultaten van data-analyse op hun eigen platforms, er worden ook nieuwe platforms opgericht die apart aandachtschenken aan dit soort onderzoek, zoals Upshot van de New York Times.

Alhoewel in de praktijk datajournalistiek vooral wordt geassocieerd met het maken van indrukwekkende visualisaties, is de inhoud toch wat ruimer. Visualisaties vormen weliswaar het hart van het journalistieke verhaal, maar een analyse van de data gaat hier aan vooraf. Met oude journalistiek gebaseerd op tekst kom je in de datajournalistiek niet zo ver. Een datajournalistiek project veronderstelt kennis en vaardigheden zoals het scrapen van data op webpagina’s, dataverwerking en statistische analyse met spreadsheets en het maken van grafieken en kaarten.

Iedereen kan het

Gelukkig wordt het je steeds makkelijker gemaakt; met datajournalistieke webdiensten als Datawrapper en LocalFocus kan iedereen vrij eenvoudig data visualiseren. Duc Quang Nguyen schrijft in Data Journalist a Pointless Job Title:

“The rise of simple free interactive charting solutions … has considerably democratised data visualisation. What used to be performed only by data journalists is now more commonly a standard skill among digital journalists.”

Specialist nog nodig?

Toch is er bij datajournalistieke projecten ook gespecialiseerde kennis nodig van een dataspecialist. Dat is meestal geen journalist maar iemand met een IT-achtergrond met specialistische kennis van programmeren voor het web (javascript), scrapen (Python), visualisaties in d3(data driven documents), GIS (geografische informatiesystemen) en statische analyse met Rstats.

Deze behoefte leidt tot een tweede ontwikkeling: het outsourcen van data-analyse en visualisatie. Dat kunnen bijvoorbeeld zzp’ers zijn die hun specialistische kennis in dienst stellen van de journalistiek. Soms zijn dat wetenschappers met een flinke IT- en statistische bagage, en ook journalisten die een nieuwe invulling zoeken voor hun vak.

Soms maakt zo’n dataspecialist deel uit van de redactie. Het is immers toch wat eenvoudiger om een IT’er op te leiden in de journalistiek, dan journalisten de geheimen van het javascript of Rstats bij te brengen.

Invuljournalistiek?

Als deze trends zich doorzetten dan is de vraag of een datajournalist niet ‘een pointless job title’ wordt. Ik denk niet dat datajournalistiek ‘invuljournalistiek’ wordt: gooi je data maar in de container van de visualisatiediensten op het web, en hup, daar heb je de plaatjes.

Zo werkt het niet, want een diepgravende statistische analyse met 95% wetenschappelijke zekerheid ligt buiten de ambitie van menig journalist.  Het is nu eenmaal zo dat de gecijferdheid of numeracy onder journalisten niet erg hoog is. Als het berekenen van een procentuele stijging of daling al bijna rocket science is voor journalisten, dan is er op het terrein van cijfers manipuleren in een spreadsheets nog veel te winnen.

Bovendien wordt nogal eens vergeten dat een visualisatie van data niet zozeer leuk is om naar te kijken, maar de analist/journalist vooral een indruk van de cijfers geeft. Daar heb je wel verstand van zaken voor nodig. Ook al is het betrekkelijk eenvoudig om staafdiagrammen of cirkeldiagrammen, maar ook meer complexe box plots en scatter plots, snel te maken in een spreadsheet of bijvoorbeeld met een tool als Google charts of Tableau.

Voor een geografische analyse met kaarten zijn er vele eenvoudige mogelijkheden, bijvoorbeeld Google Fusion Tables. En tenslotte het scrapen en opschonen van data veronderstelt geen kennis van bijvoorbeeld Python, maar lukt heel aardige met programma’s als Outwit-Hub en Open Refine. Mijn ervaring is dat dit soort know how gemakkelijk is te trainen. Bovendien zijn er altijd een paar journalisten in een training – dataspecialisten in spe – die nog wat verder willen met bijvoorbeeld Rstats, netwerkanalyse of scrapen met regex (regular expressions: %#$@!).

Dit lijkt me op dit moment de basis voor de datajournalistiek, die een stevige brug vormt tussen de web-based datavisualisatie en de dataspecialisten. Media die datajournalist niet als pointless job title beschouwen zullen in die brug moeten investeren.

Peter Verweij –

Peter Verweij (1949), studeerde sociologie en filosofie aan de Universiteit van Nijmegen. Tot 2011 was hij werkzaam aan de School voor de Journalistiek te Utrecht als docent op het gebied van online journalistiek en computer assisted research and reporting (CAR). Momenteel werkt hij als trainer en consultant in zijn bedrijf D3-Media.

Alle artikelen van Peter Verweij op De Nieuwe Reporter.

  • Bram Talman

    En vergeet vooral niet: wie controleert de controleurs? De data ‘nabewerkt’ zien in de vorm van een of meer grafiekjes, met eventueel commentaar, is leuk. Maar waarom is het zo moeilijk om ook de dataset zelf toegankelijk te maken?
    Gelukkig kan, via reverse engineering, de data waarop een grafiek is gebaseerd vaak worden achterhaald.