Detail-Informationen

Autor

Lorenz Matzat

verfasst am

19.06.2012

im Heft

journalist 5/201

facebooktwitterdel.icio.usMister Wongdigg.comaddthis.comMa.gnolia

Mehr zum Thema auf journalist.de

Mehr Texte aus der Redaktionswerkstatt gibt es hier

In ihrem Data-Desk visualisiert die amerikanische Regionalzeitung LA Times Tötungsdelikte im Großraum Los Angeles auf einer interaktiven Karte.

Datenjournalismus im Lokalen

Alles auf eine Karte

Haushaltszahlen, Kriminalitätsstatistiken, Sportergebnisse, Wetterberichte, Verkehrsaufkommen: Gerade lokale und regionale Medien können von den enormen Datenmengen, die es heute gibt, profitieren. Datenjournalist Lorenz Matzat hat für den journalist aufgeschrieben, wie aus einer Lokalzeitungsredaktion ein Datenjournalismus-Labor werden kann.

Rick Perry hatte Großes vor. Der Gouverneur von Texas wollte neuer US-Präsident werden. Doch im Januar gab er auf. Am mangelnden Einsatz im Bundesstaat Iowa kann das nicht gelegen haben. Mehr als 100 Wahlkampfauftritte absolvierte Perry landauf landab. Die Onlinezeitung Texas Tribune dokumentierte seine Kampagne mit einem einfachen Mittel. Auf einer interaktiven Karte markierte sie sämtliche Auftritte und Termine des Kandidaten. Jede Markierung verwies auf weiterführende Artikel. Die Resonanz war groß. Warum sollte nicht auch mal eine Zeitung in Nordrhein-Westfalen auf die Idee kommen, etwa den Wahlkampf des FDP-Spitzenkandidaten Christian Lindner auf diese Weise im Web zu begleiten?

Gerade für Lokalzeitungen ist es lohnenswert, sich mit Datenjournalismus zu beschäftigen. Wichtigste Voraussetzung ist schlicht ein Bewusstsein für die Möglichkeiten, die in jenen Daten stecken, die ohnehin täglich in den Redaktionen auflaufen. Dass Leser sich dafür interessieren, zeigen Vorreiter wie der britische Guardian und die Texas Tribune. In Reading the Riots widmete sich etwa der Guardian ausführlich den sozio-demografischen Hintergründen, die 2011 zu den Krawallen in England beigetragen haben dürften. Heraus kam ein Textdossier, das mit Infografiken und interaktiven Datenvisualisierungen angereichert war.

Der Data Desk der LA Times zeigt, wie sich die unterschiedlichen Bereiche lokal aufgreifen lassen. Dabei ist Datenjournalismus noch ein junges Genre. Es lässt sich darüber streiten, ob es nun etwas eigenständig Neues ist oder nur ein neuer Begriff für die althergebrachte computergestützte Recherche. In Europa machte der sogenannte data driven journalism erstmals von sich reden, als der Guardian Anfang 2009 sein Datablog gründete.

Zwar dürften die meisten lokalen Medienhäuser anders als große Verlage nicht in der Lage sein, eigene Datenredaktionen mit Rechercheuren, Programmierern und Designern aufzubauen. Doch die lokale Berichterstattung hat einen großen Vorteil: Sie kann sich auf ein klar umrissenes geografisches Gebiet konzentrieren. Auf Karten sichtbar gemacht, können Geodaten so auf einen Blick lokale Informationen abbilden.

Versucht man, sich dem Datenjournalismus als Genre zu nähern, lassen sich drei Ebenen unterscheiden: erstens die Verlagsebene, zweitens der Workflow in der Redaktion und drittens die Arbeitsweise der einzelnen Journalisten. Der Reihe nach ...

1. Verlag

Die wichtigste Aufgabe des Verlags ist es, eine technische Infrastruktur herzustellen.

Die Texas Tribune beweist, dass Datenjournalismus wirtschaftlich erfolgreich sein kann. 2009 als reine Onlinezeitung gegründet, erreicht die stiftungsfinanzierte Website nach eigenen Angaben dieses Jahr die Wirtschaftlichkeit. Täglich kommen derzeit rund 16.000 eindeutige Besucher auf die Seite, mehr als die Hälfte von ihnen tun das laut eigenen Angaben wegen der Dossiers, die die Texas Tribune im Ressort "Data" anbietet. Das größte Interesse rief eine Datenbank zur Einkommenshöhe der Staatsangestellten hervor.

Infrastruktur
Ein Vorbild kann die Texas Tribune auch deshalb sein, weil sie in der Regel keine aufwendigen interaktiven Anwendungen bereitstellt, sondern auf bestehende Werkzeuge wie Google Fusion Tables setzt. Dennoch ist es wichtig, dass ein Verlag seine technische Infrastruktur so ausrichtet, dass die immer größer werdenden Datenmengen verarbeitet werden können.

Redaktionssysteme und Content-Management-Systeme (CMS) sind selten darauf ausgerichtet, auch Datensätze zu verwalten: Sie sind in der Regel auf den Umgang mit Texten, Bildern und Videos zugeschnitten. Mit Datensätzen zum Haushaltsentwurf der Kommune oder den Einnahmen aus der Gewerbesteuer im vergangenen Jahr sind die Systeme dagegen heillos überfordert. Häufig lassen sie sich aber entsprechend erweitern, damit Journalisten die Zahlen sinnvoll ablegen und aufbereiten können. Entscheidend ist, die Content-Management-Systeme "Schnittstellen-freundlich" anzulegen. Das heißt: Das System muss Inhalte über eine Datenschnittstelle (Application Programming Interface, API) automatisiert ausspucken können.

Inhalte sollten gleich bei der Eingabe eine entsprechende Auszeichnung erhalten. Jeder Text bekommt etwa direkt Angaben zu Ort, Schlagworten oder den wichtigsten Akteuren zugewiesen. Das kostet den Redakteur mit etwas Routine nicht viel Zeit, die Informationen werden aber von vornherein so angereichert, dass sie auf lange Sicht eine eigene Datenquelle darstellen. Näheres zu semantischen Webstandards wie rNews oder schema.org findet sich hier.

IT-Abteilung
Reibungen beim Umgang mit Daten verursacht manchmal das Verhältnis zwischen IT-Abteilung und Redaktion. Hilfreich ist ein Klima, das Experimentieren erlaubt. So können zum Beispiel strikte Sicherheitsbedingungen eines Verlags zumindest in einem kontrollierbaren Raum gelockert werden, damit Programmierer und Redakteure mit Onlinewerkzeugen hantieren können.

Open Data
Lokalzeitungen kommt in ländlichen Gegenden oft eine politische Funktion zu. Diesen Aspekt können sie für ein Lobbying in Sachen Open Data einbringen. Oft haben Verwaltungen Bedenken, Daten der öffentlichen Hand maschinenlesbar zugänglich zu machen. Sich hier als kompetenter Partner anzubieten, der Kommunen hilft, ihre Daten zu veröffentlichen, kann sich lohnen.

Rechtliches
Nicht immer geben öffentliche Einrichtungen Daten freiwillig heraus. Greenpeace veröffentlichte zum Beispiel gegen den Willen der Bundesanstalt für Geowissenschaften eine Liste der möglichen unterirdischen Kohlendioxid-Lagerstätten. Von Vorteil ist es, mit den Informationsfreiheitsgesetzen des jeweiligen Bundeslands vertraut zu sein. Nützlich kann dabei etwa die Plattform Frag-den-Staat sein.

2. Redaktion

Zu den Aufgaben der Redaktion gehört es, sich auf die Suche nach Daten zu begeben, den Datenaspekt "mitzudenken".

Mal eben eine neue Stelle für einen Datenjournalisten zu schaffen, ist selten eine Option. Allerdings dürfte in dem einen oder anderen Redaktionsmitglied schon ein Datenjournalist schlummern, dem nur genügend Freiraum gegeben werden muss, damit sich dieser Bereich in der Redaktion etablieren kann. Voraussetzung ist ein Gespür für Zahlen, eine hohe Affinität zum Digitalen, Lust zum Ausprobieren – nach solchen Personen sollte man Ausschau halten, vielleicht auch unter Volontären oder freien Mitarbeitern.

Datenspeicher
Datensätze sollten zentral gesammelt werden. Sei es auf einem Netzlaufwerk oder – wenn es unsensible Daten sind – bei Google Docs. Dort können Redakteure gemeinsam an Dokumenten arbeiten, die Daten aber auch direkt veröffentlichen oder in die Website einbinden. Auch die Dokumentensoftware DocumentCloud, die mehrere US-Zeitungen gemeinsam betreiben, könnte interessant sein. Derzeit wird eine deutsche Version dieser Software geplant. Ebenfalls hilfreich: das Panda-project der Chicago Tribune und die Open Source Datenkatalog-Software CKAN.

Kartenmaterial
Als Grundlage für Redaktionen bietet sich das freie Kartenmaterial von OpenStreetMap an. Einen eigenen Kartenserver zu betreiben oder Dienste wie Mapbox zu nutzen, dürfte in der Regel wesentlich kostengünstiger sein als Verträge mit Google oder Microsoft.

Workflow
Klingt banal, schafft aber ein Klima für Datenthemen: Wenn in einer Redaktion erst mal ein Bewusstsein dafür geschaffen wurde, den "Datenaspekt" auf Redaktionskonferenzen mitzudenken, ergeben sich Themen häufig von allein: Gibt es beim kommunalen Haushalt die Zahlen als Datensatz? Existiert eine Liste der Hausbrände in der Region mit Adressen in den zurückliegenden Jahren? Wie lässt sich ein Archiv maschinenlesbar gestalten?
Meist gibt es im eigenen Haus auch schon Datenbanken, aus denen sich Informationen herausfiltern lassen. So lässt sich mit den eigenen Artikel-, Foto- und Mailarchiven bereits einiges anstellen. Auch die Einbindung des Publikums mittels Crowdsourcing kann beim Datensammeln helfen. Radiosender betreiben mit Stau- und Blitzermeldern seit Jahren nichts anders. Was sind die lokalen Wasserpreise? Wo hat der jüngste Sturm Schäden hinterlassen?

Ressourcen
Systematisch lokale Informationen abzulegen, ist auf lange Sicht sinnvoll. Es können schlichte Tabellen sein, die klassische Fragen dokumentieren: Wer? Wann? Wo? Was? So entstehen Datenbanken, die ab einem gewissen Umfang redaktionsintern als Recherchepool dienen können.

In Deutschland nimmt die Zahl der offen verfügbaren Daten zu. So beginnen Bundesländer, Datenkataloge aufzubauen (etwa Berlin und Baden-Württemberg) – im Bund soll es 2013 so weit sein. In Österreich wurde eben erst auf Bundesebene das Datenportal http://data.gv.at gestartet.

Auch die Statistischen Ämter sind nicht zu vernachlässigen – vor allem hält das Europäische Amt für Statistik auch regionale Daten der Mitgliedsstaaten in maschinenlesbaren Formaten vor – etwa zum Thema Landwirtschaft (in dem Zusammenhang: farmsubsidy.org und fishsubsidy.org).

3. Journalist

Tabellenkalkulation – für den einzelnen Journalisten ein Muss.

"Man sollte wissen, wie man mit einer Tabelle umgeht und ein grundsätzliches Verständnis für Statistik mitbringen. Man sollte wissen, wie man Daten in eine Tabelle importiert und eine Datenbank wie Access bedienen können, mit der man einfache Suchabfragen oder Sortierungen vornimmt", sagt Aron Pilhofer, leitender Datenjournalist der New York Times.

Tatsächlich bleibt einem die Auseinandersetzung mit einem Tabellenkalkulationsprogramm wie Excel, OpenOffice oder Numbers nicht erspart. Ein Werkzeug für Einsteiger ist das Aufbereitungstool DataWrapper. Für Kartenvisualisierung bietet sich Google Fusion Tables an. Komplexere Visualisierungen lassen sich mit Software wie dem kostenpflichtigen Tableau umsetzen.

Auch für Browser gibt es Tools, um Daten aus Webseiten direkt auszulesen ("Scraper"). Wer sich ans Programmieren wagen möchte, kann direkt auf das mächtige Werkzeug Scraperwiki zurückgreifen.

Grundsätzlich ist zu raten: Schauen Sie sich an, was andere machen. Lassen Sie sich dadurch auf Ideen bringen. Und überhaupt: Entwickeln Sie einen gesunden Datenhunger. Nicht vergessen: Bei Schriftverkehr und Telefonaten mit Pressestellen oder anderen Einrichtungen immer fragen: Gibt es die Tabelle auch im xls-oder csv-Format?

Der autor

Lorenz Matzat lebt und arbeitet als Journalist, Unternehmer und Medienpädagoge in Berlin. Seit Anfang 2011 betreibt er mit zwei Partnern die Datenjournalismusagentur Open Data City.

 

Die Juni-Ausgabe des journalists ist erschienen. Hier geht es zum E-Paper.

Titelthema: Stadtgespräche – Lokalfernsehen im Umbruch.
Kann Lokal-TV fernab von Großstädten funktionieren – und wenn ja, wie? Außerdem: Ein ehemaliger RTL-Chef will mit Volks.TV das Regionalfernsehen aufmöbeln.

Jetzt Probeabo bestellen: Hier gibt es die kommenden drei Ausgaben zum Kennenlernpreis von 10 Euro.

Aktuelle Kommentare zu diesem Text

Noch keine Kommentare.

Kommentare werden moderiert.

Kommentar verfassen

Ins Gästebuch eintragen

 (Wird nicht veröffentlicht)

Bitte geben Sie hier das Wort ein, das im Bild angezeigt wird. Dies dient der Spam-Abwehr.

CAPTCHA-Bild zum Spam-Schutz

Wenn Sie das Wort nicht lesen können, bitte hier klicken.
Viavision