Kategorie-Archiv: Datenjournalismus

Müssen Datenjournalisten programmieren können?

Tweet_Programmieren_DDJ_Natalia_Karbasova

Mit diesem etwas vereinfachten Statement von mir trat Natalia Karbasova auf Twitter eine kleine Diskussion zu Datenjournalismus (DDJ) und Programmierkünsten los, die zeigt, dass diese Frage alles andere als beantwortet ist. Vielleicht, weil wir hierzulande noch keine klare Vorstellung davon haben, wie guter Datenjournalismus entstehen kann. Und was er überhaupt ist.

Die Diskussion ums Programmieren lohnt also. Bisher verläuft sie allerdings ziemlich schwarz-weiß, scheint mir: Wer Programmieren kann, ist dafür, der Rest ist dagegen. Egal, ob er tatsächlich nicht programmieren will, es sich nicht zutraut, oder einfach keine Chance sieht, die Zeit fürs Lernen und Ausprobieren aufzubringen.

Ich starte hier den Versuch, die Diskussion aufs Inhaltliche zu lenken: Wo und wie hilft es Datenjournalisten konkret, coden zu können?
Weiterlesen

Der langweilige Datenjournalismus zur Fußball-WM

Project BABB, Telegraph UK

Es gab ein Feuerwerk an Datenstücken und Interactives rund um die Fußball-WM der Männer in Brasilien: Gut zu beobachten war, wie die New York Times ihre Muskeln spielen ließ und ein Stück nach dem anderen veröffentlichte – und nicht zuletzt in den Liveblogs direkt Datenvisualisierungen einbaute.

Hier im Blog habe ich 21 Visualisierungen und interaktive Stücke zum Thema gesammelt. Handwerklich sind einige von ihnen grandios. Aber wirklich vorher Unbekanntes oder Erkenntnisreiches, etwas, das eine neue Sicht der Dinge lieferte, habe ich keines entdeckt.

Vornehmlich ging es rein um das Sportereignis an sich; nicht um ökonomische, politische oder soziale Themen, die im Zusammenhang mit dem Event stehen. Wie wäre es mit Stücken zu Geldmaschine Fifa, zu Korruption, zu Einnahmen und Ausgaben des Staates Brasilien, über Reisewege der Fans inklusive C02-Ausstoß usw. usf. gewesen?

Aber es ging eben nur um das Spiel, vielleicht auch Ausdruck davon, dass in den Redaktionen viele Fans sitzen. Neben einer Liste aller Spieler diente als zweite vorwiegend verwendete Datenquelle die Firma Opta (zur Messung von Daten bei Fußballspielen habe ich im Blog vor einigen Jahren hier geschrieben). Einen Diskurs über die Qualität dieser Daten oder ein Hinterfragen der Datengenese des Quasi-Monopolisten ist mir nicht bekannt; das gilt auch für die Daten der FIFA. (Update: In einem Kommentar unten wird auf diesen Text hingewiesen: “6 Gründe warum Spiegel Onlines ‘Fussballdaten’ problematisch sind”.)

Weiterlesen

Sammlung: Datenstücke zur Fußball-WM 2014

Rund um die Fußball-Weltmeisterschaft der Männer 2014 in Brasilien werden mehr und mehr datenjournalistische und interaktive Stücke veröffentlicht.

Eine fortlaufend ergänzte Sammlung:

Spiegel Online: Die Abrechnung (16.7.) – Interactiveabrechnung

Twitter: Replay #worldcup2014 (15.7.) – Interactivereplay

B. Morgenpost: Die WM der Selfies (14.7.)  - Interactiveselfies

EconomistEvery goal scored in the football World Cup, by minute (2.7.) – Interactive goaaaal

Zeit Online: WM-Fieberkurven auf Twitter (27.6.) – Interactivekurve

NYT: 984 Ways the United States Can Advance (26.6.) – Interactiveuswins

Weiterlesen

Tausche Daten gegen Demokratie

pen Micro Data: Offener Zugang auf alle Forschungsdaten für den Journalismus

Vorlage: Open Knowledge Definition

Um Open Data steht es in Deutschland schlecht. Nur zaghaft und geringfügig stellen Staat, Politik und andere Institutionen der Öffentlichkeit Daten offen zur Verfügung. Für eine Res publica wie Deutschland ist das schädlich. Die Daten, die man bräuchte, um relevanten Journalismus zu betreiben und die Mächtigen zu kontrollieren, sind oft schlichtweg nicht zu bekommen.

Deshalb müssen wir klar machen, wie weit wir von wahrem Open Data noch entfernt sind und es selbstbewusst einfordern. Ich habe das gerade auf Einladung des Rates für Sozial und Wirtschaftsdaten (RatSWD) auf deren großer Jahreskonferenz, 6KSWD, getan. Dort habe ich eine kleine Utopie vorgestellt und gefordert, dass Staat und Wissenschaft dem (Daten-)Journalismus ihre Daten auf Mikroebene zur Verfügung stellen sollten: Journalisten könnten dann mit den Daten auf Einzelpersonen-Ebene arbeiten (zum Beispiel den Daten aller einzelnen Rentner mit ihren kompletten, von der Rentenversicherung gespeicherten Angaben – allerdings am Ende anonymisiert). Ein Monopol von Wissenschaft oder Behörden auf Mikrodaten gibt es nicht. Sie gehören in einer Demokratie dem Volk.

Weiterlesen

In eigener Sache: Björn Schwentker wird hier Autor

Foto: Nicole Sturz

Foto: Nicole Sturz

Ab sofort schreibt Björn Schwentker regelmässig hier auf datenjournalist.de. Der Hamburger ist gut bewandert in Statistik; sein Steckenpferd ist Demografie – siehe sein demografie-blog.de; bei Twitter ist er @BSchwentker.

Björns Motto:

“Wer die Daten kontrolliert, hat die Macht. Wir brauchen einen Journalismus, der diese Macht demokratisiert.”

Eine erster Beitrag von ihm findet sich bereits hier auf datenjournalist.de: Tausche Daten gegen Demokratie .

Willkommen Björn.

Interview mit Datenjournalistin Sylke Gruhnwald

Sylke Gruhnwald (Bio, Twitter) arbeitet bei der Neuen Zürcher Zeitung. Sie leitet dort seit 2012 den Bereich NZZ-Data

Wann ist Dir data-driven-journalism das erste Mal begegnet und wie verlief von dort an Dein beruflicher Weg hin zu Deiner jetzigen Arbeit bei der NZZ?

Simon Rogers und der Data-Blog des Guardian – das Blog bringe ich damit in Verbindung. CAR (Computer-assisted reporting) ist mir sicherlich länger ein Begriff. Angefangen habe ich bei der NZZ in der Wirtschaftsredaktion online. In den letzten zwei Jahren hat sich mein Schwerpunkt immer mehr in Richtung Daten und «interactive news» verlagert. Meine Kollegin Alice Kohli und ich bilden ein Zwei-Frauen-Team und arbeiten in Kooperation mit den Kollegen des Zürcher Design Studios Interactive Things oder auch OpenDataCity.

War es schwer, innerhalb der NZZ dem Thema Datenjournalismus Stellenwert zu verschaffen? Wird Deine Expertise heute selbstverständlich in den alltäglichen Redaktionsprozess einbezogen?

Im Grundsatz war die Etablierung nicht schwierig. Ziel für das nächste Jahr ist es, erwachsen zu werden – sozusagen. Ich möchte mein Team in Richtung datengetriebener Journalismus und zunehmend (investigativer) Recherche positionieren. Dazu zählt auch, dass wir uns mit sicheren Kommunikationsmöglichkeiten beschäftigen, eine eigene sichere Infrastruktur aufbauen, unsere Statistik-Kenntnisse weiter ausbauen, Coden und und und. Und nicht zuletzt müssen wir uns das Vertrauen der Leserschaft erarbeiten.

Weiterlesen


Kurzes making-of zur NZZ-Lobby Visualisierung

Es war ein anhaltendes Ping Pong mit Sylke Gruhnwald von der NZZ: Zusammen mit dem freien Grafiker und Programmierer Christopher Pietsch habe ich von Berlin aus an der heute erschienen Lobbyismus-Visualisierung mit der Datenredakteurin in Zürich gearbeitet. Begonnen haben wir damit vergangenen Herbst; es ist somit meine letzte Arbeit für OpenDataCity – dort schied ich zum Jahreswechsel aus.

Weiterlesen

Fünf Jahre Datenjournalismus: Im Mainstream angekommen

datablog_5yrs

Anfang März 2009 schrieb Simon Rogers den ersten Artikel im Guardian Datablog: „This is a place to discuss data and what we can do with it.“ Rogers experimentierte mit damals neuen Tools wie Google Fusion Tables, setzte konsequent auf die Tabellen von Google Docs, probierte immer wieder neue Dinge aus und zeigte, wie ohne Programmierkenntnisse mit Daten hantiert werden konnte. Als 2010 die beiden großen Wikileaksgeschichten (Afghanistan, Irak) erschienen, konnte der Guardian auch Dank der Expertise in Sachen interaktiver Datenvisualisierung gelungene Arbeiten abliefern.

CAR, computer-assisted-reporting, gab es schon seit Jahrzehnten. 2009 war nicht das Jahr in dem Daten erstmals journalistisch online und in interaktiven Anwendungen genutzt wurde. Adrian Holovatay, dessen Text “A fundamental way newspaper sites need to change” als ein wichtiger Impuls für Datenjournalismus gilt, hatte schon 2005 mit automatisiertem “Crimemapping” per Datensätzen begonnen. Der Start des Datablogs des Guardians war dennoch ein wegweisendes Ereignis: Ein großes international gelesenes Medium widmete sich auf neue Weise regelmässig und explizit Datensätzen, die im journalistischen Alltag  zwar von je her eine Rolle spielten. Aber selten zuvor war Daten die Hauptrolle zugekommen und sie unmittelbar für die Schilderung eines Sachverhalts oder Vorgangs genutzt worden. Und soweit es sich nachvollziehen lässt, wurde der Begriff data-driven-journalism und Datenjournalismus 2009/2010 geprägt. Genau in der Zeit übrigens, in der auch das Thema “Open Data” Konjunktur bekam: Datensätze wurden vermehrt als gesellschaftliche Ressource begriffen.

Weiterlesen

Datenjournalismus im November & Dezember 2013

Eine Auswahl von Links und Materialien

trafficjam

Wie effektiv kleine interaktive Datenanwendungen eingesetzt werden können, um einen Sachverhalt zu erklären, zeigt dieses Stück über Staus: What Are Traffic Waves and Why Do They Happen So Much?

Es gab diverse Jahresrückblicke:

  • die NYT mit: The Year in Interactive Storytelling (Link)
  • die Washington Post: The Year in Graphics (Link)
  • Andy Kirk (visualising data) mit “10 significant visualisation developments: July to December 2013″ (Link)
  • Robert Kosara aka EagerEyes übt einen Vorausblick: The State of Information Visualization, 2014 (Link)

Das Tool Datawrapper beherrscht nun auch Kartendarstellung. Der maßgebliche Entwickler des Werkzeugs, Gregor Aisch, beginnt dieses Jahr in der Grafikabteilung der NYT – ein Interview mit ihm findet sich hier im Blog.

Die Wind Map begeistert, weil sie die Balance zwischen “dataporn” und nützlicher Visualierung hält – jetzt gibt es die Winddaten für den ganzen Globus als Earth Wind Map (unten links auf “earth” klicken, um aus verschiedenen Parametern zu wählen).

Tolle Ressource: 300 sites providing freely available geographic datasets (Link).

Weiterlesen

In eigener Sache

Seit Beginn diesen Jahres bin ich nicht mehr für und bei OpenDataCity tätig.

Ende 2010 hatten Marco Maas und ich uns zusammen überlegt, nicht nur über Datenjournalismus zu reden, sondern ihn auch zu machen. Mit Gregor Aisch entwickelten wir die Castor-Livemap und bald die Fluglärmkarte für die taz. Zusammen mit Michael Kreil entwarfen und programmierten wir die Vorratsdatenanwendung auf Zeit Online. Michael wurde bald fester Teil von OpenDataCity.

Seitdem haben wir von Hamburg und Berlin aus so manche größere und kleinere Anwendung konzeptioniert und umgesetzt – mal in Kooperation mit oder im Auftrag von Medien, mal auf eigene Faust. OpenDataCity bestand Ende 2013 aus einem Kernteam von sieben Personen plus einem halben Dutzend freier Mitarbeiter. Pi mal Daumen haben wir in den letzten drei Jahren 200 Trainingstage für Datenjournalismus absolviert, mal inhouse oder in Einrichtungen der Journalismusbildung. Wir berieten einige Medienhäuser und sprachen auf diversen Kongressen, Tagungen und anderen Veranstaltungen.

Wir haben geholfen, Datenjournalismus als Genre und Methode im deutschsprachigen Raum zu verankern. Das hat Spaß gemacht, war manchmal anstrengend, aber fast immer eine spannende Herausforderung. OpenDataCity wird auch ohne meine Mitarbeit weiter gute Arbeit leisten.

Ich selber werde mich weiterhin mit Datenanwendungen und interaktivem Journalismus beschäftigen. Aber vermehrt widme ich mich in diesem Jahr meiner Firma Lokaler. Ihr Produkt ist eine flexible Kartenanwendung, eine “Middleware”, die nach zweieinhalb Jahren Entwicklung nunmehr einsatzbereit ist. In den nächsten Monaten starten einige größere Projekte damit. Darauf will ich mich konzentrieren.