Kategorie-Archiv: Datenjournalismus

Datenjournalismus im November 2014

Screenshot http://qz.com/296941/interactive-graphic-every-active-satellite-orbiting-earth/

Screenshot http://qz.com/296941/interactive-graphic-every-active-satellite-orbiting-earth/

INTERVIEWS & ARTIKEL

Gleich zu Beginn begeben wir uns mal mutig auf die Metaebene: Was ist Datenjournalismus überhaupt? Worüber reden wir hier eigentlich? Tony Hirst hatte bereits im September eine interessante Diskussion angeregt, als er eine Abgrenzung zwischen “Data Reporting” und “Data Journalism” vorschlug. Dazu gibt es übrigens hier einen interessanten Twitter-Austausch zwischen Tony, Emily Bell und Gavin Sheridan. Auch Mark Coddington bietet eine Typologie des Begriffs Datenjournalismus an. Im deutschsprachigen Raum beschäftigt sich Prof. Brosius mit der “Begriffsvielfalt rund um ‘Computational Journalism’“. Mittlerweile kommt auch noch eine weitere Dimension hinzu: Ist Journalismus per Virtual Reality auch ein Genre des Datenjournalismus?

Hach, Student/in müsste man sein – US-Universität Stanford bietet einen “Public Affairs Data Journalism”-Kurs an. Besonders interessant sind hier die Datensätze, mit denen die Studenten im Rahmen von Projekten arbeiten sollen, die empfohlenen Tutorials und die Literaturempfehlungen.

Weiterlesen

Nachdenken über Erzählformen und Datenjournalismus in Virtual Reality

elite_planet

Seit wenigen Tagen haben wir nun eine Virtual Reality-Brille im Büro. Das erste Fazit: Die Oculus Rift als „Developer Kit“ in der zweiten Version ist definitiv noch nicht endverbrauchertauglich. Die Auflösung (1920*1080 – Full HD) ist zu niedrig – für jedes Auge steht eben nur die Hälfte der Gesamtauflösung zur Verfügung. Es ist nicht unheimlich schwierig, dass Gerät zum Laufen zu bringen; benötigt wird aber zumindest Sicherheit im Umgang mit diversen Einstellungen des eigenen Rechners. Es scheint auch so zu sein, dass man sich langsam an die Nutzung des Geräts gewöhnen muss; es beansprucht die Augen, hinterlässt nach längerer Nutzung und dem Absetzen ein leichtes Gefühl der Desorientierung.

Das Headtracking allerdings scheint die Gefahr der “Seekrankheit” deutlich zu mindern (eine Kamera erfasst die Neigung des Kopfes und erlaubt, dass man sich durch Annäherung des Kopfes ein Ding in der virtuellen Welt näher betrachten kann). Zudem ist es beeindruckend, wie schnell sich der Kopf wenden lässt, ohne ein hinterherhinkendes oder schlierendes Bild.

Was die Rift jetzt schon liefert: Eine eindrucksvolle Ahnung davon, was in ein oder zwei Jahren möglich sein könnte, wenn die Auflösung höher und die Brille leichter ist. Die Vorabversion des bald erscheinenen Spiels „Elite Dangerous“ ist dafür der derzeit wohl beste Showcase. Wer aus einer riesigen Raumstation hinausgeleitet und einen Planeten in 3D vor seinen Augen im weiten Schwarz des Weltraums hängen sieht, merkt: Diese Technologie hat durch sein Erfahrbarmachen von Räumlichkeit ein enormes Potential.

Weiterlesen

Müssen Datenjournalisten programmieren können?

Tweet_Programmieren_DDJ_Natalia_Karbasova

Mit diesem etwas vereinfachten Statement von mir trat Natalia Karbasova auf Twitter eine kleine Diskussion zu Datenjournalismus (DDJ) und Programmierkünsten los, die zeigt, dass diese Frage alles andere als beantwortet ist. Vielleicht, weil wir hierzulande noch keine klare Vorstellung davon haben, wie guter Datenjournalismus entstehen kann. Und was er überhaupt ist.

Die Diskussion ums Programmieren lohnt also. Bisher verläuft sie allerdings ziemlich schwarz-weiß, scheint mir: Wer Programmieren kann, ist dafür, der Rest ist dagegen. Egal, ob er tatsächlich nicht programmieren will, es sich nicht zutraut, oder einfach keine Chance sieht, die Zeit fürs Lernen und Ausprobieren aufzubringen.

Ich starte hier den Versuch, die Diskussion aufs Inhaltliche zu lenken: Wo und wie hilft es Datenjournalisten konkret, coden zu können?
Weiterlesen

Der langweilige Datenjournalismus zur Fußball-WM

Project BABB, Telegraph UK

Es gab ein Feuerwerk an Datenstücken und Interactives rund um die Fußball-WM der Männer in Brasilien: Gut zu beobachten war, wie die New York Times ihre Muskeln spielen ließ und ein Stück nach dem anderen veröffentlichte – und nicht zuletzt in den Liveblogs direkt Datenvisualisierungen einbaute.

Hier im Blog habe ich 21 Visualisierungen und interaktive Stücke zum Thema gesammelt. Handwerklich sind einige von ihnen grandios. Aber wirklich vorher Unbekanntes oder Erkenntnisreiches, etwas, das eine neue Sicht der Dinge lieferte, habe ich keines entdeckt.

Vornehmlich ging es rein um das Sportereignis an sich; nicht um ökonomische, politische oder soziale Themen, die im Zusammenhang mit dem Event stehen. Wie wäre es mit Stücken zu Geldmaschine Fifa, zu Korruption, zu Einnahmen und Ausgaben des Staates Brasilien, über Reisewege der Fans inklusive C02-Ausstoß usw. usf. gewesen?

Aber es ging eben nur um das Spiel, vielleicht auch Ausdruck davon, dass in den Redaktionen viele Fans sitzen. Neben einer Liste aller Spieler diente als zweite vorwiegend verwendete Datenquelle die Firma Opta (zur Messung von Daten bei Fußballspielen habe ich im Blog vor einigen Jahren hier geschrieben). Einen Diskurs über die Qualität dieser Daten oder ein Hinterfragen der Datengenese des Quasi-Monopolisten ist mir nicht bekannt; das gilt auch für die Daten der FIFA. (Update: In einem Kommentar unten wird auf diesen Text hingewiesen: “6 Gründe warum Spiegel Onlines ‘Fussballdaten’ problematisch sind”.)

Weiterlesen

Sammlung: Datenstücke zur Fußball-WM 2014

Rund um die Fußball-Weltmeisterschaft der Männer 2014 in Brasilien werden mehr und mehr datenjournalistische und interaktive Stücke veröffentlicht.

Eine fortlaufend ergänzte Sammlung:

Spiegel Online: Die Abrechnung (16.7.) – Interactiveabrechnung

Twitter: Replay #worldcup2014 (15.7.) – Interactivereplay

B. Morgenpost: Die WM der Selfies (14.7.)  - Interactiveselfies

EconomistEvery goal scored in the football World Cup, by minute (2.7.) – Interactive goaaaal

Zeit Online: WM-Fieberkurven auf Twitter (27.6.) – Interactivekurve

NYT: 984 Ways the United States Can Advance (26.6.) – Interactiveuswins

Weiterlesen

Tausche Daten gegen Demokratie

pen Micro Data: Offener Zugang auf alle Forschungsdaten für den Journalismus

Vorlage: Open Knowledge Definition

Um Open Data steht es in Deutschland schlecht. Nur zaghaft und geringfügig stellen Staat, Politik und andere Institutionen der Öffentlichkeit Daten offen zur Verfügung. Für eine Res publica wie Deutschland ist das schädlich. Die Daten, die man bräuchte, um relevanten Journalismus zu betreiben und die Mächtigen zu kontrollieren, sind oft schlichtweg nicht zu bekommen.

Deshalb müssen wir klar machen, wie weit wir von wahrem Open Data noch entfernt sind und es selbstbewusst einfordern. Ich habe das gerade auf Einladung des Rates für Sozial und Wirtschaftsdaten (RatSWD) auf deren großer Jahreskonferenz, 6KSWD, getan. Dort habe ich eine kleine Utopie vorgestellt und gefordert, dass Staat und Wissenschaft dem (Daten-)Journalismus ihre Daten auf Mikroebene zur Verfügung stellen sollten: Journalisten könnten dann mit den Daten auf Einzelpersonen-Ebene arbeiten (zum Beispiel den Daten aller einzelnen Rentner mit ihren kompletten, von der Rentenversicherung gespeicherten Angaben – allerdings am Ende anonymisiert). Ein Monopol von Wissenschaft oder Behörden auf Mikrodaten gibt es nicht. Sie gehören in einer Demokratie dem Volk.

Weiterlesen

In eigener Sache: Björn Schwentker wird hier Autor

Foto: Nicole Sturz

Foto: Nicole Sturz

Ab sofort schreibt Björn Schwentker regelmässig hier auf datenjournalist.de. Der Hamburger ist gut bewandert in Statistik; sein Steckenpferd ist Demografie – siehe sein demografie-blog.de; bei Twitter ist er @BSchwentker.

Björns Motto:

“Wer die Daten kontrolliert, hat die Macht. Wir brauchen einen Journalismus, der diese Macht demokratisiert.”

Eine erster Beitrag von ihm findet sich bereits hier auf datenjournalist.de: Tausche Daten gegen Demokratie .

Willkommen Björn.

Interview mit Datenjournalistin Sylke Gruhnwald

Sylke Gruhnwald (Bio, Twitter) arbeitet bei der Neuen Zürcher Zeitung. Sie leitet dort seit 2012 den Bereich NZZ-Data

Wann ist Dir data-driven-journalism das erste Mal begegnet und wie verlief von dort an Dein beruflicher Weg hin zu Deiner jetzigen Arbeit bei der NZZ?

Simon Rogers und der Data-Blog des Guardian – das Blog bringe ich damit in Verbindung. CAR (Computer-assisted reporting) ist mir sicherlich länger ein Begriff. Angefangen habe ich bei der NZZ in der Wirtschaftsredaktion online. In den letzten zwei Jahren hat sich mein Schwerpunkt immer mehr in Richtung Daten und «interactive news» verlagert. Meine Kollegin Alice Kohli und ich bilden ein Zwei-Frauen-Team und arbeiten in Kooperation mit den Kollegen des Zürcher Design Studios Interactive Things oder auch OpenDataCity.

War es schwer, innerhalb der NZZ dem Thema Datenjournalismus Stellenwert zu verschaffen? Wird Deine Expertise heute selbstverständlich in den alltäglichen Redaktionsprozess einbezogen?

Im Grundsatz war die Etablierung nicht schwierig. Ziel für das nächste Jahr ist es, erwachsen zu werden – sozusagen. Ich möchte mein Team in Richtung datengetriebener Journalismus und zunehmend (investigativer) Recherche positionieren. Dazu zählt auch, dass wir uns mit sicheren Kommunikationsmöglichkeiten beschäftigen, eine eigene sichere Infrastruktur aufbauen, unsere Statistik-Kenntnisse weiter ausbauen, Coden und und und. Und nicht zuletzt müssen wir uns das Vertrauen der Leserschaft erarbeiten.

Weiterlesen


Kurzes making-of zur NZZ-Lobby Visualisierung

Es war ein anhaltendes Ping Pong mit Sylke Gruhnwald von der NZZ: Zusammen mit dem freien Grafiker und Programmierer Christopher Pietsch habe ich von Berlin aus an der heute erschienen Lobbyismus-Visualisierung mit der Datenredakteurin in Zürich gearbeitet. Begonnen haben wir damit vergangenen Herbst; es ist somit meine letzte Arbeit für OpenDataCity – dort schied ich zum Jahreswechsel aus.

Weiterlesen

Fünf Jahre Datenjournalismus: Im Mainstream angekommen

datablog_5yrs

Anfang März 2009 schrieb Simon Rogers den ersten Artikel im Guardian Datablog: „This is a place to discuss data and what we can do with it.“ Rogers experimentierte mit damals neuen Tools wie Google Fusion Tables, setzte konsequent auf die Tabellen von Google Docs, probierte immer wieder neue Dinge aus und zeigte, wie ohne Programmierkenntnisse mit Daten hantiert werden konnte. Als 2010 die beiden großen Wikileaksgeschichten (Afghanistan, Irak) erschienen, konnte der Guardian auch Dank der Expertise in Sachen interaktiver Datenvisualisierung gelungene Arbeiten abliefern.

CAR, computer-assisted-reporting, gab es schon seit Jahrzehnten. 2009 war nicht das Jahr in dem Daten erstmals journalistisch online und in interaktiven Anwendungen genutzt wurde. Adrian Holovatay, dessen Text “A fundamental way newspaper sites need to change” als ein wichtiger Impuls für Datenjournalismus gilt, hatte schon 2005 mit automatisiertem “Crimemapping” per Datensätzen begonnen. Der Start des Datablogs des Guardians war dennoch ein wegweisendes Ereignis: Ein großes international gelesenes Medium widmete sich auf neue Weise regelmässig und explizit Datensätzen, die im journalistischen Alltag  zwar von je her eine Rolle spielten. Aber selten zuvor war Daten die Hauptrolle zugekommen und sie unmittelbar für die Schilderung eines Sachverhalts oder Vorgangs genutzt worden. Und soweit es sich nachvollziehen lässt, wurde der Begriff data-driven-journalism und Datenjournalismus 2009/2010 geprägt. Genau in der Zeit übrigens, in der auch das Thema “Open Data” Konjunktur bekam: Datensätze wurden vermehrt als gesellschaftliche Ressource begriffen.

Weiterlesen