Kategorie-Archiv: Methoden

Land unter beim Onlinejournalismus – Verpasste Chancen beim Hochwasser

Hin und her gingen die Überlegungen. Wäre „Deichbruch am Bildschirm“ nicht passender gewesen oder noch origineller „Im Web im Regen stehen gelassen“? Aber es geht ja nicht um einen Wettbewerb in dämlichen Überschriften, sondern um eine Bestandsaufnahme: Wie wird das Hochwasser, das seit zehn Tagen bestimmendes Thema in Deutschland ist, von den „Qualitätsmedien“ im Netz erzählt und berichtet?

Kurz zusammengefasst: Entäuschend. Bildstrecken, Texte, kärgliche Infografiken. Dabei sind die Nachrichten voll mit Namen von Orten, Flüssen und Deichen. Aber wo sind die? Welchen Gebieten droht in absehbarer Zeit Hochwasser? Wann kommt die Scheitelwelle? Was wurde überflutet, welche Schäden wurden angerichtet?

Eigentlich ein Fest für Datenvisualisierung. Man denke nur an Werke wie den Storm Tracker. Oder interaktive Grafiken der NYT rund um Unwetter und Naturkatastrophen (die NYT hat immerhin eine Karte mit überfluteten Gebieten in Dtl.). Inspiration gibt es genug. Und noch dazu gibt es Daten. Pegel Online veröffentlicht faktisch Open Data, also frei verwendbare Daten über die Pegelstände. Sogar per Schnittstelle, API.

Weiterlesen

re:log: Hintergrund zur Auswertung der W-LAN-Nutzung auf der re:publica 2013

In der Anwendungen lassen sich Gruppen markieren und über die Zeit verfolgen

In der Anwendungen lassen sich Gruppen markieren und über die Zeit verfolgen

Rund 100 Access-Points sorgten für die Netzabdeckung im Veranstaltungsort „Station“ in Berlin. Wann ein Gerät sich während der re:publica 2013 bei welchem Zugriffspunkt anmeldete, wurde festgehalten und diese Daten nutzt unsere Web-App re:log. Wir bekamen von den re:publica Veranstaltern einen pseudonymisierten Datensatz. Da die Macher einen detailliertes Mitschneiden des W-LAN nicht angekündigt hatten – etwa die Aufzeichnung der gesamten Hardware/MAC-Adressen oder des Traffics auf einem Gerät – kann aus Datenschutzgründen nur der Aspekt Verbindungsdauer und -ort ausgewertet werden.

Fürs kommende Jahr, so wird angekündigt, wolle man aber „ gerne vom ‚Aluhut-‚ in den ‚Spackeria-Modus‘ wechseln“ und eine tiefergehende Analyse ermöglichen. Weiterlesen

Hätte, hätte: Datenjournalismus mit den Bahnkundendaten

bahn2Vergangenen Sonntag sorgte eine Vorabmeldung von Spiegel Online für einige Aufmerksamkeit: Sie wies auf einen Artikel im neuen Print-Spiegel hin und behauptete gewohnt reißerisch, die Bahn wolle Kundendaten verkaufen (die Bahn dementierte). De facto, so sezierte es dann Malte Spitz, der sich sowohl den Print-Spiegelartikel angesehen hatte als auch das Kleingedruckte bei der Bahn, hatte SpOn den Text nicht richtig wiedergegeben. Es ging vielmehr darum, dass die Bahn bestimmte AGB geändert hat, um konzernintern die BahnBonus-Daten weitergeben zu können; also das Reiseverhalten derjenigen, die an dem Bonusprogramm teilnehmen, effektiver auswerten zu können, um die jeweiligen Kunden passgenauer mit Werbung zu beschicken (Targeting).

Hätte nun ein Medium eine Datenjournalismus-Taskforce, was wäre möglich gewesen? Die Geschichte kam am Sonntagmorgen um 8 Uhr auf. Ein Newswebsite, die am Montagvormittag eine Datengeschichte dazu gebracht hätte, hätte sicherlich Aufmerksamkeit auf sich gezogen.

Was hätte ein Datenteam also machen können?

Weiterlesen

Was wollen Datenjournalisten vom Forschungs- und Wissenschaftsbetrieb?

 

Neulich fragte die Helmholtz-Gemeinschaft per Twitter nach, was Datenjournalisten sich von einer Institution wie sie eine ist, wünschen würden.

Bei einer Organisation aus dem Wissenschaftsbereich liegt einem da direkt die Bitte nach Open Access auf der Zunge. Der ungehinderte Zugang zu den wissenschaftlichen Forschungsergebnisssen – die Helmholtz-Gemeinschaft hat in diese Richtung auch erste Schritte unternommen. Unter Open Access würde ich auf jeden Fall auch Open Data fassen. Also wissenschaftliche Arbeiten digital frei zugänglich machen (nicht nur als pdf). Und auch die ihnen zugrunde liegende Daten. Am besten sortiert in einem Datenkatalog wie CKAN, unter einer freien Lizenz, möglichst sinnvoll ausgezeichnet – siehe die Maßgaben der 5-Sterne Kriterien für (Linked) Open Data. Gegen den Zugriff auf die Echtzeitdaten von Sensorennetzwerken etc. hätte ich auch nichts einzuwenden. Und Informationen dazu, wo sich Forschungsschiffe, Expedtitionen etc. befinden.

Zweitens fände ich eine immer aktuelle, strukturierte Übersicht über Haushalt und Mitarbeiter der Gemeinschaft spannend. Immerhin werden hier dieses Jahr 3,76 Milliarden Euro – zwei Drittel davon aus öffentlichen Mitteln – in 18 Forschungseinrichtung von 34.000 Mitarbeitern verforscht. Davon sind gut ein Drittel Wissenschaftler. Was machen die anderen? Hier – auch über den Lauf der Zeit – einfach verfolgen zu können, über welche Berufe sich die Arbeiten der Gemeinschaft demografisch sowie regional und thematisch verteilen, würde helfen, solch ein Forschungsnetzwerk zu begreifen und plastisch darzustellen.

Jedenfalls wünsche ich mir so eine Frage, wie sie die Heltmholtz-Gemeinschaft stellte, ja auch von anderen Seiten: Wink mit dem Zaunpfahl in Richtungen Vereine, Stiftungen, NGOs, Regierungen, Verwaltungen, Kultur- und Sporteinrichtungen usw. usf..

Datenjournalismus unterrichten

WASSERPEGEL IN DTL: Entstanden beim Datenjournalismus II-Kurs,
Hamburg, Akademie f. Publizistik, November 2012

Wenn dieses Jahr zu Ende gegangen ist, werden meine Kollegen Marco Maas und Michael Kreil von OpenDataCity und ich zusammen rund 70 Tage Datenjournalismustraining durchgeführt haben. Dazu gesellen sich dieses Jahr eine ordentliche Zahl von Vorträgen auf Tagungen und Workshops – einige davon in Österreich und der Schweiz. Rein quantitativ ist das ein deutlicher Anstieg gegenüber 2011. Und mag als Beleg dafür dienen, dass das Thema in Deutschland wirklich Fuß gefasst hat. Denn wir sind ja nicht die einzigen hierzulande, die über Datenjournalismus sprechen und ihn trainieren.

Prozesse

Für uns als Datenjournalismusagentur sind diese Trainings äußerst wertvoll. Und damit meine ich nicht nur die Einnahmen, die wir darüber generieren oder den Network-Effekt – immerhin lernen wir zahlreiche Leute von allen möglichen Medien kennen. Wichtig ist vor allem auch, dass wir vom Alltag und den Prozessen in den Redaktionen erfahren. Teilweise machen wir Workshops vor Ort und sprechen dann auch dort mit der Verlagsseite oder Entscheidern in der Redaktion. So verstehen wir besser, wie wir dann Datenjournalismusprojekte mit Redaktionen angehen müssen. Einen Teil der „learnings“ aus diesen Begegnungen und Eindrücken ist in den Text „Datenjournalismus im Lokalen“ , den ich im Sommer für den DJV geschrieben habe, geflossen

Offensichtlich ist, dass Daten als journalistische Ressource weiterhin ein stiefmütterliches Dasein hegen. Während in Redaktionen alles mögliche archiviert wird, findet ein systematisches Ablegen und Vorhalten von Datensätzen nicht statt. Dafür fehlen alltagstaugliche Tools. Mit Neid blickt man in die USA, wo Document Cloud, Overview Project und Pandaproject als Werkzeuge entwickelt werden. Insofern lautet mein Vorschlag, dass die deutsche Datenjournalismus-Community sich für 2013 vornimmt, eben diese Datenkatalog-Software Pandaproject für den deutschsprachigen Raum zu lokalisieren.

Aber worüber ich ja eigentlich schreiben wollte: Über das Unterrichten von Datenjournalismus.

Weiterlesen

Ratgeber: Datenjournalismus bei Lokalzeitungen

Für die Zeitschrift „journalist“ des Deutschen Journalisten Verbandes DJV hatte ich in der Ausgabe 06/12 einen Ratgeber zum Thema Datenjournalismus bei Lokalzeitungen geschrieben. Der Text erschien heute online:

Alles auf eine Karte

Haushaltszahlen, Kriminalitätsstatistiken, Sportergebnisse, Wetterberichte, Verkehrsaufkommen: Gerade lokale und regionale Medien können von den enormen Datenmengen, die es heute gibt, profitieren. Datenjournalist Lorenz Matzat hat für den journalist aufgeschrieben, wie aus einer Lokalzeitungsredaktion ein Datenjournalismus-Labor werden kann.

Rick Perry hatte Großes vor. Der Gouverneur von Texas wollte neuer US-Präsident werden. Doch im Januar gab er auf. Am mangelnden Einsatz im Bundesstaat Iowa kann das nicht gelegen haben. Mehr als 100 Wahlkampfauftritte absolvierte Perry landauf landab. Die Onlinezeitung Texas Tribune dokumentierte seine Kampagne mit einem einfachen Mittel. Auf einer interaktiven Karte markierte sie sämtliche Auftritte und Termine des Kandidaten. Jede Markierung verwies auf weiterführende Artikel. Die Resonanz war groß. Warum sollte nicht auch mal eine Zeitung in Nordrhein-Westfalen auf die Idee kommen, etwa den Wahlkampf des FDP-Spitzenkandidaten Christian Lindner auf diese Weise im Web zu begleiten?

Gerade für Lokalzeitungen ist es lohnenswert, sich mit Datenjournalismus zu beschäftigen. Wichtigste Voraussetzung ist schlicht ein Bewusstsein für die Möglichkeiten, die in jenen Daten stecken, die ohnehin täglich in den Redaktionen auflaufen. Dass Leser sich dafür interessieren, zeigen Vorreiter wie der britische Guardian und die Texas Tribune. In Reading the Riots widmete sich etwa der Guardian ausführlich den sozio-demografischen Hintergründen, die 2011 zu den Krawallen in England beigetragen haben dürften. Heraus kam ein Textdossier, das mit Infografiken und interaktiven Datenvisualisierungen angereichert war.

Der Data Desk der LA Times zeigt, wie sich die unterschiedlichen Bereiche lokal aufgreifen lassen. Dabei ist Datenjournalismus noch ein junges Genre. Es lässt sich darüber streiten, ob es nun etwas eigenständig Neues ist oder nur ein neuer Begriff für die althergebrachte computergestützte Recherche. In Europa machte der sogenannte data driven journalism erstmals von sich reden, als der Guardian Anfang 2009 sein Datablog gründete.

Zwar dürften die meisten lokalen Medienhäuser anders als große Verlage nicht in der Lage sein, eigene Datenredaktionen mit Rechercheuren, Programmierern und Designern aufzubauen. Doch die lokale Berichterstattung hat einen großen Vorteil: Sie kann sich auf ein klar umrissenes geografisches Gebiet konzentrieren. Auf Karten sichtbar gemacht, können Geodaten so auf einen Blick lokale Informationen abbilden.

Versucht man, sich dem Datenjournalismus als Genre zu nähern, lassen sich drei Ebenen unterscheiden: erstens die Verlagsebene, zweitens der Workflow in der Redaktion und drittens die Arbeitsweise der einzelnen Journalisten. Der Reihe nach …

Weiterlesen bei journalist.de

10 Dinge, die man aus den Datenvisualisierungen der New York Times lernen kann

von Andy Kirk (Übersetzung: Mirko Lorenz)

Die Malofiej 20 Awards, bekannt als die „Pulitzers“ der Infografikwelt, zeichnen die besten publizierten Visualisierungen rund um die Welt aus. 2012 konkurrierten 1.500 Einreichungen aus dem Print- oder Online-Bereich um die prestigeträchtigen Preise.

Das „National Geographic Magazine“, dass den Preis für die beste gedruckte Karte und zwei Gold-Auszeichnungen gewann und die „Internet Group do Brasil iG“ (Gold) waren bemerkenswerte Leistungen. Doch, wie bereits in den Vorjahren, dominierte das Portfolio der „New York Times“ die Veranstaltung, mit sechs Gold-Medaillen (vier für Print, zwei für Online-Arbeiten), die beste Online-Karte und jeweils dem „Best in Show“-Preis für Print und Online-Einreichungen.

Was ist das Geheimnis des wiederholten Erfolgs der „New York Times“? Hier sind zehn Charakteristiken, die zusammen genommen in einem Designprozess dabei helfen, diese Arbeiten vom Rest zu unterscheiden.

Weiterlesen

ARD & ZDF: Grundversorgung und Co.

Am Wochenende wurde im Deutschlandradio Kultur in der Sendung Breitband eine Stunde über die Zukunft der Aufgabe der Grundversorgung durch die Öffentlich-rechtlichen Sender debattiert: Philip Banse hatte Volker Grassmuck und Stefan Niggermeier zu Gast.

Im Bezug auf meinen Text über die Zeit nach ARD und ZDF war ich vorweg interviewt worden; zwei Ausschnitte daraus fanden in die Sendung eingang – hier das ganze Interview mit mir:

Skizze für die Zeit nach ARD und ZDF

Angenommen, die bisherigen Rundfunkstaatsverträge wären Makulatur. Und über die Zukunft der 25.000 Angestellten der Öffentlich-Rechtlichen Rundfunkanstalten müssten wir uns keine Sorgen machen. Auch nicht um die Produktionsgesellschaften und andere Dienstleister, die sich um diese Wirtstiere scharen. Wie könnte in solch einem zugegeben utopischen Szenario nach Abwicklung von ARD, ZDF und Deutschlandfunk eine neu geschaffene öffentlich-rechtliche Internet & Medien Anstalt IMA aussehen?

Programm & Technologie

Kanäle und Programme in der Form gibt es nicht mehr. Sendeplätze sind im Internet nahezu unendlich viele vorhanden. Als zentraler Knotenpunkt dient eine IMAthek im Netz. Auf die können unterschiedlichste Geräte zugreifen. Für die Personen, die gerne fixe Programmabläufe konsumieren, sich „berieseln“ lassen wollen – ich gehe in dieser Skizze davon aus, dass dies eine Minderheit bzw. das Privatfernsehen weiter die Berieselung erledigt -, werden Playlists von Medieninhalten bereitgehalten. Die orientieren sich algorithmengestützt an klassischen Programmschemata oder gänzlich automatisch an den im eigenen Profil niedergelegten Vorlieben des Konsumenten – etwa lassen sich die ARD-classic-TV-Playlist oder die Achtziger-Neunziger-Audio-Playlist für NRW abonnieren.

Die IMA stützt sich also komplett auf das mächtigste aller Trägermedien: das world-wide-web; neben der IP-basierten Übertragungstechnologie eine weitere Infrastruktur für TV-Bilder bereitzustellen, ist ökonomisch unsinnig. Die so freigemachten finanziellen Mittel werden für den Ausbau der Internetinfrastruktur – vor allem in unterversorgen Gegenden – verwendet. Wer bisher noch keinen Internetanschluss hat, kann einen IMA-Zugang bekommen. Eine UKW-Radiogrundversorgung – automatisiert über Audio-Playlists – bleibt gewährleistet.

Weiterhin gibt es Live-Sendungen; alles, was nicht direkt übertragen wird, ist unmittelbar dann verfügbar, wenn es fertig produziert ist – und nicht wie heute erst Monate oder Jahre später, wenn es Programmplanern ins Schema passt. Zusätzlich sind neben den bereits verwendeten alle weiteren relevanten Text-, Daten-, Bild- und Audiomaterialien sinnvoll ausgezeichnet  über die IMAthek zugänglich: etwa Gesamtinterviews, zusätzliches Bildmaterial, Datenbanken, Dokumente (semantische Webstandards, Open Data).

Alles, was mit GEZ-Gelder produziert wird, steht unter freien Lizenzen (CC:by) und in gängigen Formaten unbefristet zum Download oder Streaming bereit. Denn öffentlich hat etwas mit „Open“ zu tun. Das jeweilige Urheberecht bleibt durch entsprechende Nutzungsvereinbarungen gewahrt. Für Inhalte, die aus dem Ausland lizenziert werden oder im Falle von Sportübertragungsrechten, werden entsprechende Vereinbarungen ausgehandelt und greifen ggf. extra Regeln.

Weiterlesen

Das Prozentzeichen oder Fallstricke beim Datenjournalismus

Zeit Online hat merklich die Taktzahl hochgedreht. Alle paar Wochen erscheint nun eine datenbasierte interaktive Infografik. Das dürfte u.a. auch daran liegen, dass dort neuerdings der Programmierer Cole Gillespie arbeitet – er ist dort im Rahmen der „Knight Mozilla News Technology Fellowship“ tätig.

Gestern erschien nun bei Zeit Online (ZOn) das „Regierungsbarometer„.

ZOn musste schon für die beiden letzten Grafiken Kritik einstecken – einmal hier im Blog in Sachen Fußball und dann beim Kollegen Björn Schwentker in Sachen Demographie. Und auch die jüngste Geschichte ist diskussionswürdig.

Vorweg: Es geht hier nicht um ein ZOn-bashing – dort wird entgegen der meisten anderen Medien immerhin an datenjournalistischen Methoden gefeilt. Mangels anderer Akteure im Bereich des deutschsprachigen Datenjournalismus kann sich zur Zeit aber letztlich nur an ZOn-Werken abgearbeitet werden.

Jetzt zur Sache – es herrschte Verwirrung:

Weiterlesen