Kategorie-Archiv: Interview

Interview mit Datenjournalistin Sylke Gruhnwald

Sylke Gruhnwald (Bio, Twitter) arbeitet bei der Neuen Zürcher Zeitung. Sie leitet dort seit 2012 den Bereich NZZ-Data

Wann ist Dir data-driven-journalism das erste Mal begegnet und wie verlief von dort an Dein beruflicher Weg hin zu Deiner jetzigen Arbeit bei der NZZ?

Simon Rogers und der Data-Blog des Guardian – das Blog bringe ich damit in Verbindung. CAR (Computer-assisted reporting) ist mir sicherlich länger ein Begriff. Angefangen habe ich bei der NZZ in der Wirtschaftsredaktion online. In den letzten zwei Jahren hat sich mein Schwerpunkt immer mehr in Richtung Daten und «interactive news» verlagert. Meine Kollegin Alice Kohli und ich bilden ein Zwei-Frauen-Team und arbeiten in Kooperation mit den Kollegen des Zürcher Design Studios Interactive Things oder auch OpenDataCity.

War es schwer, innerhalb der NZZ dem Thema Datenjournalismus Stellenwert zu verschaffen? Wird Deine Expertise heute selbstverständlich in den alltäglichen Redaktionsprozess einbezogen?

Im Grundsatz war die Etablierung nicht schwierig. Ziel für das nächste Jahr ist es, erwachsen zu werden – sozusagen. Ich möchte mein Team in Richtung datengetriebener Journalismus und zunehmend (investigativer) Recherche positionieren. Dazu zählt auch, dass wir uns mit sicheren Kommunikationsmöglichkeiten beschäftigen, eine eigene sichere Infrastruktur aufbauen, unsere Statistik-Kenntnisse weiter ausbauen, Coden und und und. Und nicht zuletzt müssen wir uns das Vertrauen der Leserschaft erarbeiten.

Weiterlesen

Interview mit Datenjournalist Gregor Aisch

ga

Ab 2014 wird Gregor Aisch als Graphics Editor bei der New York Times arbeiten. Im Interview geht es um seine künftige Aufgabe, die Entwicklung von Data Wrapper sowie Datenjournalismus in Deutschland.

Gibt es für dich einen Schlüsselmoment, an dem dir klar wurde, dass du dich beruflich mit Datenvisualisierung befassen willst? Und kannst du in diesem Zusammenhang kurz deinen Werdegang, nennenswerte Stationen deiner Arbeit und Ausbildung umreißen?

Das Interesse an Informationsvisualisierung ist während meines Studiums der Computervisualistik in Magdeburg entstanden. Aufgrund der eher technischen Ausrichtung der Uni Magdeburg wurde der Studiengang vor allem mit industrienahen Fächern wie Elektrotechnik oder Maschinenbau oder Medizin verbunden – allesamt spannende Anwendungsgebiete für Visualisierung, für die ich mich jedoch leider nicht sehr lange motivieren konnte.

Parallel dazu habe ich seit 2002 als Web-Entwickler gearbeitet und so das Handwerkzeug für meine heutige Arbeit gelernt. Webseiten zu programmieren hat eine ganze Weile Spaß gemacht, und wir konnten für viele interessante Kunden arbeiten und mit den Projekten wachsen. Aber irgendwann ging mir das aber doch zu sehr in Richtung Werbung und so ich habe nach Ende meines Studiums versucht, mich beruflich neu zu orientieren.

Ausgangspunkt für meine ersten Visualisierungen, wie etwa die Grafik zu den Parteispenden, war vor allem mein persönliches Interesse an gesellschaftlich/politischen Themen. Ich weiß noch dass ich zu der Zeit gerade “Postdemokratie” von Crouch gelesen hatte und irgendwie wollte ich auf meine Weise etwas gegen Korruption und Verfilzung in unserer Gesellschaft beitragen. Ob es was genützt hat sei dahin gestellt, aber ich glaube auch heute noch, dass gute Visualisierung dazu beitragen können, dass mehr Menschen sich für komplizierte Themen interessieren können.

Die Grafiken haben auf jeden Fall einen derart großen Anklang gefunden, dass ich mich anschließend nicht lange um Datenvisualisierungsaufträge kümmern musste.

Weiterlesen

Interview mit Datenjournalistin Christina Elmer

Christina Elmer @chelm, geboren 1983, arbeitet im Wissenschaftsressort von Spiegel Online und betreut als Recherche-Trainerin Workshops in Redaktionen und Ausbildungsprogrammen. Zuvor gehörte sie zum Team Investigative Recherche des Stern und arbeitete als Redakteurin für Infografiken bei der Deutschen Presse-Agentur (dpa), wo sie zuvor „dpa-RegioData“ mit aufgebaut hatte. Der Weg dorthin: Volontariat beim Westdeutschen Rundfunk (WDR), Studium der Journalistik und Biologie an der TU Dortmund, Freie Autorin für Wissenschaftsthemen.

Bezeichnest du dich selbst als Datenjournalistin? Wenn ja, wie würdest du dein berufliches Selbstverständnis beschreiben? 

Ja, aus meiner Sicht passt diese Bezeichnung. Viele meiner Recherchen basieren auf Statistiken oder anderen strukturierten Datensätzen. Daraus Ansatzpunkte für Geschichten herauszukitzeln, würde ich als Kern der datenjournalistischen Arbeitsweise bezeichnen. Mein Fokus liegt dabei immer auf der Frage, ob am Ende eine relevante Story steht. Die kann sich entweder aus der Analyse ergeben oder auch darin bestehen, wichtige Datensätze überhaupt öffentlich zu machen.

Du sagst, die Recherche in Statistiken oder strukturierten Daten sei für dich der Kern datenjournalistischer Arbeit. Ist Datenjournalismus also ein anderes Wort für “Computer Assisted Reporting” (CAR), wird er durch die Recherche definiert?

Wer datenjournalistisch arbeitet, benutzt zwangsläufig immer auch Werkzeuge und Methoden aus dem Computer Assisted Reporting. Allerdings geht der Datenjournalismus für mich darüber weit hinaus. Wenn Datenjournalisten bei ihren Recherchen dafür sorgen, dass Informationen überhaupt öffentlich werden. Wenn sie diese Daten zugänglich machen, indem sie sie ansprechend aufbereiten und auf offenen Plattformen veröffentlichen. Und wenn sich aus diesen Anwendungen neue Wege des Storytellings ergeben. Das sind alles relevante Bestandteile datenjournalistischer Arbeit, die aus meiner Sicht aber nicht in jedem Projekt zwingend eine Rolle spielen müssen.

Weiterlesen

ARD & ZDF: Grundversorgung und Co.

Am Wochenende wurde im Deutschlandradio Kultur in der Sendung Breitband eine Stunde über die Zukunft der Aufgabe der Grundversorgung durch die Öffentlich-rechtlichen Sender debattiert: Philip Banse hatte Volker Grassmuck und Stefan Niggermeier zu Gast.

Im Bezug auf meinen Text über die Zeit nach ARD und ZDF war ich vorweg interviewt worden; zwei Ausschnitte daraus fanden in die Sendung eingang – hier das ganze Interview mit mir:

Aron Pilhofer: “Medien sind nicht datengetrieben”

Journalisten könnten durch die stärkere Nutzung von Zahlen viel gewinnen – und dennoch tun sie es nicht. Warum? Ein Interview.

Hintergrund: Teresa Bouza ist eine Stipendiatin der “Knight Journalism Fellowships” an der Stanford University und Journalistin. Sie hat vor seinem Vortrag bei der “Investigative Reporters and Editors Conference” (IRE) 2012  in St. Louis, ein Interview mit Aron Pilhofer geführt. Pilhofer, der unter anderem Vorstandsmitglied der IRE ist, leitet bei der New York Times ein Team aus Journalisten und Programmierern, die daten-getriebene Applikationen entwickeln. Ziel ist die Verbesserung des Online-Informationsangebots der “New York Times.”. (Originalartikel vom 23.02.2012 - Übersetzung: Mirko Lorenz )

Der Begriff “data-driven journalism” ist plötzlich sehr populär geworden. Gleichzeitig verfügen viele Journalisten nur über geringe Kenntnisse bei der Auswertung von Daten, so Aron Pilhofer. Doch das Know-how ist keine Raketenwissenschaft, so Pilhofer und betont dass es für Reporter “lebenswichtig” ist, in diesem Bereich grundlegende Kenntnisse zu erwerben.

Nach seiner Meinung ist es nach wie vor sehr schwierig, Journalisten zu einem Umdenken zu bewegen und Daten als Quelle eines Beitrags zu sehen, ebenso wie die Fähigkeit, verschiedene Formen und Blickwinkel bei der Berichterstattung zu nutzen.
Doch die wirkliche Barriere für daten-basierte Beiträge liegt noch in einem anderen Bereich: Auf den Führungsetagen werde die Bedeutung des Datenjournalismus bisher nur teilweise verstanden, sagt er.

Die Fähigkeit, aus Daten Geschichten zu machen, sei eine “unterbewertete Fähigkeit”. Daher geht es nicht nur darum “wie wichtig dieses Feld für den einzelnen Journalisten ist”, sondern auch “für wie wertvoll der Chef und der Chef des Chefs dieses Know-how halten”, so Pilhofer.

INTERVIEW

Frage: Angesichts der Werkzeuge, die wir heute haben, worin liegt die große Herausforderung für Journalisten beim Umgang mit Daten?

Pilhofer: Für mich ist das keine Frage der Werkzeuge. Wir haben mehr Rechenleistung, mehr Möglichkeiten Dinge zu tun als jemals zuvor. Mit Amazon EC2 (einer Cloud-Computing Plattform), kann man mi Prinzip an einem Nachmittag einen Super-Computer laufen lassen, wenn man das möchte und zahlt dafür 100 Dollar oder einen ähnlichen Betrag, wenn man zum Beispiel sehr große Datenmengen analysieren möchte. Es ist kein Technologie-Problem, es ist ein Menschen-Problem.” Weiterlesen

Interview: Datenjournalismus und demokratische Öffentlichkeit

Unlängst habe ich der neuen Diskursplattform des Deutschlandfunk ein Interview gegeben:

[...] Inwieweit spielt Datenjournalismus mit Blick auf Öffentlichkeit und Demokratie eine Rolle? 

Datenjournalismus wird in einigen Jahren kein Aufsehen mehr erregen. Weil er selbstverständliche Methode und alltägliches Werkzeug der Berichterstattung sein wird. Es gibt jetzt schon enorme Datenmengen in den Verwaltungen und der Politik – Akten und Statistiken zum Beispiel. Und es wird exponentiell mehr geben, weil immer mehr digitale Geräte Einsatz finden und mehr und mehr Sensoren aktiv Daten sammeln.

Es ist Aufgabe von Journalisten auch hier ihrer Berichterstattungspflicht und Watchdogfunktion gerecht zu werden. Insofern ist es essentiell wichtig für eine immer digitaler kommunizierende Gesellschaft, dass Journalisten und Medienhäuser sich mit Daten befassen. Das Internet bietet die perfekte Infrastruktur dafür, datenbankgestützt zu berichten. Dafür notwendige Technologien und Herangehensweisen gilt es zu erlernen und zu entwickeln, aber auch angebrachte Erzählformen dafür zu finden. [...]

Das gesamte Interview lesen.

13 Open Data Interviews

Bis August diesen Jahres (2011) habe ich zehn Monate lang am Stück das Open Data Blog auf zeit.de geschrieben.

Hier veröffentliche ich nun die meisten Interviews, die ich für dieses Blog geführt habe, unter einer Creative Commons-Lizenz (CC-by). Erschienen sind sie zwischen Oktober 2010 und September 2011 (zum Abschluss hat mein Nachfolger Markus Heidmeier ein Interview mit mir geführt). Die 13 Interviews werden im Folgenden chronologisch zurückgehend vom aktuellsten zum ältesten hin aufgelistet (Update 11.01.2012):

Weiterlesen

NDR Medienmagazin ZAPP – Datenjournalismus Interviews

Gestern, am 16.11.2011, lief beim NDR Medienmagazin ZAPP der Beitrag “Neue Recherchewege – Datenjournalismus”.

Hier die Langfassung der Videos, die ausschnittsweise im Film oben zu sehen sind; es gibt alternativ auch nur die Audiospur als mp3-Datei, für diejenigen, die nicht an den Talking Heads interessiert sind. Videos und Audiofiles sind vom NDR unter einer CC-Lizenz unter den Bedingungen Namensnennung, nicht-kommerziell und nicht-abwandeln (by:nc:nd) freigegeben.

Weiterlesen

Adrian Pohl: Offene Bibliotheksdaten

Adrian Pohl arbeitet seit 2008 im Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz). Seit Juni 2010 ist er Koordinator der Arbeitsgruppe der Open Knowledge Foundation zu Open Bibliographic Data. Im Interview berichtet Pohl über die Zusammenarbeit mit anderen Aktiven aus Wissenschaft und Bibliothekswelt. Ihr Ziel: der Aufbau einer Infrastruktur für offene bibliographische Daten.

Herr Pohl, worum geht es bei Open Bibliographic Data (OBD)?

Adrian Pohl: Wir orientieren uns an der Open-Access-Bewegung. Deren Idee wird bereits weitgehend in der Bibliothekswelt unterstützt: Ergebnisse öffentlich finanzierter Wissenschaft sollen auch jedem öffentlich zugänglich sein. Bibliotheken sind ebenfalls meist aus öffentlichen Geldern finanziert. Deshalb sollten die von ihnen produzierten Daten auch offen zugänglich und wiederverwendbar sein. Mit den “Prinzipen zu offenen bibliographischen Daten” haben wir in der Open Knowledge Foundation klare Anforderungen für die Freigabe solcher Daten formuliert, insbesondere im Hinblick auf die Wahl der Lizenz. Bibliotheksdaten können vielen von Nutzen sein.

Wofür zum Beispiel?

Pohl: Sammlungen bibliographischer Daten können als eine Landkarte verstanden werden, die uns Orientierung gibt in der Landschaft unserer literarischen, wissenschaftlichen oder künstlerischen Erzeugnisse.

So können die Daten etwa in der Forschung genutzt werden. Für Historiker beispielsweise könnte die Frage interessant sein, in welchem Jahrhundert zu bestimmten Zeiten wo wichtige Publikationsorte waren. Mit automatisierten Abfragen offener Daten aus Bibliothekskatalogen ließe sich zügig eine Übersicht über die meistgenutzten Publikationsstandorte erstellen. Das ginge weit über das hinaus, was mit normalen Rechercheoptionen möglich ist.

Ein anderes Beispiel: Bibliotheksdaten werden bereits für Anwendungen genutzt, die den urheberrechtlichen Status eines Werkes berechnen, ob es geschützt oder gemeinfrei ist. Mehr freie Daten könnten diese Dienste enorm verbessern. Es lassen sich unzählige weitere Anwendungen denken.

Weiterlesen

Claudia Schwegmann – OpenAid: Open Data in der Entwicklungszusammenarbeit

Claudia Schwegmann founder openaid germany

Claudia Schwegmann hat 2009 die Organisation OpenAid gegründet. Selbst hat sie einige Jahre in der Entwicklungzusammenarbeit gearbeitet. Im Interview erklärt sie die Hintergründe zu der Konferenz Open Aid Data Ende September in Berlin.

Frau Schwegmann, warum haben Sie Open Aid gegründet?

Claudia Schwegmann: In meiner Arbeit in der Entwicklungszusammenarbeit (EZ) habe ich mich zuletzt mit der Wirkung von Entwicklungsprojekten befasst. Eine wichtige Voraussetzung für Wirkung ist Feedback. Die Empfänger der Hilfe müssen Rückmeldung über die Qualität der EZ geben können. Das ist nur möglich, wenn sie zu einem gewissen Grad die Prozesse und Planung kennen. Der Mangel an Informationen in der EZ war letztlich ausschlaggebend dafür OpenAid zu gründen. Später bin ich dann auf die 2008 gegründete “International Aid Transparency Initiative” IATI gestoßen, mit der OpenAid sich jetzt schwerpunktmäßig befasst.

Worum geht es bei IATI genau?

Schwegmann: Dieses Frühjahr wurden die IATI-Kriterien für einen Standard für Daten zu Entwicklungsvorhaben schließlich festgeschrieben. In einem maschinenlesbarem Format, als Open Data, sollen fünf grundlegende Informationen über Entwicklungsvorhaben gespeichert werden: Wer ist beteiligt? Worum geht es? Was soll bis wann erreicht werden? Wie lassen sich die Vorhaben einordnen und was sind die finanziellen Details?

Weiterlesen