Kategorie-Archiv: Methoden

Skizze für die Zeit nach ARD und ZDF

Angenommen, die bisherigen Rundfunkstaatsverträge wären Makulatur. Und über die Zukunft der 25.000 Angestellten der Öffentlich-Rechtlichen Rundfunkanstalten müssten wir uns keine Sorgen machen. Auch nicht um die Produktionsgesellschaften und andere Dienstleister, die sich um diese Wirtstiere scharen. Wie könnte in solch einem zugegeben utopischen Szenario nach Abwicklung von ARD, ZDF und Deutschlandfunk eine neu geschaffene öffentlich-rechtliche Internet & Medien Anstalt IMA aussehen?

Programm & Technologie

Kanäle und Programme in der Form gibt es nicht mehr. Sendeplätze sind im Internet nahezu unendlich viele vorhanden. Als zentraler Knotenpunkt dient eine IMAthek im Netz. Auf die können unterschiedlichste Geräte zugreifen. Für die Personen, die gerne fixe Programmabläufe konsumieren, sich „berieseln“ lassen wollen – ich gehe in dieser Skizze davon aus, dass dies eine Minderheit bzw. das Privatfernsehen weiter die Berieselung erledigt -, werden Playlists von Medieninhalten bereitgehalten. Die orientieren sich algorithmengestützt an klassischen Programmschemata oder gänzlich automatisch an den im eigenen Profil niedergelegten Vorlieben des Konsumenten – etwa lassen sich die ARD-classic-TV-Playlist oder die Achtziger-Neunziger-Audio-Playlist für NRW abonnieren.

Die IMA stützt sich also komplett auf das mächtigste aller Trägermedien: das world-wide-web; neben der IP-basierten Übertragungstechnologie eine weitere Infrastruktur für TV-Bilder bereitzustellen, ist ökonomisch unsinnig. Die so freigemachten finanziellen Mittel werden für den Ausbau der Internetinfrastruktur – vor allem in unterversorgen Gegenden – verwendet. Wer bisher noch keinen Internetanschluss hat, kann einen IMA-Zugang bekommen. Eine UKW-Radiogrundversorgung – automatisiert über Audio-Playlists – bleibt gewährleistet.

Weiterhin gibt es Live-Sendungen; alles, was nicht direkt übertragen wird, ist unmittelbar dann verfügbar, wenn es fertig produziert ist – und nicht wie heute erst Monate oder Jahre später, wenn es Programmplanern ins Schema passt. Zusätzlich sind neben den bereits verwendeten alle weiteren relevanten Text-, Daten-, Bild- und Audiomaterialien sinnvoll ausgezeichnet  über die IMAthek zugänglich: etwa Gesamtinterviews, zusätzliches Bildmaterial, Datenbanken, Dokumente (semantische Webstandards, Open Data).

Alles, was mit GEZ-Gelder produziert wird, steht unter freien Lizenzen (CC:by) und in gängigen Formaten unbefristet zum Download oder Streaming bereit. Denn öffentlich hat etwas mit „Open“ zu tun. Das jeweilige Urheberecht bleibt durch entsprechende Nutzungsvereinbarungen gewahrt. Für Inhalte, die aus dem Ausland lizenziert werden oder im Falle von Sportübertragungsrechten, werden entsprechende Vereinbarungen ausgehandelt und greifen ggf. extra Regeln.

Weiterlesen

Das Prozentzeichen oder Fallstricke beim Datenjournalismus

Zeit Online hat merklich die Taktzahl hochgedreht. Alle paar Wochen erscheint nun eine datenbasierte interaktive Infografik. Das dürfte u.a. auch daran liegen, dass dort neuerdings der Programmierer Cole Gillespie arbeitet – er ist dort im Rahmen der „Knight Mozilla News Technology Fellowship“ tätig.

Gestern erschien nun bei Zeit Online (ZOn) das „Regierungsbarometer„.

ZOn musste schon für die beiden letzten Grafiken Kritik einstecken – einmal hier im Blog in Sachen Fußball und dann beim Kollegen Björn Schwentker in Sachen Demographie. Und auch die jüngste Geschichte ist diskussionswürdig.

Vorweg: Es geht hier nicht um ein ZOn-bashing – dort wird entgegen der meisten anderen Medien immerhin an datenjournalistischen Methoden gefeilt. Mangels anderer Akteure im Bereich des deutschsprachigen Datenjournalismus kann sich zur Zeit aber letztlich nur an ZOn-Werken abgearbeitet werden.

Jetzt zur Sache – es herrschte Verwirrung:

Weiterlesen

Werkstattbericht: Wie der Zugmonitor entstanden ist

Dem SZblog habe ich einige Fragen rund um den Zugmonitor beantwortet:

Wie man auf die Idee kommt, Millionen Bahndaten aus dem Netz in eine Datenbank zu schreiben, um sie dann auszuwerten.

Unsere allererste Idee war, über das Informationsfreiheitsgesetz Zugang zu detaillierten Verspätungsdaten der Bahn zu verlangen. Uns war klar, dass sich damit journalistisch etwas machen ließe. Im vergangenen Sommer verfielen wir dann auf einen anderen Ansatz, der uns besser geeignet erschien: Wir begannen, die Verspätungsdaten online von der Internet-Seite der Bahn abzugreifen, zu scrapen, wie das heißt. Der Plan war, diese Daten auszuwerten und nahezu live an die Öffentlichkeit weiterzugeben. Wobei wir mit der grundsätzlichen Idee nicht die ersten waren. Das Projekt zugfinder.de macht seit Herbst vergangenen Jahres etwas Ähnliches, und die Stiftung Warentest hatte zuletzt im Frühjahr 2011 ebenfalls mit ausgelesenen Daten – in geringerem Umfang – einen Report über die Pünktlichkeit der Bahn veröffentlicht. Der Unterschied zu uns ist, dass wir neben der Statistik alle Fernzüge und ihre Verspätungen auf einer interaktiven Deutschlandkarte darstellen wollten, in Echtzeit.

Weiterlesen im Redaktionsblog auf süddeutsche.de

Neues von der Definition des Datenjournalismus‘

Anfang des Monats ging es auf der englischprachigen ddj-Mailingliste um die Definition des Datenjournalismus‘.

Nicolas Kayser-Bril (@nicolaskb) beklagte, dass es nach wie vor keine treffende Definition gebe. Deswegen nahm er es in Angriff, den englischsprachigen Wikipediaeintrag zu „datajournalism“ und anverwandte Begriffe zu überarbeiten. Er stellte auf der Liste sein Vorhaben wie folgt vor:

Datenjournalismus sei demnach ein Mantel-/Containerbegriff für einen Trend im Journalismus und des Informationsmanagments. Er sei Folge der zunehmenden Menge an numerischen Daten in der Produktion und Verbreitung von Informationen. Ebenfalls ginge es um einen Zusammenarbeit von Inhalteerstellern – Journalisten – und Designern, Progammieren und Statistikern.

Weiterlesen

Programming Journalist: Python Fernkurs

UPADTE 22.09.2011: Am 1. November 2011 startet ein selbstorganisierter Python-Fernkurs.

UPDATE 24.8.11: Das Feedback zu dem unten skizzierten Kurs war gemischt; in der Form wird er deswegen nicht stattfinden. Es gab auf dem letzten Berliner Datenjournalismus-Treffen dann die Überlegung, einen selbstorganisierten kostenfreien Fernkurs anhand des Buches Learn Python the hard way zu organisieren. Wesentlich konkreter ist diese Überlegung allerdings bislang nicht gediehen. Die Fragen sind:

  • Wer kümmert sich (mit)?
  • Mittels welcher Lernplattform?
  • Wann geht es los?

Anmerkungen etc. dazu bitte per Kommentar.

— Update-Ende —

Vergangenes Jahr gab es in Berlin einen zweitägigen Workshop rund um die Programmiersprache Python/Django. Obwohl alle Teilnehmenden recht zufrieden waren, wurde auch klar: Hier wurde nur an der Oberfläche gekratzt.

Deswegen jetzt das Angebot (siehe Umfrage unten): Es wird erneut ein Seminar halbwegs kostengünstig organisiert; diesmal aber mit einem anderen Modell. So soll solider und ausführlicher in die Grundlagen der Programmiersprache Python eingeführt werden. Erst zum Abschluss wird das Framework Django vorgestellt.

Der Kurs  richtet sich auch an Einsteiger/innen in eine Programmiersprache; Vorraussetzung ist, nicht allzu sehr mit Rechnern und Web zu fremdeln sowie Englischkenntnisse mitzubringen.

Weiterlesen

Prozessjournalismus und Ägypten: Deutschsprachige Onlinemedien enttäuschen (UPDATE)

Was Spiegel-Online und Welt-Online in ihren Live- oder Nachtichtentickern bringen, ist in der Ignoranz des Potentials von Onlinejournalismus mehr als befremdend. Es drückt sich aber auch schon in den Begrifflichkeiten aus: Das Wort Live-Blog wird vermieden. Beide Websites, nach Bild-Online die Meistgelesenen – setzen im Jahr 2011 kein einziges Link auf Quellen außerhalb ihres eigenen Angebots.

Soziale Medienkanäle, wie Twitter, YouTube oder Flickr werden gänzlich ignoriert. Nur klassische Nachrichtenagenturen und etablierte Sender wie die BBC gelten als verlässliche Quellen. Insofern spielt es für die deutschsprachige Onlineberichterstattung eigentlich überhaupt keine Rolle, dass in Ägypten das Internet durch die Regierung abgeschaltet wurde. Dabei ist die Verzahnung klassischer Medien und sozialer für die aktuellen Vorgänge in Nordafrika offensichtlich. Der Politikwissenschafler Philipp Müller schreibt darüber in dem lesenwerten Artikel: „Power-Shift or Media-Shift? The Twitter Revolutions in Iran, Tunisia, and Egypt„.

Die Deutsche Welle, von denen die meisten Leute wahrscheinlich gar nicht wissen, dass es sie (noch) gibt, schafft es, online ein paar Artikel aus Agenturmeldungen zusammenzustellen. Fast 250 Millionen Euro bekommt dieser Sender jährlich aus dem Etat der Bundeskanzleramts, der zwar in bis zu 30 Sprachen zu lesen, zu hören und zu schauen ist – aber offensichtlich mit dem Versuch scheitert, eine Art deutsches BBC zu sein. Die Tagesschau liefert immerhin eine gesonderte Linkliste zum Thema (aus Artikeln heraus wird dort sonst auch nicht verlinkt). ZDF/heute online hat auch nichts Bemerkenswertes zu bieten. Beim „Ereigniskanal“ Phoenix oder dem ZFD infokanal taucht Ägypten als Thema derzeit überhaupt nicht auf.

Weiterlesen

Nach Wikileaks: Whisteblowing als etablierte Methode (Update)

Popstar: Standbild aus einem Musikvideo - Link unten

Die US-Regierung ist in der Klemme und reagiert alles andere als souverän: Einerseits propagiert sie das Diktum des „Open Government“ und hat einen Datenkatalog für OpenData gestartet. Doch im Umgang mit Wikileaks (und nicht den Medienhäusern, die das Material von der Organisation annahmen) reagiert sie andererseits im kompletten Widerspruch dazu. Dabei stellt sich die Frage, ob Wikileaks eine Form von OpenGovernment ist.

Tatsächlich wäre es seitens der USA angebracht gewesen, das Leak sportlicher zu nehmen und diejenigen, die zum Mord an Julian Assange aufrufen, in ihre Schranken zu verweisen. Und dann eben dafür zu sorgen, sensible politische Kommunikation zukünftig sicherer zu organisieren.

Dem entgegen tut die US-Regierung das Dümmste, was sie tun kann: Sie versucht eines der Leuchtturmprojekte der freien Meinungsäußerung in die Knie zu zwingen. Und scheint das so ahnungslos anzugehen, wie ein Abmahnanwalt, der keine Schimmer davon hat, zu welchem Reputationsverlust das für den Klienten führen kann.

Und so kam es, das in kürzester Zeit jeder Armchair-Activist seine Tastatur und Maus in den Dienst von Wikileaks stellt – so sind beispielsweise weltweit die Piratenparteien auf den Zug aufgesprungen: Hunderte gespiegelte Instanzen von Wikileaks entstanden in wenigen Tagen. Auf Seiten der US-Regierung hat man offenbar unterschätz, dass Wikileaks nicht zuletzt deswegen so gut funktioniert, weil es ein paar sehr fähige Leute an Bord hat, die etwas von Netzwerktechnik und Servern verstehen. Und dass die Macher der Plattform äußerst gut mit den diversen Hackern und Geeks vernetzt sind, die im kleinen und großen schon lange das Projekt unterstützen.

Weiterlesen

Was tun mit der kommenden Wikileaks Veröffentlichung?

wikileaks tweet november 2010

Seit gestern zeichnet sich ab, was die angekündigte nächste Veröffentlichung von Wikileaks zum Inhalt haben könnte: „Next release is 7x the size of the Iraq War Logs. intense pressure over it for months.“

Laut einem Bericht von Bloomberg würden die New York Times, der Guardian und der Spiegel bereits an Dokumenten aus dem Außenministerium der USA arbeiten. Demnach erwarte man seitens der US-Regierung, dass bereits ab dem 26. November (morgen) hundertausende Korrospondenzen aus dem internen Schriftverkehr von diplomatischen Einrichtungen etc. veröffentlicht werden könnten. Seitens Wikileaks ist die Rede von der siebenfachen Menge der Irak-Tagebücher  (390.000 Einträge) – also insgesamt rund 2,7 Millionen Datensätze.

Was ist zu erwarten?

  1. Es ist unklar, ob der gesamte Datensatz nach Veröffentlichung allen unmittelbar zugänglich gemacht wird – bei den Afghanistan Tagebüchern war es so, bei den Irak Tagebüchern nur über spezielle Seiten.
  2. Wikileaks unter Ägide von Julian Assange mag zur martialischen Sprache neigen („new world, where global history is redefinend“) – aber bislang war sich auf die Ankündigungen der Organisation zu verlassen. Die Administration in den USA scheint offenbar zu wissen, zumindest in Teilen,  um welche Datensätze es sich handelt und bereitet sich auf stressige Zeiten vor. Und unwahrscheinlich ist es nicht, dass Wikileaks weiterhin auf die Medienpartner NYT, Guardian und Spiegel setzt, mit denen bereits zweimal offenbar verlässlich zusammengearbeitet werden konnte.

    Weiterlesen

Stuttgart 21: Bürgerjournalismus per Bollerwagen

fluegel_tv_unterwegs_by_guenther_ahner

Gerade lief eine Pressekonferenz der S21-Gegner. Sie wurde nicht im klassischen TV übertragen, aber war für jeden mit Breitband-Internet zu sehen: Auf der Website fluegel.tv, online seit diesem August, wird von den Ereignissen rund um den Hauptbahnhof der schwäbischen Metropole live berichtet: Per fest installierten Webcams rund um den Bahnhof; ebenfalls gibt es Talkshows, die über eine „Mediathek“ auf der Website abrufbar sind. Bei Demonstrationen wird zudem noch mobil mit einem „Ü-Boller-Wagen“ (Foto oben von Günther Ahner) von vor Ort übertragen. Etwa 20 bis 30.000 Besucher kämen am Tag auf die Seite, heißt es auf Nachfrage seitens der fluegel.tv-Macher. Genutzt wird der Service  UStream (ein weiterer Angebot, Cams21, setzt auf Mobiltelefone und nutzt den Service Bambuser).
Weiterlesen

Fußball und Statistik: Tracking der Spieler per Kamera und per Hand

Tracking Soccer Player
Es ist mittlerweile üblich geworden, etliche zusätzliche statistische Daten zu Fußballspielen und anderen Sportarten jenseits der reinen Ergebnisse zu erhalten. Die Frage lautet: Wie werden die erhoben ? Die Anwort: Sowohl automatisiert als auch per Hand.

Der Auschnitt aus der Infografik oben (pdf) zeigt den Aufbau der SportVU-Technologie. Drei Kameras, die jeweils ein Drittel des Spielfelds betrachten, liefern Informationen an einen Computer, der die Daten zusammenführt und Auskunft über Ballbesitz, Laufstrecke, Standort usw. der einzelnen Spieler, des Balls und der Schiedsrichter liefert – siehe folgendes Video.

Weiterlesen