Zum Umgang mit der unklaren Datenlage beim Coronavirus

Versuch einer systematischen Übersicht zur Datenlage — Tabelle zu den Nr. mit Links

Der große Augenmerk, der in vielen Medien auf die Zahl der offiziell Infizierten gerichtete wird, ist problematisch. Genauso wie darauf beruhende Berechnung von Verdoppelungszeiträumen und Vergleiche der Zahlen verschiedenen Länder miteinander. Warum?

In einem Interview mit der Schwäbischen Zeitung (5.4.2020) fasst Klaus Meier, Professor für Journalistik an der Katholischen Universität Eichstätt, die Problematik gut zusammen:

„Ich würde gerne etwas aufgreifen, was einerseits toll gemacht, aber andererseits hochproblematisch ist: Das sind Formate, die Zahlen zur Pandemie aufbereiten — interaktive Grafiken, die super gemacht sind und die viele Nutzer auch stark interessieren. Aber das führt dazu, dass man diese Zahlen wie Tabellenstände im Sport miteinander vergleicht: Sind wir jetzt schon wie Italien oder Spanien? Wie schneiden die USA ab? Wie stehen die Bundesländer und Landkreise in Deutschland da? Wer überholt wen? Die Zahlen werden für bare Münze in Echtzeit genommen. Aber auch wenn die Zahlen sauber recherchiert sind, können sie gar nicht das leisten, was man von ihnen erwartet: nämlich ein getreues Abbild der Wirklichkeit zu sein. … Man sollte immer wieder darauf hinweisen, welchen Hintergrund und welche Schwächen diese Zahlen haben. Journalisten sollten diese Zahlenfixiertheit hinterfragen und die Gültigkeit der Zahlen relativieren. Und Mediennutzer sollten sich nicht nur über Zahlen oder Tabellen informieren, sondern lieber zweimal am Tag längere Texte lesen, die diese Zahlen einordnen.“

Zum Umgang mit der unklaren Datenlage beim Coronavirus weiterlesen

Die unterschätzte Ressource: Wie sich die OpenStreetMap für Journalismus nutzen lässt

Nach einem Überblick über die reichhaltige Datenquelle für geographische Informationen werden Nutzungsszenarien skizziert und einige Tools sowie Anwendungen vorgestellt. Schließlich wird ein Karteneditor präsentiert, an dem der Autor derzeit arbeitet.

Eine Antwort auf diese Frage lautet: Die Basis dafür kann nur die OpenStreetMap sein. Es ist eine der faszinierendsten offenen Datenquellen, die sich im Netz finden lässt. Die OpenStreetMap, 2006 gestartet, ist nach der Wikipedia das wohl größte gemeinschaftliche Werk, das das Netz hervorgebracht hat. In derzeit knapp 740 GB Rohdaten (XML äquivalent) liegt wahres Open Data vor – genauso frei für die kommerzielle Nachnutzung wie für gemeinnützige und private Zwecke (OpenDatabaseLicense, ODbL). Es gibt diverse daran angeschlossene Projekte, die Schwerpunkte etwa auf Fahrradfahrer, ÖPNV oder die Nutzung auf See legen.

Wikipedia für Geoinformation

Wie gelangen Informationen in die OpenStreetMap (OSM)? Jeder kann sich wie bei der Wikipedia einen Account bei der OSM anlegen und Daten beitragen sowie ändern. Neben automatisierten Importen von offenen Daten (zum Beispiel die Hausnummern Berlins) lassen sich manuelle Änderungen vornehmen. Oder Aufzeichnungen aus GPS-Geräten können importieren und die so gesammelten Punkte und Linien entsprechend markiert werden. Im Wiki der OSM ist die komplexe Taxonomie des Projekts nachzuvollziehen, die sich in ständiger Weiterentwicklung und Verbesserung durch tausende Freiwillige befindet. Die OpenStreetMap ist international über eine Stiftung mit Sitz in UK organisiert. Die „Wochennotizen“ des deutschsprachigen OSMblog vermitteln einen guten Eindruck der vielfältigen Aktivitäten rund um OSM. Und bei learnosm.org findet sich in diversen Sprachen eine ausführliche Einführung für die Mitarbeit an der freien Weltkarte.

Alle Änderungen der OSM lassen sich nachvollziehen (sogar live). In kurzer Zeit, üblicherweise nach einigen Minuten, sind die Änderungen auf der zentralen OpenStreetMap-Karte openstreetmap.org zu sehen. Die Datenbank, aus der sich jeder bedienen darf, die „planet.osm“ erfährt einmal pro Woche ein Update.

Es hilft sich zu verdeutlichen, dass eine Kartendarstellung eine Datenvisualisierung ist. Doch mit Geodaten lässt sich selbstredend einiges mehr anstellen als sie nur zu visualisieren: Das fängst damit an, Streckenführung für Navigationsgeräte zu errechnen (Routing) oder Flächenberechnung für statistische Zwecke vorzunehmen (per Geoinformationssystem, GIS). Einen eigener Artikel wert wäre das Potential, das derzeit durch das Wikidata-Projekt entsteht: Es verknüpft die Inhalte der OSM mit der Wikimedia (Wikipedia, Wikivoyage usw.) zu „Linked Data“.

Im journalistischen Kontext dürfte dem Kartenmaterial auf OSM-Basis derzeit allerdings am meisten Bedeutung zukommen. Das folgende Beispiel zeigt Karten von Google und OSM (per Griff in der Mitte lässt sich der Slider nach rechts und links bewegen). Zu sehen ist die Position des so genannten Jungles im französischen Calais, der bis vergangenen Herbst immer wieder in den Nachrichten auftauchte: Über einige Jahre hinweg hatten sich in einer improvisierten Siedlung zeitweise tausende Geflüchtete aufgehalten, um über den nahen Eingang des Eisenbahntunnels nach Großbritannien eben dorthin zu gelangen.

Die unterschätzte Ressource: Wie sich die OpenStreetMap für Journalismus nutzen lässt weiterlesen

Müssen Datenjournalisten programmieren können?

Tweet_Programmieren_DDJ_Natalia_Karbasova

Mit diesem etwas vereinfachten Statement von mir trat Natalia Karbasova auf Twitter eine kleine Diskussion zu Datenjournalismus (DDJ) und Programmierkünsten los, die zeigt, dass diese Frage alles andere als beantwortet ist. Vielleicht, weil wir hierzulande noch keine klare Vorstellung davon haben, wie guter Datenjournalismus entstehen kann. Und was er überhaupt ist.

Die Diskussion ums Programmieren lohnt also. Bisher verläuft sie allerdings ziemlich schwarz-weiß, scheint mir: Wer Programmieren kann, ist dafür, der Rest ist dagegen. Egal, ob er tatsächlich nicht programmieren will, es sich nicht zutraut, oder einfach keine Chance sieht, die Zeit fürs Lernen und Ausprobieren aufzubringen.

Ich starte hier den Versuch, die Diskussion aufs Inhaltliche zu lenken: Wo und wie hilft es Datenjournalisten konkret, coden zu können?
Müssen Datenjournalisten programmieren können? weiterlesen

Tausche Daten gegen Demokratie

pen Micro Data: Offener Zugang auf alle Forschungsdaten für den Journalismus
Vorlage: Open Knowledge Definition

Um Open Data steht es in Deutschland schlecht. Nur zaghaft und geringfügig stellen Staat, Politik und andere Institutionen der Öffentlichkeit Daten offen zur Verfügung. Für eine Res publica wie Deutschland ist das schädlich. Die Daten, die man bräuchte, um relevanten Journalismus zu betreiben und die Mächtigen zu kontrollieren, sind oft schlichtweg nicht zu bekommen.

Deshalb müssen wir klar machen, wie weit wir von wahrem Open Data noch entfernt sind und es selbstbewusst einfordern. Ich habe das gerade auf Einladung des Rates für Sozial und Wirtschaftsdaten (RatSWD) auf deren großer Jahreskonferenz, 6KSWD, getan. Dort habe ich eine kleine Utopie vorgestellt und gefordert, dass Staat und Wissenschaft dem (Daten-)Journalismus ihre Daten auf Mikroebene zur Verfügung stellen sollten: Journalisten könnten dann mit den Daten auf Einzelpersonen-Ebene arbeiten (zum Beispiel den Daten aller einzelnen Rentner mit ihren kompletten, von der Rentenversicherung gespeicherten Angaben – allerdings am Ende anonymisiert). Ein Monopol von Wissenschaft oder Behörden auf Mikrodaten gibt es nicht. Sie gehören in einer Demokratie dem Volk.

Tausche Daten gegen Demokratie weiterlesen

Straßen und Hausnummern in Berlin mit Geokoordinaten als Open Data

In Berlin sind die Geodaten der Abteilung Geoinformation seit Anfang Oktober Open Data – in der Praxis allerdings noch nicht. @yetzt aus dem OpenDataCity-Team hat deshalb schon einmal die Straßen und Hausnummern mit ihren Geodaten beim RBS-Adressdienst eingesammelt und in gängige Geokoordinaten umgerechnet. Bis kommendes Jahr gilt in Berlin noch das Soldner-Projektionssystem von 1879. Zur Umwandlung wurde die Javascript-Biliothek proj4.js verwendet. Der entscheidende Code findet sich hier.

Download:

tsv – tab seperated value, ca. 8MB
mit Straße, Haunummer, PLZ, Stadteil

json – ein json-objekt pro zeile
mit allen Detaildaten, siehe z.B. hier.

Beide Dateien enthalten sowohl die Soldner-Koordinaten als auch WGS84. Wenn die Hausnummer 999 ist, bezieht sich der Datensatz auf die gesamte Straße, das sind vor allem Waldwege, Autobahnen, Brücken, etc.

Die Lizenzfrage ist noch nicht eindeutig geklärt, es sollte auf jeden Fall die Quelle angegeben werden. Auf daten.berlin.de heißt es: „Die bisherigen vielschichtigen Nutzungsbedingungen werden aufgehoben und durch neue einheitliche Nutzungsbedingungen, die eine kostenfreie kommerzielle und nicht-kommerzielle Nutzung erlauben, ersetzt.“ Mehr dazu ist im Wikimedia-Blog zu lesen.

Im Herbst 2010 hatte das im Vorjahr gegründete Open Data Network den Prototypen einer offenen Datenkarte für Berlin vorgestellt (siehe Video); doch seitens der Verwaltung wurde die Weiterverwendung der Berliner Geodaten bald untersagt – Open Data war zu der Zeit im wahrsten Sinne des Wortes noch ein Fremdwort.

Warum wir einen neuen Wahl-O-Mat brauchen

Bildschirmfoto 2013-09-20 um 14.14.05

Der Wahl-O-Mat der Bundeszentrale für politische Bildung hat sich seit 11 Jahren zu einem festen Bestandteil der Bundes- und Landtagswahlen etabliert. Millionen Wahlberechtigte nutzen ihn, um eine Hilfestellung für die anstehende Wahl zu finden. Es ist damit an der Zeit, den Wahl-O-Maten genauer unter die Lupe zu nehmen.

Dabei haben sich für uns einige Fragen ergeben, die uns dazu bewogen haben, ein alternatives Konzept zu entwickeln – und zwar den Wahl-Apparat:

  • Warum sind im Wahl-O-Mat einige der Formulierungen viel zu umständlich bzw. missverständlich? Formulierungen wie „Finanzstarke Bundesländer sollen schwache Bundesländer weniger unterstützen müssen.“ enthalten unnötige Verneinungen. Deshalb haben wir versucht, alle Thesen-Formulierungen zu überprüfen und wenn nötig anzupassen: https://github.com/opendatacity/wahl-apparat/blob/master/frontend/data/data.js
  • Warum „erklärt“ mir der Wahl-O-Mat nicht deutlicher, wieso er sich für welche Partei entschieden hat? Wenn man beispielsweise statt SPD die NPD „empfohlen“ bekommen hat, dann sollte man auch genau gezeigt bekommen, in welchen Thesen die beiden Parteien sich unterscheiden, was also für die Empfehlung ausschlaggebend war.
  • Wenn sich die Menschen in jeder Situation mit dem Wahl-O-Maten auseinandersetzen können sollen, etwa auch am „Stammtisch“, warum gibt es keine Optimierung für mobile Geräte, sondern nur mobile Apps, die extra heruntergeladen werden müssen? Das macht auch wenig Sinn, da der Wahl-O-Mat oft in Websites von Medienpartnern eingebunden wird. Auch wenn der Wahl-O-Mat dieses Jahr in aufgehübschter Optik erschien, scheint er webtechnologisch auf dem Stand des Konzeptionsjahres 2002 stehen geblieben.

Wesentlicher ist aber:

Wenn der Wahl-O-Mat ein so wichtiges demokratisches Werkzeug ist – über 10.5 Mio. Zugriffe zur Bundestagswahl 2013 bis zum heutigen Tag – warum liegt sein Programmcode nicht als Open Source vor?

Der Algorithmus, der demokratische Entscheidung beeinflussen kann, sollte offenliegen.

Warum wir einen neuen Wahl-O-Mat brauchen weiterlesen

Aufruf zur Mitarbeit: Open ARD ZDF

open_ard_zdf1

Die öffentlich-rechtlichen Sender werden in weiten Teilen von der Allgemeinheit finanziert. Wie die Gelder, die neuerdings über den GEZ-Nachfolger „Beitragsservice“ eingesammelt werden, ausgegeben werden, ist nur unzulänglich bekannt. Eine demokratische Kontrolle findet nur indirekt statt, über Rundfunkräte etc.. Der Bürger und Souverän wird im unklaren gelassen.

Unter „öffentlich“ lässt sich allerdings etwas anderes verstehen. Nämlich öffentlich im Sinne von „Open“, also einem freien ungehinderten Zugang.

Um der Intransparenz etwas entgegen zu setzen, startet nun eine auf Langfristigkeit angelegte Arbeitsgruppe „Open ARD ZDF“. Die wird sicherlich einige Jahre brauchen, um zum Erfolg zu kommen. Die dicken Bretter von Institutionen zu bohren, braucht seine Zeit.

Wer konstruktiv mitarbeiten möchte ist herzlich willkommen. Dieses Etherpad dient als erste Arbeitsgrundlage, dort findet sich erstes Material und man kann sich als Mitarbeiter/in eintragen. Ob sich das ganze über eine Google-/Facebookgruppe oder Mailinglist organisiert, wird sich finden. (UPDATE: Hier geht es zur Mailingliste Doodle-Umfrage). Kontakt: openardzdf-at-opendatacity-de

Ziel der Arbeitsgruppe

Bei den weitgehend von der Allgemeinheit finanzierten öffentlich-rechtlichen Sendern detaillierte Transparenz bei den Ausgaben zu schaffen.

Die Zahlen und Vorgänge sollen so aktuell wie möglich strukturiert als Open Data für alle sichtbar, zugänglich und abrufbar sein.

Es geht um ARD, ZDF, Deutschlandradio/-funk. Dazu gezählt wird auch die Deutsche Welle (die hauptsächlich aus dem Haushalt des Kanzleramts getragen wird).

Beim Ganzen gibt es auch einiges zu lernen: Darüber, wie der ÖR organisiert ist und wie Datenrecherche betrieben werden kann.

Nächste Schritte

  • Überblick verschaffen über vorhandenes Datenmaterial
  • Daten aus pdf extrahieren, strukturieren, veröffentlichen
  • weiteres Vorgehen planen, nachdem klar ist, welche Zahlen/ Daten relevant sind bzw. benötigt werden
  • entsprechende Ansprechpartner/Stellen/Zuständigkeiten identifizieren
  • möglicherweise Crowdfunding für IFG-Anfragen (Informationsfreiheitsgesetz) usw.
  • Klärung, ob Transparenz über Rundfunkänderungsstaatsvertrag regelbar ist

Kar-Klo-Graph: OpenDataCity gewinnt Apps4-Data-Ideenwettbewerb

Eine kurze Meldung in eigener Sache: Bei einem nicht-öffentlichen Apps4-Data-Wettbewerb unter der Schirmherrschaft des Innenministers Hans-Peter Friedrich hat sich OpenDataCity mit seiner App-Idee gegen das Fraunhofer-Institut durchgesetzt. Lorenz Matzat, Apps- und Wettbewerbsbeauftragter bei OpenDataCity ist zufrieden: “Wir werden das Preisgeld für die nachhaltige Entwicklung von Daten-Projekten in Deutschland verwenden und freuen uns sehr über den Gewinn. App-Wettbewerbe sind gut für die Entstehung einer langfristen Data-Infrastruktur.”

Die App “Kar-Klo-Graph” von OpenDataCity versammelt alle öffentlichen Toiletten in Deutschland mit einer Zustandsnote, Öffnungszeiten, Preisen und weiteren Merkmalen auf einer Karte. Nutzer können sich mit ihrem Smartphone und aktiviertem GPS schnell zum nächstgelegenen freien Örtchen führen lassen.

Grundlage der App ist das eigene Geo-Informationssystem “lokaler”. In einer zweiten Ausbaustufe sollen der aktuelle Zustand von Schüssel und Brille bzw. alternativ der Nutzungszustand “besetzt” in Echtzeit angezeigt werden. Möglich ist dies durch eine Kooperation mit der Deutschen Telekom, die im Rahmen der Hotspot-Offensive bis 2016 sämtliche Toiletten mit kostenfreien WLAN-Hotspots und Webcams ausstatten will. Die Bilder werden mit automatischen Algorithmen verarbeitet, so dass die Intimsphäre der Toilettennutzer gewahrt bleiben dürfte.

Die iPhone-App wird in den nächsten Tagen im App-Store des Apple-Konzern, auf der Apps4Deutschland-Seite und in einer Blackberry-Version erhältlich sein. “Alle von uns verwendeten Daten stehen unter der Datenlizenz Deutschland (Namensnennung, nicht-kommerziell) und können von vielen Entwicklern weitergenutzt werden, wenn sie keine kommerziellen Interessen haben”, so Michael Kreil, Chef der Entwicklungsabteilung. Somit sei der Weg frei für weitere Entwicklungen der Community.

Das Preisgeld in Höhe von 500 Euro überreichte Staatssekretär Bernd Schmidt in Abwesenheit des Innenministers Friedrich, der aber den Gewinnern seine Glückwünsche ausrichten ließ.

Zu den Entwicklungskosten von GovData

Das GovData Portal des Bundes ist nun online. Jonas Westphal schrieb über den holprigen Start und die Sicherheitslücken, aber auch über die Kosten:

Das Projekt jedenfalls hat bisher mindestens 155.000 Euro gekostet. Das ist nicht so viel, der Beitrag ist aber mehr als peanuts. Die Gutachten im Vorfeld mal nicht mit gerechnet. Und ich frage mich: Hätte man das nicht auch preiswerter und sicherer haben können? Ginge es nicht auch leichter? Und warum ist ein Open-Data-Portal eigentlich nicht selbst Open-Source-Software? Das wäre doch nur die logische Konsequenz, wenn die Open-Government-Eckpunkte aus dem selben Ministerium mal zu Ende denkt.

So hätte etwa der Code der Software, auf dem das Open Data-Portal in Großbritannien basiert, kostenfrei auf Github zur Verfügung gestanden. Zu den Entwicklungskosten von GovData weiterlesen

Mein Fazit aus dem Streit um GovData

Ende diesen Monats, im Februar, wird Bundesinnenminister Friedrich (CSU) auf der CeBIT wohl das GovData Portal eröffnen. Ich stelle mir da so einen roten Knopf vor, auf den er drückt – und tatata: Deutschland hat jetzt auch ein Datenportal. Friedrich wird vermutlich sich und anderen auf die Schultern klopfen; von der sich in den letzten knapp zwei Wochen zugespitzten Debatte in diversen Blogposts, Artikeln und Kommentaren wird – außer in einem Nebensatz vielleicht – nicht die Rede sein. Eine Übersicht mit Links zu zahlreichen Texten findet sich unten. Übrigens wird die Auseinandersetzung in der publizierten Öffentlichkeit fast ausschließlich nur von Männern geführt.

Ich nehme aus ihr folgendes mit:

Das ganze diente der Auffrischung einer nicht gerade neuen Erkenntnis: Es gibt unterschiedliche Interessen an Open Data und Open Government. Viele Akteure, „Stakeholder“, geht es auch, aber nicht nur um die Sache. Dass wirtschaftliche Interessen im Spiel sind, liegt A. auf der Hand – wo gibt es die nicht? – und B. halte ich für legitim.

Mein Fazit aus dem Streit um GovData weiterlesen