Kategorie-Archiv: Open Data/Gov

Straßen und Hausnummern in Berlin mit Geokoordinaten als Open Data

In Berlin sind die Geodaten der Abteilung Geoinformation seit Anfang Oktober Open Data – in der Praxis allerdings noch nicht. @yetzt aus dem OpenDataCity-Team hat deshalb schon einmal die Straßen und Hausnummern mit ihren Geodaten beim RBS-Adressdienst eingesammelt und in gängige Geokoordinaten umgerechnet. Bis kommendes Jahr gilt in Berlin noch das Soldner-Projektionssystem von 1879. Zur Umwandlung wurde die Javascript-Biliothek proj4.js verwendet. Der entscheidende Code findet sich hier.

Download:

tsv – tab seperated value, ca. 8MB
mit Straße, Haunummer, PLZ, Stadteil

json - ein json-objekt pro zeile
mit allen Detaildaten, siehe z.B. hier.

Beide Dateien enthalten sowohl die Soldner-Koordinaten als auch WGS84. Wenn die Hausnummer 999 ist, bezieht sich der Datensatz auf die gesamte Straße, das sind vor allem Waldwege, Autobahnen, Brücken, etc.

Die Lizenzfrage ist noch nicht eindeutig geklärt, es sollte auf jeden Fall die Quelle angegeben werden. Auf daten.berlin.de heißt es: “Die bisherigen vielschichtigen Nutzungsbedingungen werden aufgehoben und durch neue einheitliche Nutzungsbedingungen, die eine kostenfreie kommerzielle und nicht-kommerzielle Nutzung erlauben, ersetzt.” Mehr dazu ist im Wikimedia-Blog zu lesen.

Im Herbst 2010 hatte das im Vorjahr gegründete Open Data Network den Prototypen einer offenen Datenkarte für Berlin vorgestellt (siehe Video); doch seitens der Verwaltung wurde die Weiterverwendung der Berliner Geodaten bald untersagt – Open Data war zu der Zeit im wahrsten Sinne des Wortes noch ein Fremdwort.

Warum wir einen neuen Wahl-O-Mat brauchen

Bildschirmfoto 2013-09-20 um 14.14.05

Der Wahl-O-Mat der Bundeszentrale für politische Bildung hat sich seit 11 Jahren zu einem festen Bestandteil der Bundes- und Landtagswahlen etabliert. Millionen Wahlberechtigte nutzen ihn, um eine Hilfestellung für die anstehende Wahl zu finden. Es ist damit an der Zeit, den Wahl-O-Maten genauer unter die Lupe zu nehmen.

Dabei haben sich für uns einige Fragen ergeben, die uns dazu bewogen haben, ein alternatives Konzept zu entwickeln – und zwar den Wahl-Apparat:

  • Warum sind im Wahl-O-Mat einige der Formulierungen viel zu umständlich bzw. missverständlich? Formulierungen wie “Finanzstarke Bundesländer sollen schwache Bundesländer weniger unterstützen müssen.” enthalten unnötige Verneinungen. Deshalb haben wir versucht, alle Thesen-Formulierungen zu überprüfen und wenn nötig anzupassen: https://github.com/opendatacity/wahl-apparat/blob/master/frontend/data/data.js
  • Warum „erklärt“ mir der Wahl-O-Mat nicht deutlicher, wieso er sich für welche Partei entschieden hat? Wenn man beispielsweise statt SPD die NPD „empfohlen“ bekommen hat, dann sollte man auch genau gezeigt bekommen, in welchen Thesen die beiden Parteien sich unterscheiden, was also für die Empfehlung ausschlaggebend war.
  • Wenn sich die Menschen in jeder Situation mit dem Wahl-O-Maten auseinandersetzen können sollen, etwa auch am „Stammtisch“, warum gibt es keine Optimierung für mobile Geräte, sondern nur mobile Apps, die extra heruntergeladen werden müssen? Das macht auch wenig Sinn, da der Wahl-O-Mat oft in Websites von Medienpartnern eingebunden wird. Auch wenn der Wahl-O-Mat dieses Jahr in aufgehübschter Optik erschien, scheint er webtechnologisch auf dem Stand des Konzeptionsjahres 2002 stehen geblieben.

Wesentlicher ist aber:

Wenn der Wahl-O-Mat ein so wichtiges demokratisches Werkzeug ist – über 10.5 Mio. Zugriffe zur Bundestagswahl 2013 bis zum heutigen Tag – warum liegt sein Programmcode nicht als Open Source vor?

Der Algorithmus, der demokratische Entscheidung beeinflussen kann, sollte offenliegen.

Weiterlesen

Aufruf zur Mitarbeit: Open ARD ZDF

open_ard_zdf1

Die öffentlich-rechtlichen Sender werden in weiten Teilen von der Allgemeinheit finanziert. Wie die Gelder, die neuerdings über den GEZ-Nachfolger „Beitragsservice“ eingesammelt werden, ausgegeben werden, ist nur unzulänglich bekannt. Eine demokratische Kontrolle findet nur indirekt statt, über Rundfunkräte etc.. Der Bürger und Souverän wird im unklaren gelassen.

Unter „öffentlich“ lässt sich allerdings etwas anderes verstehen. Nämlich öffentlich im Sinne von „Open“, also einem freien ungehinderten Zugang.

Um der Intransparenz etwas entgegen zu setzen, startet nun eine auf Langfristigkeit angelegte Arbeitsgruppe „Open ARD ZDF“. Die wird sicherlich einige Jahre brauchen, um zum Erfolg zu kommen. Die dicken Bretter von Institutionen zu bohren, braucht seine Zeit.

Wer konstruktiv mitarbeiten möchte ist herzlich willkommen. Dieses Etherpad dient als erste Arbeitsgrundlage, dort findet sich erstes Material und man kann sich als Mitarbeiter/in eintragen. Ob sich das ganze über eine Google-/Facebookgruppe oder Mailinglist organisiert, wird sich finden. (UPDATE: Hier geht es zur Mailingliste Doodle-Umfrage). Kontakt: openardzdf-at-opendatacity-de

Ziel der Arbeitsgruppe

Bei den weitgehend von der Allgemeinheit finanzierten öffentlich-rechtlichen Sendern detaillierte Transparenz bei den Ausgaben zu schaffen.

Die Zahlen und Vorgänge sollen so aktuell wie möglich strukturiert als Open Data für alle sichtbar, zugänglich und abrufbar sein.

Es geht um ARD, ZDF, Deutschlandradio/-funk. Dazu gezählt wird auch die Deutsche Welle (die hauptsächlich aus dem Haushalt des Kanzleramts getragen wird).

Beim Ganzen gibt es auch einiges zu lernen: Darüber, wie der ÖR organisiert ist und wie Datenrecherche betrieben werden kann.

Nächste Schritte

  • Überblick verschaffen über vorhandenes Datenmaterial
  • Daten aus pdf extrahieren, strukturieren, veröffentlichen
  • weiteres Vorgehen planen, nachdem klar ist, welche Zahlen/ Daten relevant sind bzw. benötigt werden
  • entsprechende Ansprechpartner/Stellen/Zuständigkeiten identifizieren
  • möglicherweise Crowdfunding für IFG-Anfragen (Informationsfreiheitsgesetz) usw.
  • Klärung, ob Transparenz über Rundfunkänderungsstaatsvertrag regelbar ist

Kar-Klo-Graph: OpenDataCity gewinnt Apps4-Data-Ideenwettbewerb

Eine kurze Meldung in eigener Sache: Bei einem nicht-öffentlichen Apps4-Data-Wettbewerb unter der Schirmherrschaft des Innenministers Hans-Peter Friedrich hat sich OpenDataCity mit seiner App-Idee gegen das Fraunhofer-Institut durchgesetzt. Lorenz Matzat, Apps- und Wettbewerbsbeauftragter bei OpenDataCity ist zufrieden: “Wir werden das Preisgeld für die nachhaltige Entwicklung von Daten-Projekten in Deutschland verwenden und freuen uns sehr über den Gewinn. App-Wettbewerbe sind gut für die Entstehung einer langfristen Data-Infrastruktur.”

Die App “Kar-Klo-Graph” von OpenDataCity versammelt alle öffentlichen Toiletten in Deutschland mit einer Zustandsnote, Öffnungszeiten, Preisen und weiteren Merkmalen auf einer Karte. Nutzer können sich mit ihrem Smartphone und aktiviertem GPS schnell zum nächstgelegenen freien Örtchen führen lassen.

Grundlage der App ist das eigene Geo-Informationssystem “lokaler”. In einer zweiten Ausbaustufe sollen der aktuelle Zustand von Schüssel und Brille bzw. alternativ der Nutzungszustand “besetzt” in Echtzeit angezeigt werden. Möglich ist dies durch eine Kooperation mit der Deutschen Telekom, die im Rahmen der Hotspot-Offensive bis 2016 sämtliche Toiletten mit kostenfreien WLAN-Hotspots und Webcams ausstatten will. Die Bilder werden mit automatischen Algorithmen verarbeitet, so dass die Intimsphäre der Toilettennutzer gewahrt bleiben dürfte.

Die iPhone-App wird in den nächsten Tagen im App-Store des Apple-Konzern, auf der Apps4Deutschland-Seite und in einer Blackberry-Version erhältlich sein. “Alle von uns verwendeten Daten stehen unter der Datenlizenz Deutschland (Namensnennung, nicht-kommerziell) und können von vielen Entwicklern weitergenutzt werden, wenn sie keine kommerziellen Interessen haben”, so Michael Kreil, Chef der Entwicklungsabteilung. Somit sei der Weg frei für weitere Entwicklungen der Community.

Das Preisgeld in Höhe von 500 Euro überreichte Staatssekretär Bernd Schmidt in Abwesenheit des Innenministers Friedrich, der aber den Gewinnern seine Glückwünsche ausrichten ließ.

Zu den Entwicklungskosten von GovData

Das GovData Portal des Bundes ist nun online. Jonas Westphal schrieb über den holprigen Start und die Sicherheitslücken, aber auch über die Kosten:

Das Projekt jedenfalls hat bisher mindestens 155.000 Euro gekostet. Das ist nicht so viel, der Beitrag ist aber mehr als peanuts. Die Gutachten im Vorfeld mal nicht mit gerechnet. Und ich frage mich: Hätte man das nicht auch preiswerter und sicherer haben können? Ginge es nicht auch leichter? Und warum ist ein Open-Data-Portal eigentlich nicht selbst Open-Source-Software? Das wäre doch nur die logische Konsequenz, wenn die Open-Government-Eckpunkte aus dem selben Ministerium mal zu Ende denkt.

So hätte etwa der Code der Software, auf dem das Open Data-Portal in Großbritannien basiert, kostenfrei auf Github zur Verfügung gestanden. Weiterlesen

Mein Fazit aus dem Streit um GovData

Ende diesen Monats, im Februar, wird Bundesinnenminister Friedrich (CSU) auf der CeBIT wohl das GovData Portal eröffnen. Ich stelle mir da so einen roten Knopf vor, auf den er drückt – und tatata: Deutschland hat jetzt auch ein Datenportal. Friedrich wird vermutlich sich und anderen auf die Schultern klopfen; von der sich in den letzten knapp zwei Wochen zugespitzten Debatte in diversen Blogposts, Artikeln und Kommentaren wird – außer in einem Nebensatz vielleicht – nicht die Rede sein. Eine Übersicht mit Links zu zahlreichen Texten findet sich unten. Übrigens wird die Auseinandersetzung in der publizierten Öffentlichkeit fast ausschließlich nur von Männern geführt.

Ich nehme aus ihr folgendes mit:

Das ganze diente der Auffrischung einer nicht gerade neuen Erkenntnis: Es gibt unterschiedliche Interessen an Open Data und Open Government. Viele Akteure, „Stakeholder“, geht es auch, aber nicht nur um die Sache. Dass wirtschaftliche Interessen im Spiel sind, liegt A. auf der Hand – wo gibt es die nicht? – und B. halte ich für legitim.

Weiterlesen

Beteiligung und Open Government

ip_planung

Vor zwei Wochen hatte ich gefragt, wie “offen wird das Open Data-Portal des Bundes?” Die Frage wird sich zumindest vorläufig Mitte nächster Woche klären: Fraunhofer Fokus veranstaltet dann den 2. Community Workshop zum Portal, dessen Prototyp in Kürze starten soll.

Die mittlerweile verebbte Diskussion zu den Lizenztexten auf Github lässt schon erahnen, was herauskommen wird: Die Community hält das Portal, so wie es jetzt geplant wird, für ein “Data Portal” – das “Open” sollte lieber aus dem Titel gestrichen werden.  Weil es eine “wenig offen” nicht geben könne: Entweder wirklich offene Lizenzen – oder nicht. Ein Kompromiss scheint dabei kaum möglich zu sein: er liegt auch gar nicht im Entscheidungsspielraum der Mitarbeiter von Fraunhofer, sondern müsste vom IT-Planungsrat abgesegnet werden.

In dem Zusammenhang möchte ich auf einen Kommentar von Matthias Trénel zu meinen Jahresrückblick 2012 zu Open Government eingehen. Weil es dabei nicht um Technik geht, sondern um Verfahren, wie versucht wird, offenes Regierungshandeln derzeit umzusetzen.

Weiterlesen

Bildschirmfoto 2013-01-19 um 14.12.41

Show- statt Transparenzeffekt

Jahresrückblick Open Data & Open Gov 2012

Langsam. So geht es mit dem Thema Open Government Data, kurz Open Data in Deutschland voran. Ungefähr in der Größenordnung langsam, wie die Entwicklung im Netz schnell ist. Dass hier eine Chance nach dem anderen verpasst wird – sei es in demokratischer Hinsicht oder auch wirtschaftlicher – das scheint bei den ganzen Sonntagsreden zu Transparenz und Bürgerbeteiligung geflissentlich ignoriert zu werden.

So blickt weiterhin mancher Aktivist mit Neid in Richtung der angelsächsischen Länder, in denen das Thema auch in der politischen Agenda hochrangig angesiedelt ist. Zudem rührt in Großbritannien Tim Berners-Lee, einer der Väter des world-wide-web, die Trommel für Open Data. So mischt er auch bei dem dieses Jahr in London gegründete Open Data Institut mit. Es wird aus britischen Steuergeldern finanziert und soll den Sektor erforschen und voranbringen.

Hierzulande können zwar einige Politiker mittlerweile mit dem Begriffen Open Data und Open Government etwas anfangen, aber leider ist für das Thema das Bundesinnenministerium unter Hans-Jörg Friedrich (CSU) zuständig.

Weiterlesen

Blinde Flecken: Netzwerk- und Haushaltsvisualisierungen

Jüngst veröffentlichte die Berliner Morgenpost eine Visualisierung des Twitterverkehrs von Mitgliedern des Abgeordnetenhauses. Tools wie Gephi haben es recht einfach gemacht, große Datenmengen auf ihre Relationen zu betrachten; auch Google bietet das mit seinen Fusion Tables an.

Aber erzählen solche Diagramme eine „Geschichte“? Sind sie Journalismus, stellen sie einen bemerkenswerten Sachverhalt dar, dokumentieren sie etwas wenig Bekanntes, finden sie etwas heraus?

Tony Hirst, Datenjongleur an der Open University in England, brachte es neulich gut auf den Punkt: „I find maps like this fascinating, but I’m still trying to work out how we can make them useful.“

Weiterlesen