Training Days with Marco

Picture: brodtcast

Picture: brodtcast

Marco is one of eight german certified Google trainers for journalists of its Google News Lab for the D-A-CH region. Together with “Netzwerk Medientrainer” Marco trains newsrooms with tools for media and digital change. In the last months he held workshops across Germany at Deutsche Welle, Kölner Stadtanzeiger, Neue Osnabrücker Zeitung (360 Grad picture), Stuttgarter Nachrichten and others. Newsrooms who are interested in trainings contact Isa Sonnenfeld (Head of newslab DACH at Google).

Google-Newslab-Fellowship für (DDJ)-Journalisten/Entwickler

Posted by on Jul 11, 2016 in Allgemein | No Comments
Google-Newslab-Fellowship für (DDJ)-Journalisten/Entwickler

Das Google News Lab startet heute ein Stipendien-Programm für die DACH-Region bei 16 Medienorganisationen. Zusammen mit Vocer (bei dem ich einer der Herausgeber bin) schreiben wir eine Fellowship aus. Inhaltlich wird es um unser Projekt xMinutes gehen. Wir suchen natürlich die eierlegende Wollmilchsau – passen aber die Aufgabe natürlich an das Fähigkeiten-Profil des Kandidaten an. Wir sind offen für Bewerbungen von (Nerd)-Journalistinnen, Datenjournalistinnen und Entwicklerinnen (selbstredend: alles m/w).

Die Bewerbungsfrist ist der 22. August, das Programm geht zwei Monate lang, irgendwann zwischen September 2016 und Februar 2017. (Das Bild oben zeigt übrigens die Lobby in unserem Büro im Mindspace Hamburg).

Weitere Details zur Bewerbung und zum Programm

Nebenbei: Wir freuen uns auch sonst über Initiativ-Bewerbungen 😉

Gewonnen: Google-DNI-Förderung für unser Sensorjournalismus-Projekt

Posted by on Feb 24, 2016 in News, Pressemitteilung | No Comments

Rock den Newsroom: Wir gehören zu den 33 geförderten Großprojekten der Google Digital News Initiative (DNI). In einer Vorauswahl von 226 Großprojekten haben wir uns durchsetzen können.

DNI Förderung

In der ersten Runde der Digital News Initiative hat Google 128 Projekte mit einem Gesamtvolumen von 27 Millionen Euro gefördert. Anträge kamen aus 23 europäischen Ländern, die sich in drei Kategorien bewerben konnten: Prototypen (bis 50.000 Euro), mittelgroße Projekte (bis 300.000 Euro) und große Projekte (mehr als 300.000 Euro bis 1 Million).

Wir wollen in unserem Projekt Sensordaten nutzen, um den perfekten Newsstream zu generieren – die richtige Nachricht zur richtigen Zeit am richten Ort. Hierfür wollen wir Sensordaten analysieren und algorithmisch Vorhersagen versuchen, wann und wo es beim User die beste Zeit für eine Nachricht ist.

An dem Projekt werden wir in den kommenden zwei Jahren arbeiten, im vergangenen Jahr konnten wir bereits durch eine EU-Förderung erste Experimente mit Semantik, Machine Learning und Vorhersage-Algorithmen machen. Außerdem haben wir in den vergangenen Wochen einige Partnerschaften geschlossen – 2016 wird sehr spannend für uns.

Alternative Konzepte, wie wir künftig Medieninhalte konsumieren, tauchten in den vergangenen Wochen auch vermehrt in den einschlägigen Newslettern auf, beispielhaft seien hier qz.com mit ihrer App, Experimente der New York Times und Washington Post genannt. Es ist Zeit für sensorgesteuerten Nachrichtenkonsum.

Wir freuen uns auf die Chance, die uns die Google DNI bietet – und nebenbei: Wir suchen dringend neue Mitarbeiter

Hier gibt es mehr Infos zur DNI und der ersten Förderrunde.


Presseecho:

OpenDataCity: Journalist des Jahres 2015 (2. Platz)

Posted by on Feb 16, 2016 in News, Pressemitteilung | No Comments

Am Montag habe ich für OpenDataCity und die Datenfreunde GmbH eine Auszeichnung als Journalist des Jahres entgegennehmen dürfen – Platz 2 in der Kategorie Medien-Entrepeneur. Platz 1 ging an Stephan Lamby mit seiner Plattform dbate und Platz 3 an Pauline Tillman mit ihrem StartUp Deine Korrespondentin. Herzlichen Glückwunsch!

Stephan Lamby (Produzent, Entrepreneur, 1.), Marco Maas (Datenfreunde/OpenDataCity, Entrepreneur, 2.), Pauline Tillmann (Deine Korrespondentin, Entrepreneur, 3.), Christian Meier (Laudator) (vlnr); Preisverleihung "Journalisten des Jahres 2015", Deutsches Historisches Museum, 15.2.2016, Berlin

Stephan Lamby (Produzent, Entrepreneur, 1.), Marco Maas (Datenfreunde/OpenDataCity, Entrepreneur, 2.), Pauline Tillmann (Deine Korrespondentin, Entrepreneur, 3.), Christian Meier (Laudator) (vlnr); Preisverleihung „Journalisten des Jahres 2015“, Deutsches Historisches Museum, 15.2.2016, Berlin

Mein und unser Dank geht an alle Kunden, Kollegen, Ex-Kollegen und Wegbegleiter, die mit uns in den vergangenen Jahren den Journalismus weiter in Richtung Interaktivität und modernes Storytelling gebracht haben.

Persönlich habe mich mich am meisten über den Preis für das Team des Jahres für die Kollegen von Netzpolitik gefreut – seit Jahren leistet das kleine Team völlig unterbezahlt erstklassige Arbeit – und scheint jetzt endlich dank der Landesverrat-Affäre spendenfinanziert auch auf einem finanziellen Level agieren zu können, das endlich mehr als das bloße Überleben ermöglicht – wer was Gutes für das Thema Netzpolitik tun will: Spendet wenig, aber regelmäßig!

Das Team von OpenDataCity

Das Team von OpenDataCity

Sollte es auch im kommenden Jahr wieder die Kategorie „Medien-Entrepeneur“ geben, wäre mein Vorschlag an die Organisatoren, auch hier statt einer einzelnen Person Teams auszuzeichnen. Ich denke, dass es im unternehmerischen Bereich (der ja fast immer auch mit Technologie zu tun hat) niemals „Einzeltäter“ sind, die Entwicklungen antreiben.

Neue Heimat Betahaus

Noch eine letzte „Hausnotiz“: Anfang Februar sind wir von OpenDataCity mit dem Hamburger Team ins Betahaus Hamburg gezogen – wo sich Medienschaffende und junge Technologie-Unternehmen treffen – wir sind sehr zuversichtlich, dass aus dieser Mischung bald auch neue datengetriebene journalistische Formate bei uns entstehen. Stay tuned.

LobbyRadar gewinnt den begehrten Prix Europa

Posted by on Okt 23, 2015 in Grafik, Lobby, News | No Comments
Einmal vor Ort beim ZDF: Trophäe Anfassen.

Vor Ort beim ZDF: Einmal Trophäe anfassen.

Wir fühlen uns mitgeehrt: Das ZDF hat für sein Projekt LobbyRadar in Kooperation mit dem MIZ in Potsdam und OpenDataCity die  Auszeichnung Prix Europa 2015 in der Kategorie „Best Online Project“ gewonnen. Der Prix Europa ist einer der begehrtesten Medienpreise Europas im Universum der europäischen öffentlich-rechtlichen Sendeanstalten.

Die Jury schreibt auf der Prix Europa Website:
The Jury of the online category of Prix Europa 2015 described the winning project as “extremely ambitious”, saying it made them “optimistic about the internet and its possibilities”.
It’s a great tool for citizens, which uses big data to highlight the power structures within a democracy.

It unlocks huge amounts of open source information revealing the connections between politicians, think tanks and lobbyists. Some in the jury said they would like to take – or steal – this data visualisation tool for their own country, or indeed make it pan-European.

Ausschnitt aus dem Lobbyradar

Ausschnitt aus dem Lobbyradar

Die Technik vom LobbyRadar iat von uns, mitkonzipiert und recherchiert haben die Kollegen vom MIZ. Ein besonders großes Dankeschön gilt dem ZDF. Ohne den Mut, Finanzierung und Projektleitung aus der Redaktion hätte es LobbyRadar nie gegeben.

Update 31.12.2015: Die Projektlaufzeit für das LobbyRadar unter der Schirmherrschaft des ZDF ist ausgelaufen. Wir suchen einen neuen Betreiber. Interessenten können sich gerne unter lobbyradar[at]mail.de melden.

OpenDataCity auf der re:publica 2015

OpenDataCity auf der re:publica 2015

Die re:publica ist ja immer das große Klassentreffen – auch dieses Jahr sind wir an einigen Stellen mit dabei:

Michael Kreil, Sebastian Vollnhals und Andrej Sandorf haben die offene Veranstaltungs-API re:data weiterentwickelt, die die Grundlage für die diesjährigen Veranstaltungs-Apps bildet. Zusammen mit Thomas Kollbach, Alexander Gräsel und Heiko Wichmann werden Sie in einem Workshop offene Fragen beantworten und überlegen, wie es mit dem Open-Source-Projekt weitergehen kann.

Außerdem zeigen wir auf ein paar großen Displays mit re:data-Daten die nächsten Sessions an (Flughafen-Style s. o.).

Sebastian Vollnhals hat seine Game-Show „Six degrees of Wikipedia“ zusammen mit Julian Finn mal aufgehübscht und sucht am Mittwochabend Kandidaten.

Martin Virtel stellt am Donnerstag-Morgen in einem Vortrag unser aktuelles LobbyPlag (V3) vor, in dem wir anhand von mehr als 10.000 Seiten interner Ratsdokumente zeigen können, wie das Datenschutzrecht intransparent im europäischen Rat ausgehöhlt wurde.

Marco Maas spricht im MIZ-Innovationslab zusammen mit Kollegen vom ZDF und dem MIZ über das Gemeinschaftsprojekt LobbyRadar, das kommende Woche startet.

Wie immer: Wir freuen uns!

Der Zerfall der Printmedien

halbwertszeit-sueddeutsche-zeitung

Ist Print tot? Gibt es das große Zeitungssterben in Deutschland? Ganz im Gegenteil, schallt es den Kritikern entgegen, das Bedrucken von Papier bleibt ein Milliardengeschäft – Smartphones und E-Readern zum Trotz. Wahr ist: Das alte Medium bricht unter dem Ansturm des Neuen nicht überall zusammen. Viele Publikationen schlittern rapide der Bedeutungslosigkeit entgegen, ein paar allerdings erreichen ein wachsendes Millionenpublikum.

Wir haben einen spielerischen Blick auf die Daten geworfen, um ein klareres Bild zum Zeitungssterben in Deutschland zu bekommen: Zeitungen und Magazine, so unsere Hypothese, unterliegen einem natürlichen Zerfallsprozess – ähnlich wie Uran oder Plutonium, nur schneller. Herausgekommen ist eine kleine Grafikserie mit Halbwertszeiten, von der ADAC Motorwelt (die Auflage halbiert sich, Skandal hin oder her, nur etwa alle 2.000 Jahre) bis zum Micky-Maus-Magazin (Halbwertszeit: 5 Jahre).

In der Summe kann gesagt werden: Besonders schlecht geht es Programm- und Jugendzeitschriften; Wochen- und Sonntagszeitungen halten sich ganz gut. Unter den Tageszeitungen ist das Bild gemischt, vom Donaukurier (über 800 Jahre) bis zur Bild-Zeitung (16 Jahre) ist alles dabei.

Lizenz zum Weiterverwerten

Grafik, Daten und Sourcecode stellen wir zur freien Weiterverwendung zur Verfügung. Sie können bspw. die Kurve Ihrer Lieblingspublikation auf Ihrem Blog oder in Ihrer Website einbetten oder neue, vielleicht bessere Modellierungsverfahren auf die Daten anwenden, oder das Ganze für ein anderes Land durchspielen. Auf jeden Fall würden wir uns dann freuen, von Ihnen zu hören, per Twitter @opendatacity oder Mail.

Methode

Unsere Verfalls-Prognose basiert auf einer exponentiellen Regression. Das bedeutet: Wir gehen davon aus, dass die Auflage in einem konstanten Zeitraum immer um denselben Faktor wächst oder schrumpft, und berechnen dann eine Kurve, die den geringsten Unterschied zu den bestehenden Punkten aufweist.

Sterbende Publikationen nähern sich der Null, erreichen sie aber nie. Weil wir nicht pauschal sagen können, ab welcher Auflage sich das Drucken nicht mehr lohnt, können wir kein Einstellungsdatum vorhersagen.

Datengrundlage sind alle Zeitungen und Zeitschriften, die ihre Auflagen an die Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern (IVW, Wikipedia-Artikel) übermitteln.  Das ist der Goldstandard für gedruckte Publikationen in Deutschland.

Es handelt sich um die Verbreitungszahlen, also Einzelverkauf plus Abonnementverkauf plus sonstiger Verkauf plus Freiexemplare minus nicht verkaufte Exemplare (Remittenden). Die Daten werden quartalsweise erhoben. Publikationen, die mindestens einmal mehr als 25.000 Exemplare in dieser Kategorie gemeldet haben, wurden in die Grafikstrecke aufgenommen. In den meisten Fällen reichen die Daten vom 1. Quartal 2001 bis zum 3. Quartal 2014 .

Kirchenzeitung für das Erzbistum KölnAusreißer, die unsere Berechnungen zum Zeitungssterben in Deutschland in ein schlechtes Licht rücken könnten,  haben wir nicht herausgefiltert (siehe Beispiel links). Skepsis ist immer eine gute Sache. wenn es um Statistiken und Grafiken geht – es ist ja durchaus möglich, dass die von uns gewählte exponentielle Regression den Verfall nicht in allen Fällen adäquat beschreibt, oder dass eine Publikation den Trend umkehren kann und aus Verfall Wachstum wird – oder umgekehrt.

Auch die Daten können irreführend sein. Es gibt Ausreißer durch Sonderausgaben, Fehler bei den Verlagen oder Übertragungsfehler. Wir haben versucht, Fehlerkorrekturen durch die IVW zu berücksichtigen, das hat aber nicht in allen Fällen funktioniert. Eine manuelle Kontrolle und Korrektur wäre zu aufwendig, mit einer automatischen Glättung der Daten hätten wir riskiert, korrekte Daten zu verfälschen.

Hier noch ein paar Ergebnisse unserer Arbeit, die wir sehr interessant fanden:

 

DDJ-Treffen bei OpenDataCity

Posted by on Nov 17, 2014 in Allgemein | No Comments

Diesen Donnerstag dem 20. November um 19:00 ist es wieder Zeit für ein neues DDJ-Berlin-Treffen. Diesmal findet es im gemeinsamen Büro von OpenDataCity und der Open Knowledge Foundation Deutschland statt.

Alle Datenjournalist_innen, Visualisierenden und Interessierte sind herzlich eingeladen bei Bier, Mate, Vorträgen und Musik sich über Daten, Journalismus und insbesondere Datenjournalismus auszutauschen.

Für weitere Informationen und Vortrags-Ideen gibt es das Pad unter:
http://pad.opendatacloud.de/p/DDJ-Berlin

Event im Kalender speichern
20. November 2014, 19:00
OpenDataCity
Singerstraße 109
10179 Berlin

GDL-Streik im Zeitraffer

Posted by on Nov 12, 2014 in Kostenfreie Visualisierung, News | No Comments

Welche Auswirkung hat der längste Lokführerstreik der GDL tatsächlich auf den bundesweiten Zugverkehr gehabt? OpenDataCity stellt eine kurze Video-Visualisierung des Zugverkehrs am ersten Streiktag im Vergleich zum gleichen Tag der Vorwoche unter einer freien Lizenz zur Verfügung. Blogs, Medienhäuser, Verlage usw. können das Video gern für ihre Berichterstattung nutzen, wir würden uns bei Verwendung über einen kurzen Hinweis freuen.

Insgesamt haben wir für die Auswertung ungefähr 1 GB Daten analysiert, das entspricht ca. 60.000 Zügen, 36.000 am 30. Oktober und 24.000 am 6. November (inkl. ausländischen Zügen). Die Datengrundlage sind die Daten des Zugradars der Deutschen Bahn.

Wir zeigen zwei Tage von 3 bis 3 Uhr im Abstand einer Woche, auf der linken Seite den streikfreien Tag, auf der rechen den ersten Streiktag (da der 31. Oktober ein Feiertag war, fiel die Wahl auf den 30.10 und 6.11.).

Die große Punkte repräsentieren Fernverkehrszüge (ICE, TGV, IC, EC, D, CNL, EN), die kleinen zeigen Nahverkehr und S-Bahnen. Die Farbgebung zeigt die Pünktlichkeit, blaue Punkte sind verspätet (die „blauesten“ sind mindestens 30 Minuten verspätet). Die Balken stellen die Anzahl der aktuell fahrenden Züge in Deutschland dar.

Die Auswertung erfolgte mit node.js, das Rendering mit cairo per Node-Canvas und ffmpeg.

Falls Sie Interesse an umfangreicheren Visualisierungen für vergangene und zukünftige Streiks bei Piloten und Lokführern haben, können Sie uns gerne unter info@opendatacity.de kontaktieren.

Umsetzung: Philipp Bock

Bremse statt Gaspedal – das Kartellamt und die Benzinpreise

Posted by on Sep 9, 2014 in Allgemein, Glosse | One Comment

Foto: Eduard Titov / Envato

Achtung. Das hier ist kein Postillon-Artikel. Das ist die pure Realität:

Die Markttransparenzstelle für Kraftstoffe in Bonn bietet seit September 2013 ein „Mehr“ an Offenheit in Deutschland an – auf Grundlage folgender Richtlinie des Bundeskartellamts: „Seit dem 31. August 2013 sind Unternehmen, die öffentliche Tankstellen betreiben oder über die Preissetzungshoheit an diesen verfügen, verpflichtet, Preisänderungen bei den gängigen Kraftstoffsorten Super E5, Super E10 und Diesel ,in Echtzeit‘ an die Markttransparenzstelle für Kraftstoffe zu melden.“

Die gemeldeten Preise werden in einer Datenbank gespeichert und über eine Schnittstelle (API) bspw. Verbraucherportalen zugänglich gemacht. Damit soll für den Endkunden, also den autofahrenden Bürger, ein transparenter Vergleichen von aktuellen Benzinpreisen möglich sein.

Doch so einfach und nach OpenData-Prinzipien ist die Schnittstelle nicht zugänglich. Ein 3-seitiges Merkblatt informiert über die Richtlinien, nach denen eine Freigabe erfolgt. Die ersten Anträge zum Zugang sind seit August 2013 bei der Behörde eingegangen, beim Testlauf bis Ende November 2013 waren 4 Dienstleister zugelassen, die einen Zugang zur API erhalten hatten.

„Nicht für Geld und nicht für gute Worte“

Dieser API-Zugang ist datenjournalistisch eine sehr spannende Quelle. Wir von OpenDataCity haben viele Ideen, wie wir aus diesen Zahlen Services und Geschichten entwickeln können, und haben uns bei der Markttransparenzstelle für Kraftstoffe auch mit allen geforderten Unterlagen  – wie im Merkblatt aufgelistet – vor etlichen Monaten um einen Zugang beworben.

Gestern nun haben wir einmal nachgefragt, wann wir mit einer Zulassung rechnen können und mussten erfahren, dass in den vergangenen 12 Monaten insgesamt 90 Dienstleister eine Benutzername/Kennwort-Kombination erhalten haben, mit der sie über die API Zugriff auf die Datenbank haben.

Leider hat unser Antrag die Nummer 253. Und eine Zulassung erfolgt laut Auskunft streng nach der Reihenfolge des Eingangs. „Nicht für Geld und nicht für gute Worte“ würden sie uns vorziehen. Wir haben das Tempo dann mal kurz im Kopf überschlagen und sind zu dem Ergebnis gekommen: Falls sie weiterhin so „rasant“ die Benutzername/Kennwort-Kombinationen vergeben, sind journalistische Anwendungen zu Benzinpreisen von OpenDataCity nicht vor dem Frühjahr 2016 zu erwarten.

Für Nicht-Techniker mag eine API hochkomplex und schutzwürdig klingen, doch tatsächlich gibt es solche Schnittstellen für immer mehr Webseiten – viele davon sind frei und ohne Einschränkungen zugänglich. Anwendungen für Twitter, Dropbox, Facebook oder Google würden ohne offene Schnittstellen nicht die Popularität genießen, die sie jetzt haben.

Und Transparenz kann doch nur hergestellt werden, wenn Daten einfach und für alle zugänglich sind!? Wir hoffen, dass das Bundeskartellamt unsere Sichtweise irgendwann teilt. Am besten noch vor 2016.