Der Zerfall der Printmedien

halbwertszeit-sueddeutsche-zeitung

Ist Print tot? Gibt es das große Zeitungssterben in Deutschland? Ganz im Gegenteil, schallt es den Kritikern entgegen, das Bedrucken von Papier bleibt ein Milliardengeschäft – Smartphones und E-Readern zum Trotz. Wahr ist: Das alte Medium bricht unter dem Ansturm des Neuen nicht überall zusammen. Viele Publikationen schlittern rapide der Bedeutungslosigkeit entgegen, ein paar allerdings erreichen ein wachsendes Millionenpublikum.

Wir haben einen spielerischen Blick auf die Daten geworfen, um ein klareres Bild zum Zeitungssterben in Deutschland zu bekommen: Zeitungen und Magazine, so unsere Hypothese, unterliegen einem natürlichen Zerfallsprozess – ähnlich wie Uran oder Plutonium, nur schneller. Herausgekommen ist eine kleine Grafikserie mit Halbwertszeiten, von der ADAC Motorwelt (die Auflage halbiert sich, Skandal hin oder her, nur etwa alle 2.000 Jahre) bis zum Micky-Maus-Magazin (Halbwertszeit: 5 Jahre).

In der Summe kann gesagt werden: Besonders schlecht geht es Programm- und Jugendzeitschriften; Wochen- und Sonntagszeitungen halten sich ganz gut. Unter den Tageszeitungen ist das Bild gemischt, vom Donaukurier (über 800 Jahre) bis zur Bild-Zeitung (16 Jahre) ist alles dabei.

Lizenz zum Weiterverwerten

Grafik, Daten und Sourcecode stellen wir zur freien Weiterverwendung zur Verfügung. Sie können bspw. die Kurve Ihrer Lieblingspublikation auf Ihrem Blog oder in Ihrer Website einbetten oder neue, vielleicht bessere Modellierungsverfahren auf die Daten anwenden, oder das Ganze für ein anderes Land durchspielen. Auf jeden Fall würden wir uns dann freuen, von Ihnen zu hören, per Twitter @opendatacity oder Mail.

Methode

Unsere Verfalls-Prognose basiert auf einer exponentiellen Regression. Das bedeutet: Wir gehen davon aus, dass die Auflage in einem konstanten Zeitraum immer um denselben Faktor wächst oder schrumpft, und berechnen dann eine Kurve, die den geringsten Unterschied zu den bestehenden Punkten aufweist.

Sterbende Publikationen nähern sich der Null, erreichen sie aber nie. Weil wir nicht pauschal sagen können, ab welcher Auflage sich das Drucken nicht mehr lohnt, können wir kein Einstellungsdatum vorhersagen.

Datengrundlage sind alle Zeitungen und Zeitschriften, die ihre Auflagen an die Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern (IVW, Wikipedia-Artikel) übermitteln.  Das ist der Goldstandard für gedruckte Publikationen in Deutschland.

Es handelt sich um die Verbreitungszahlen, also Einzelverkauf plus Abonnementverkauf plus sonstiger Verkauf plus Freiexemplare minus nicht verkaufte Exemplare (Remittenden). Die Daten werden quartalsweise erhoben. Publikationen, die mindestens einmal mehr als 25.000 Exemplare in dieser Kategorie gemeldet haben, wurden in die Grafikstrecke aufgenommen. In den meisten Fällen reichen die Daten vom 1. Quartal 2001 bis zum 3. Quartal 2014 .

Kirchenzeitung für das Erzbistum KölnAusreißer, die unsere Berechnungen zum Zeitungssterben in Deutschland in ein schlechtes Licht rücken könnten,  haben wir nicht herausgefiltert (siehe Beispiel links). Skepsis ist immer eine gute Sache. wenn es um Statistiken und Grafiken geht – es ist ja durchaus möglich, dass die von uns gewählte exponentielle Regression den Verfall nicht in allen Fällen adäquat beschreibt, oder dass eine Publikation den Trend umkehren kann und aus Verfall Wachstum wird – oder umgekehrt.

Auch die Daten können irreführend sein. Es gibt Ausreißer durch Sonderausgaben, Fehler bei den Verlagen oder Übertragungsfehler. Wir haben versucht, Fehlerkorrekturen durch die IVW zu berücksichtigen, das hat aber nicht in allen Fällen funktioniert. Eine manuelle Kontrolle und Korrektur wäre zu aufwendig, mit einer automatischen Glättung der Daten hätten wir riskiert, korrekte Daten zu verfälschen.

Hier noch ein paar Ergebnisse unserer Arbeit, die wir sehr interessant fanden:

 

DDJ-Treffen bei OpenDataCity

Posted by on Nov 17, 2014 in Allgemein | No Comments

Diesen Donnerstag dem 20. November um 19:00 ist es wieder Zeit für ein neues DDJ-Berlin-Treffen. Diesmal findet es im gemeinsamen Büro von OpenDataCity und der Open Knowledge Foundation Deutschland statt.

Alle Datenjournalist_innen, Visualisierenden und Interessierte sind herzlich eingeladen bei Bier, Mate, Vorträgen und Musik sich über Daten, Journalismus und insbesondere Datenjournalismus auszutauschen.

Für weitere Informationen und Vortrags-Ideen gibt es das Pad unter:
http://pad.opendatacloud.de/p/DDJ-Berlin

Event im Kalender speichern
20. November 2014, 19:00
OpenDataCity
Singerstraße 109
10179 Berlin

GDL-Streik im Zeitraffer

Posted by on Nov 12, 2014 in Kostenfreie Visualisierung, News | No Comments

Welche Auswirkung hat der längste Lokführerstreik der GDL tatsächlich auf den bundesweiten Zugverkehr gehabt? OpenDataCity stellt eine kurze Video-Visualisierung des Zugverkehrs am ersten Streiktag im Vergleich zum gleichen Tag der Vorwoche unter einer freien Lizenz zur Verfügung. Blogs, Medienhäuser, Verlage usw. können das Video gern für ihre Berichterstattung nutzen, wir würden uns bei Verwendung über einen kurzen Hinweis freuen.

Insgesamt haben wir für die Auswertung ungefähr 1 GB Daten analysiert, das entspricht ca. 60.000 Zügen, 36.000 am 30. Oktober und 24.000 am 6. November (inkl. ausländischen Zügen). Die Datengrundlage sind die Daten des Zugradars der Deutschen Bahn.

Wir zeigen zwei Tage von 3 bis 3 Uhr im Abstand einer Woche, auf der linken Seite den streikfreien Tag, auf der rechen den ersten Streiktag (da der 31. Oktober ein Feiertag war, fiel die Wahl auf den 30.10 und 6.11.).

Die große Punkte repräsentieren Fernverkehrszüge (ICE, TGV, IC, EC, D, CNL, EN), die kleinen zeigen Nahverkehr und S-Bahnen. Die Farbgebung zeigt die Pünktlichkeit, blaue Punkte sind verspätet (die “blauesten” sind mindestens 30 Minuten verspätet). Die Balken stellen die Anzahl der aktuell fahrenden Züge in Deutschland dar.

Die Auswertung erfolgte mit node.js, das Rendering mit cairo per Node-Canvas und ffmpeg.

Falls Sie Interesse an umfangreicheren Visualisierungen für vergangene und zukünftige Streiks bei Piloten und Lokführern haben, können Sie uns gerne unter info@opendatacity.de kontaktieren.

Umsetzung: Philipp Bock

Bremse statt Gaspedal – das Kartellamt und die Benzinpreise

Posted by on Sep 9, 2014 in Allgemein, Glosse | One Comment

Foto: Eduard Titov / Envato

Achtung. Das hier ist kein Postillon-Artikel. Das ist die pure Realität:

Die Markttransparenzstelle für Kraftstoffe in Bonn bietet seit September 2013 ein “Mehr” an Offenheit in Deutschland an – auf Grundlage folgender Richtlinie des Bundeskartellamts: “Seit dem 31. August 2013 sind Unternehmen, die öffentliche Tankstellen betreiben oder über die Preissetzungshoheit an diesen verfügen, verpflichtet, Preisänderungen bei den gängigen Kraftstoffsorten Super E5, Super E10 und Diesel ,in Echtzeit’ an die Markttransparenzstelle für Kraftstoffe zu melden.”

Die gemeldeten Preise werden in einer Datenbank gespeichert und über eine Schnittstelle (API) bspw. Verbraucherportalen zugänglich gemacht. Damit soll für den Endkunden, also den autofahrenden Bürger, ein transparenter Vergleichen von aktuellen Benzinpreisen möglich sein.

Doch so einfach und nach OpenData-Prinzipien ist die Schnittstelle nicht zugänglich. Ein 3-seitiges Merkblatt informiert über die Richtlinien, nach denen eine Freigabe erfolgt. Die ersten Anträge zum Zugang sind seit August 2013 bei der Behörde eingegangen, beim Testlauf bis Ende November 2013 waren 4 Dienstleister zugelassen, die einen Zugang zur API erhalten hatten.

“Nicht für Geld und nicht für gute Worte”

Dieser API-Zugang ist datenjournalistisch eine sehr spannende Quelle. Wir von OpenDataCity haben viele Ideen, wie wir aus diesen Zahlen Services und Geschichten entwickeln können, und haben uns bei der Markttransparenzstelle für Kraftstoffe auch mit allen geforderten Unterlagen  – wie im Merkblatt aufgelistet – vor etlichen Monaten um einen Zugang beworben.

Gestern nun haben wir einmal nachgefragt, wann wir mit einer Zulassung rechnen können und mussten erfahren, dass in den vergangenen 12 Monaten insgesamt 90 Dienstleister eine Benutzername/Kennwort-Kombination erhalten haben, mit der sie über die API Zugriff auf die Datenbank haben.

Leider hat unser Antrag die Nummer 253. Und eine Zulassung erfolgt laut Auskunft streng nach der Reihenfolge des Eingangs. “Nicht für Geld und nicht für gute Worte” würden sie uns vorziehen. Wir haben das Tempo dann mal kurz im Kopf überschlagen und sind zu dem Ergebnis gekommen: Falls sie weiterhin so “rasant” die Benutzername/Kennwort-Kombinationen vergeben, sind journalistische Anwendungen zu Benzinpreisen von OpenDataCity nicht vor dem Frühjahr 2016 zu erwarten.

Für Nicht-Techniker mag eine API hochkomplex und schutzwürdig klingen, doch tatsächlich gibt es solche Schnittstellen für immer mehr Webseiten – viele davon sind frei und ohne Einschränkungen zugänglich. Anwendungen für Twitter, Dropbox, Facebook oder Google würden ohne offene Schnittstellen nicht die Popularität genießen, die sie jetzt haben.

Und Transparenz kann doch nur hergestellt werden, wenn Daten einfach und für alle zugänglich sind!? Wir hoffen, dass das Bundeskartellamt unsere Sichtweise irgendwann teilt. Am besten noch vor 2016.

Lobbycloud und Humboldt-Uni suchen Lobbyforscher/in

Posted by on Sep 8, 2014 in Allgemein, Lobby | No Comments

Für unsere Bestrebungen rund um LobbyPlag & LobbyCloud hat sich gerade eine schöne Möglichkeit für einen Absolventen im Bereich Jura und/oder Politikwissenschaften ergeben, mit unseren und weiteren Dokumenten zu arbeiten. Die Humbold-Uni sucht jemanden, der mit einem vom HIIG entwickeltem Text-Mining-Tool und LobbyCloud zu Lobbyismus zu forschen. Hier ein paar Infos – journalistisch Arbeitende sind besonders gefragt:

Liebe Kolleginnen und Kollegen,wir suchen eine/n Absolventin/en, die/der Lust auf ein außergewöhnliches und zugleich vielversprechendes Abschlussprojekt hat! Prof. Pernice sucht im Rahmen eines laufenden Forschungsprojektes – »Global Privacy Governance« – eine/n Absolventin/en aus dem Fachbereich Jura und/oder Politikwissenschaft (mit juristischen Kenntnissen im Bereich des Europarechts), die/der daran interessiert ist, eine Abschlussarbeit über den Entstehungsprozess der EU-Datenschutzgrundverordnung zu verfassen.

In Kooperation mit Prof. Scheuermann vom Lehrstuhl für Technische Informatik an der HU wurde eine erste funktionsfähige Version eines Softwarewerkzeugs entwickelt, mit dem sich inhaltliche Bezüge zwischen Texten erkennen und grafisch darstellen lassen. Dieses Werkzeug soll genutzt werden, um die zahlreich eingereichten Stellungnahmen von Stakeholdern im Laufe eines Gesetzgebungsprozesses dahingehend zu untersuchen, welche Inhalte von welchen Stakeholdern in welchem Umfang in die Endfassung eingeflossen sind und welche Rückschlüsse über
mögliche Koalitionen zwischen den Stakeholdern sich daraus ziehen lassen.

Der/dem Absolventin/en würde die Nutzung dieses Tools für ihre/seine Abschlussarbeit inklusive Einweisung, Einblick in die Forschungsarbeit des Projektes und ein kontinuierlicher Austausch zu den inhaltlichen Fragen ermöglicht. Im Gegenzug würde das Feedback der/des Absolventin/en zur Weiterentwicklung der Analysefähigkeiten des Werkzeugs und die Verbesserung seiner Handhabung genutzt werden.

Bei Interesse oder weitergehenden Fragen schickt uns ne Nachricht und wir vermitteln weiter. Und: Gern verbreiten.

Juhu, wir haben eine Qualitätsdebatte!

Posted by on Jul 14, 2014 in Allgemein | 2 Comments

Datenjournalismus ist nicht billig oder schnell zu haben. Wird mal wieder Zeit, dass es jemand sagt. Und sich gegen die Welle von nichtssagenden, irreführenden oder banalen Arbeiten stemmt, die uns in letzter Zeit belästigen. Alberto Cairo hat dazu einen lesenswerten Blogpost geschrieben. Der Mann ist vom Fach – Professor für Infografik und Multimedia-Journalismus in Miami –  und gerade richtig enttäuscht:

“Versprochen haben sie Journalismus auf der Basis gründlicher Erwägung von Fakten und Daten – aber präsentiert haben sie ein paar Geschichten mit dünner Beweislage.”

Pseudo-Daten: Kidnappings ohne Ortsangabe werden der Haputstadtregion zugeordnet.

Pseudo-Daten: Kidnappings ohne Ortsangabe werden der Hauptstadtregion zugeordnet.

Die Kritik richtet sich vor allem gegen FiveThirtyEight und Vox, zwei Websites aus den USA, beides lehrreiche Beispiele, wenn es um  Versuch und Irrtum  bei der Erneuerung des Journalismus geht. Für die US-Avantgarde gehört Datenjournalismus ganz selbstverständlich dazu.  Zahlen, Analysen, Grafiken treiben viele ihrer Geschichten voran. Soweit eine gute Nachricht – wenn die Zahlen aussagekräftig, die Analysen korrekt, und die Grafiken nicht trivial sind.

Cairo findet erschreckend viele Beispiele, die bei dieser Prüfung durchfallen. In diese Kategorie gehören windige Prognosen wie diese: eine Mehrheit gegen die Todesstrafe könnte es in den USA im Jahr 2044 geben. Oder die abgebildete Karte, auf der Entführungen in Nigeria eingezeichnet sein sollten. Allerdings fehlt bei den meisten Entführungen eine präzise Ortsangabe – nur deswegen sieht es so aus, als sei die Hauptstadtregion am Meisten betroffen. Die Grafik hat noch andere gravierende Schwächen, eingezeichnet sind zum Beispiel Berichte über Entführungen, nicht die Entführungen selbst.

In bester Digitaljournalismus-Tradition haben die Macher von FiveThirtyEight alle Fehler und Probleme nachträglich im Artikel selbst erklärt – und aus dem eigenen Versagen wenigstens noch ein Lehrbuch-Beispiel für fehlgeleiteten Datenjournalismus gemacht.

Sieht aus wie Datenjournalismus, ist aber 
nur eine Irreführung. (Quelle: mabb)

Fehler eingestehen und öffentlich machen – das ist noch so eine US-Tradition, die wir uns abschauen können. Denn auch bei uns gibt es noch zu viel datenjournalistischen Unfug – links ein kleines Beispiel aus einer vor kurzem veröffentlichten Studie über die Entwicklung digitaler Medien, peinlicherweise finanziert mit Rundfunkgebühren. Der große rosa Kreis (steht für 233 Sender) müsste etwa viermal so groß wie der kleine graue (steht für 60 Sender) – er ist aber mehr als 10 Mal so groß, wie die Fotomontage im kleinen Bild zeigt. Irreführend ist aber noch vergleichsweise harmlos. Andere Grafiken dieser Produktion sind entweder unverständlich oder falsch.

Bei allem Ärger über schlechtes Handwerk –  gut ist, dass jetzt eine Diskussion über die Qualität von datenjournalistischen Produktionen beginnt – erst einmal in den USA, aber das schwappt sicherlich auch bald zu uns herüber. Die Qualitätsdebatte ist ein Zeichen dafür, dass Datenjournalismus sich als Handwerkszeug des digitalen Journalisten zu etablieren beginnt.

Wo mehr passiert, passieren auch mehr Fehler – gleichzeitig gibt es mehr Aufmerksamkeit, um Fehler zu bemerken, zu korrigieren und aus ihnen zu lernen. So entsteht Qualität. Durch das Eingeständnis, das niemand unfehlbar ist, Arbeit an den eigenen Standards, der eingehenden Beschäftigung mit einem Thema, plus  kreativer und trotzdem präziser Darstellung.

Und es ist immer wieder schön, mit Redaktionen zusammenzuarbeiten, die das genau so sehen.

OpenDataCity Partner von CORRECT!V

Posted by on Jul 4, 2014 in Allgemein, Pressemitteilung | One Comment

OpenDataCity und das investigative Recherchebüro CORRECT!V haben eine strategische Kooperation vereinbart. „Wir wollen langfristig zusammenarbeiten. Unser Ziel ist es, große Datenmengen zu sammeln, ihre Geschichten zu erforschen und für Leser und Nutzer erfahrbar zu machen“, sagte David Schraven, Geschäftsführer und Redaktionsleiter von CORRECT!V. „Den besten Partner, den wir uns für diese Aufgabe vorstellen können, ist OpenDataCity.“

OpenDataCity-Chef Marco Maas begrüßt die Kooperation: „Der stiftungsgeförderte und nachhaltige Ansatz von CORRECT!V passt hundertprozentig zu unserer Vision von Journalismus.” Erste Projekte sollen im Herbst umgesetzt werden. „Die Kooperation ist auf lange Zeit angelegt“, sagt Maas. „Wir setzen nicht auf Schnellschüsse.“

Die Agentur OpenDataCity

OpenDataCity ist eine Datenjournalismus-Agentur, die große Erfahrungen in der Datenanalyse und Datenvisualisierung besitzt. Zu ihren erfolgreichsten Projekten gehören u.a. die Visualisieruneng der Vorratsdatenspeicherungen des Politiker Malte Spitz (Deutschland) und Balthasar Glättli (Schweiz), die erste Echtzeit-Verspätungskarte der Deutschen Bahn (im Auftrag der SZ), eine Karte mit Datenspuren unserer Internetnutzung und den Überwachungspunkten internationaler Geheimdienste (Prism), eine Forschungsdatenbank zu den Parteispenden in Deutschland seit 1994 sowie die Plattformen “Lobbyplag” und “Lobbycloud”, die Lobbyisteneinflüsse auf die europäische Politik transparent machen.

OpenDataCity ist für seine Recherchen, Veröffentlichungen und innovativen Formen des Onlinejournalismus mehrfach international ausgezeichnet worden. So gab es den Grimme Online Award, den Award der Online-News-Associaton (ONA), den Silber-Sonderpreis beim Lead Award und für “Lobbyplag” den  World Summit Award.

Das Recherchebüro CORRECT!V

Das gemeinnütze Recherchebüro CORRECT!V wird geleitet von David Schraven und wird initial von der Essener Brost-Stiftung gefördert. Die Stiftung garantiert eine feste Basisfinanzierung in Höhe von drei Millionen Euro auf eine Laufzeit von drei Jahren. Weitere Partner, Zustifter und Spender sollen im Zuge der Fortentwicklung akquiriert werden.

Ein neuer Ort für offene Daten

Posted by on Jun 16, 2014 in News | No Comments

ODC und OKFN

Wir sind umgezogen. Seit dem 15. Juni 2014 arbeiten wir zusammen mit der Open Knowledge Foundation in unserem neuen gemeinsamen Büro in der Singerstraße 109 in Berlin-Mitte kurz vor dem Friedrichshain. Wir freuen uns auf eine inspirierte Zusammenarbeit mit der OKFN und zum Einstand gibt es am Freitag den 20. Juni eine kleine feierabendliche Einzugsparty zu der alle Freundinnen und Freunde offener Daten herzlich eingeladen sind.

OpenDataCity auf der re:publica 2014

Posted by on Apr 1, 2014 in News, Veranstaltungen | No Comments

re:publica 14 - INTO THE WILD

Into the Wild heißt es im Mai, wenn die Netzkonferenz re:publica wieder statt findet. Auch OpenDataCity wird wieder mit dabei sein. In diesem Jahr beteiligen wir uns nicht nur mit spannenden Talks, sondern liefern mit re:data erstmals eine offene Datenschnittstelle zur Konferenz, die unsere Kollegen Andrej Sandorf, Michael Kreil und Sebastian Vollnhals in einem Workshop vorstellen werden.

Ebenfalls werden wir zur rp14 ein eigenes Projekt in die Wildnis entlassen: Marco Maas und Sebastian Vollnhals werden LobbyCloud vorstellen, eine Transparenz-Plattform, welche die Ideen von LobbyPlag aufgreift und fortführt.

Wir freuen uns auf eine spannende und inspirierte Veranstaltung.

re:data

Posted by on Mrz 21, 2014 in Allgemein | No Comments

Vom 6. bis 8. Mai 2014 findet in Berlin wieder die re:publica statt – die sicherlich größte und bekannteste Konferenz zu den Themen Web 2.0, neuen Medien und der digitalen Gesellschaft in Deutschland. Um diese Konferenz herum haben sich in den letzten Jahren zahlreiche Apps und Visualisierungen entwickelt. Um diese Entwicklung weiter zu unterstützen, stellen wir ab sofort allen interessierten Entwickler*innen eine zentrale, standardisierte Schnittstelle zur Verfügung.

Aktuell erlaubt die API Zugriff auf zahlreiche Informationen der re:publica 2013. Sobald der Sessionplan für 2014 feststeht, kann auch dieser über die API abgerufen werden.

Welche Daten liefert die API?

Über die API können alle wichtigen Informationen zu Sessions abgerufen werden, unter anderem Titel, Beschreibung, Art der Session (Workshop, Vortrag etc.), Themenfeld, Speaker, aber auch Links zu Mitschnitten wie YouTube. Außerdem liefert die API Daten über Speaker wie beispielsweise Name, Foto, Kurzbiografie.

Basis der Daten sind die offiziellen Konferenz-Daten der re:publica (https://re-publica.de/developer/register), so wie eigene Scraper, die beispielsweise YouTube nach neuen Vortragsaufzeichnungen durchsuchen.

Weitere Details zur API findet ihr in der Dokumentation.

Kleiner Ausblick in die Zukunft

Wir wollen die API weiterentwickeln und verbessern. Sie soll um Daten vergangener Konferenzen bereichert werden und auch weitere Informationen zu den jeweiligen Konferenzen liefern. So könnten beispielsweise Links zu Slides und EtherPads, die in Sessions verwendet wurden, integriert werden. Aber auch Informationen über Besucher*innen (Tweets, Lieblingssessions/-speaker, Bewertungen) könnten langfristig über die API verfügbar gemacht werden.

Langfristiges Ziel dabei ist, dass wir gemeinsam mit der Community eine standardisierte API entwickeln, die auf OpenSource-Basis dann auch anderen Konferenzen zur Verfügung steht (Chaos Communcation Congress, EuroPython, JSConf, …). Somit wären alle Apps, die diese offene Schnittstelle verwenden, mit wenigen Handgriffen auch für andere Konferenzen einsatzbereit.

Weitere Informationen

Der Code der API steht auf GitHub.

Die kompletten Datensätze könnt ihr hier wahlweise im JSON oder TSV Format runterladen.

Wer die API nutzen oder mitentwickeln möchte, kann sich bei der Mailingliste für Entwickler*innen anmelden.