Wissenschaft und Datenjournalismus

Dass Wissenschaftler(innen) und Datenjournalist(inn)en in gemeinsamen Projekten forschen und recherchieren, ist neu. Einen Anstoß dazu lieferte die Ausschreibung "Wissenschaft und Datenjournalismus" der VolkswagenStiftung 2015. Mehr als 80 Anträge gingen damals ein, acht hat das internationale Gutachtergremium im Oktober 2015 zur Bewilligung vorgeschlagen.

Auf dieser Übersichtsseite finden Sie kurz gefasste Ergebnisberichte, erarbeitet von der Datenjournalistin Gianna Grün (https://giannagruen.wordpress.com). Sie hat mit allen Teams gesprochen: über erreichte und verfehlte Ziele, über die unterschiedlichen Methoden und Perspektiven von Journalisten und Wissenschaftlern – und ob diese Tandems künftig verstärkt Nutz- und Erkenntniswerte für ein breites Publikum produzieren sollten.

Mehr als 2300 Verbände sind im Register des Bundestages verzeichnet. Doch wie deren Interessenvertreter Einfluss auf die Politik nehmen, ist nicht ersichtlich. Wissenschaftler und Journalisten könnten Licht ins Dunkel bringen - und dabei nicht nur etwas über Lobbyismus, sondern auch über ihre unterschiedlichen Arbeitskulturen lernen.

Front National in Frankreich, Pegida in Deutschland, die Identitären in Österreich: Es gibt kaum ein europäisches Land, in dem Populisten oder Nationalisten derzeit nicht sichtbarer sind als noch vor fünf Jahren —  auch in den sozialen Netzwerken. Wie sie dort kommunizieren und sich vernetzen, hat ein Team von Wissenschaftlern und Journalisten untersucht.

Instagram assoziieren die meisten mit Fotos vom morgendlichen Avocado-Toast oder dem blauen Meer im Urlaub. Doch das soziale Netzwerk hat auch dunkle Seiten: Communities, die sich gegenseitig darin bestärken, zu hungern oder sich zu verletzen. "Soziale Ansteckung" nennen Wissenschaftler dieses Phänomen, das ein Projektteam am Beispiel Instagram untersucht hat.

Profitiert der Journalismus davon, wenn künftig Algorithmen aus Wahlprognosen und -ergebnissen eigene Artikel erzeugen? Das wollte das Projekt Data Driven Campaign Coverage (D2C2) herausfinden.

Bei großen Daten-Leaks herausfinden, was in den Dokumenten Interessantes enthalten sein könnte, erfordert Zeit, die man eigentlich nicht hat — schließlich will jede Redaktion die erste sein. Algorithmen können Journalisten hier einen Teil der Vorrecherche abnehmen: Das Tool new/s/leak identifiziert Namen von Personen, Organisationen und Orten — und zeigt, wie sie zusammenhängen.

200 000 Seiten Text kann kein Journalist mal eben für eine Recherche lesen und einordnen. Aber ein Computer kann das sehr wohl. Wenn er weiß, wonach er suchen soll — und da kommt wieder der Journalist ins Spiel. Der DebateExplorer zeigt, wie Mensch und Maschine zusammen Lobbyismus auf die Spur kommen können.

Immobilienkrise, Bankenkrise, Wirtschaftskrise: Was in den USA mit faulen Krediten und der Pleite der Bank Lehman Brothers begann, schwappte von dort nach Europa, brachte mehrere Banken und dann ganze Staaten in wirtschaftliche Schieflage. Denn sie sprangen zur Rettung der Banken ein — mit Billionen Euro und Dollar an Steuergeldern. Neue EU-Regeln sollen das künftig verhindern. Anstatt des bislang üblichen Bail-out, bei dem etwa Regierungen im Falle der Zahlungsunfähigkeit einer Bank zur Hilfe kommen, bauen die neuen Gesetze auf das Gegenmodell, den Bail-in: Hier werden die Kapitalanleger der Bank zu ihrer Rettung herangezogen. Der Bail-In Tracker prüft, wie effektiv diese neuen Gesetze sein können.

Gerade die Kombination von Datensätzen ermöglicht oft spannende neue Einsichten. Wenn es sich bei den Datensätzen um geokodierte Informationen handelt, müssen sie dafür aber dieselbe Bezugsgröße haben. Das Tool CoGran ermöglicht, Geodaten umzurechnen, wenn sie noch nicht in der passenden Auflösung vorliegen.