Medienwandel 6. März 2016

Wie Daten unsere Medien-Welt verändern

by Christian Jakubetz

Wenn man über Journalismus und Daten nachdenkt, landet man bisher meistens beim Thema DDJ: Data Driven Journalism, Datenjournalismus. Was bedeutet, dass man große Datenmengen nimmt und aus ihnen dann Informationen gewinnt und sie entsprechend darstellt. Das ist Alltag mittlerweile. Tatsächlich aber spielt das Thema Daten in Sachen Medien inzwischen eine ganz andere, viel bedeutendere Rolle, wie u.a. eine neue Stufe des VdZ belegt.

guardian facebook
Daten-Tool des Guardian: Für schwierige Auswertungen benötigt man ein eigenes Data Mining.

Dabei geht es vor allem um eines: herauszufinden, was den Kunden, Zuschauer, User tatsächlich interessiert. Was für ihn relevant ist. Und mit welchen  – im weitesten Sinne – Produkten man seinen Wünschen am ehesten entsprechen kann. Da machen Journalismus, Fernsehen oder auch die Musikindustrie keinen sehr großen Unterschied mehr. Die Auswertung von Daten verändert den Konsum von Medien und Journalismus gerade ganz massiv. Kleines Beispiel, kombiniert aus Medien- und Musikindustrie: Das Hören von Musik via Radio wird mehr und mehr durch kuratierte Playlists abgelöst. Auch da hört der User unterschiedliche Musik verschiedener Interpreten. Durch den Einsatz von Algorithmen steigt allerdings die Wahrscheinlichkeit, dass ihm diese Musik auch gefällt.

house-of-cards-banner-slice
Welterfolg, basierend auf konsequenter Auswertung von User-Daten: Die Netflix-Serie „House of Cards“.

Auch das Thema Fernsehen folgt inzwischen dieser Logik – sofern man unter dem Begriff „Fernsehen“ mehr versteht als nur das lineare Abspielen von Programmen über diverse Frequenzen. Tatsächlich ist „Fernsehen“ schon lange etwas anders und sehr viel mehr als eben nur das. Wer heute Bewegtbild nutzt, wird ebenfalls schon sehr viel mehr durch die Auswertung von großen Datenmengen beeinflusst als er das selbst für möglich hält. Weil diese Beeinflussung mittlerweile schon bei der Produktion beginnt. Unternehmen wie Netflix beispielsweise haben die Kunst perfektioniert, die Erkenntnisse aus großen Datenmengen so umzusetzen, dass daraus Produktionen entstehen. Das beste Beispiel: der Megaseller „House of Cards“.

Vier Trends, bei denen Daten im Journalismus eine Rolle spielen

Auch für den digitalen Journalismus spielt das Thema „Big Data“ inzwischen eine erhebliche Rolle. Dabei geht es nicht nur um den Data Driven Journalism, der sich inzwischen auch in Deutschland in vielen Redaktionen etabliert hat. Kaum eine größere Redaktion mehr, in der es nicht eigene Einheiten gibt, die sich nahezu ausschließlich mit diesem Thema auseinandersetzen. Zunehmend mehr werden Daten auch an Stellen mit einbezogen, bei denen man vordergründig gesehen gar nicht auf die Idee kommt, dass sie dort eine wesentliche Rolle spielen könnten.

Computational Journalism: Ein computerbasierter Journalismus im digitalen Zeitalter – klingt das nicht wie eine Selbstverständlichkeit? Gemeint dabei ist allerdings nicht der Computer als Arbeitsgerät, sondern als eine Art „Autor“ und „Rechercheur“ in einem. Einfacher gesagt: Software übernimmt beispielsweise nicht nur die Auswertung beispielsweise von Statistiken und anderem zahlenbasiertem Material, sondern macht daraus dann auch noch einen Text. Einfaches Beispiel: Fußballberichte. „Roboterjournalisten“ sind dabei mittlerweile in der Lage, aus den nackten Zahlen eines Spiels einen passablen Spielbericht zu formulieren.

De facto lassen sich schon jetzt etliche Texte, die letztendlich Routinesachen sind, mit Bots schreiben. Neben dem klassischen Fußbalblericht gehören dazu mittlerweile auch Finanzanalysen oder Börsenberichte – eben alles Dinge, die sich in ihrer Grundstruktur kaum unterscheiden, mit vergleichsweise wenigen Textbausteinen auskommen und ansonsten auf der Auswertung von Zahlen basieren.

Als Recherche-Tool sind solche Programme ebenfalls nicht zu unterschätzen. Sie können beispielsweise Datenbanken nach Auffälligkeiten und/oder bestimmten Namen oder Schlagwörtern durchsuchen. Das sind Arbeiten, die für einen einzelnen oder auch mehrere Journalisten gar nicht der nur unter einem kaum zu vertretenden zeitlichen Aufwand zu erledigen wären. Vorteile dieses Arbeitens: erhebliche Zeitersparnis und eine vergleichsweise hohe Zuverlässigkeit, bestimmte Themen, Ereignisse oder auch Personen nicht mehr zu verpassen.

Aggregation Journalism: Klingt erst einmal nach doppelt gemoppelt –  hat Journalismus nicht immer auch mit Aggregation und Kuration zu tun? Hat er natürlich, aber im digitalen Zeitalter bekommen diese Begriffe nochmal eine neue Dimension. Weil es dabei nicht nur um das Zusammentragen und Erstellen von Inhalten geht, sondern auch darum, um mit Hilfe von Datenanalysen herauszufinden, was den User interessieren könnte, welche Präferenzen er hat und wo genau man ihn mit welchen Inhalten am besten erwischen könnte.

Angebote wie BuzzFeed oder auch die Huffington Post machen das seit einigen Jahren durchaus erfolgreich vor. Kritisiert werden sie gerne mal dafür, dass sie diese Art des Journalismus mit allen Konsequenzen durchziehen. Das gehört auch eine radikale Anpassung an das, was den Usern am besten gefallen könnte. Sie suchen zuverlässig den schnellen Klick des Users und blenden alles andere weitgehend aus. Möglich macht das, wie gesagt, die strikte und gezielte Auswertung von großen Datenmengen. Zu dieser Strategie gehört auch das Einbinden von Social-Media-Plattformen und das Teilen von Inhalten.

datawrapper
DDJ auch ohne Programmier-Kenntnisse: der ABZV-Datawrapper.

Data Driven Journalism: Der Datenjournalismus ist die vermutlich bekannteste und etablierteste Form der Datennutzung im Journalismus. Doch auch er ist inzwischen weitaus mehr als nur das Visualisieren von aus Datenmengen gewonnenen Informationen. Mit gut gemachter Software wie beispielsweise dem ABZV-Datawrapper können mittlerweile selbst blutige Laien vergleichsweise schnell und ohne Programmierkenntnisse ansehnliche und einfache Infografiken erstellen.

Inzwischen kommen auch Dinge wie das gezielte Auswerten von Datenbanken und anderen Big-Data-Quellen hinzu. Die Washington Post und der Guardian beispielsweise haben die rund 1,7 Millionen zugänglichen Daten aus der Causa NSA/Snowden aufbereitet und visualisiert. Bei solchen Dingen stoßen allerdings Laien sofort an ihre Grenzen, weil es für die Auswertungen großer Datenbanken eigenen Data-Mining-Technolgien braucht. In Deutschland wurde eine solche eigene Technologie bei dem Projekt „VroniPlag“ angewendet, um beim Vergleich der Doktorarbeit der Stoiber-Tochter Veronika und anderen wissenschaftlichen Arbeiten übereinstimmende Textstellen dokumentieren und darstellen zu können.

Leave a comment

*

*

This site uses Akismet to reduce spam. Learn how your comment data is processed.