Ebola, Islamischer Staat, Ukraine – nicht nur bei den großen Themen unserer Tage wird die Recherche und Analyse komplexer Daten immer wichtiger, damit Journalisten verlässliche Einschätzungen liefern können. Um dies zu leisten, sind neue Werkzeuge notwendig, die Datenströme durchleuchten. Im neuen Projekt »News-Stream 3.0« sollen Recherchetools entstehen, die große Datenmengen aus Videos, Sozialen Netzen, Blogs und Archiven bündeln und Redakteuren gezielt die wichtigsten Informationen bereitstellen.
Dazu entwickeln das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS und der Berliner Datenspezialist Neofonie neue Analysetools und bauen eine Big-Data-Infrastruktur zur Echtzeitanalyse und Auswertung heterogener Nachrichtenströme auf. Um diese Systeme bestmöglich für die journalistische Praxis nutzbar zu machen, beteiligen sich die dpa Deutsche Presse-Agentur mit ihrer Tochter dpa-infocom und die Deutsche Welle an der Entwicklung und Konzeption der neuen Techniken, die umfassende Big-Data-Analysen ermöglichen. Das Forschungsvorhaben wird vom Bundesministerium für Bildung und Forschung (BMBF) geförderte; es ist eines der Top-Projekte des BMBF im Bereich Big Data.
Ziel ist es, Journalisten mit wenigen Klicks Tausende nationale und internationale Inhalte und Quellen von Videoplattformen, eine Vielzahl von RSS-Feeds, Nachrichten-Streams aus Sozialen Netzen sowie Millionen Objekte aus Medienarchiven zur Verfügung zu stellen. Möchte eine Redaktion zum Beispiel einen Artikel über das kontroverse Thema PKW-Maut produzieren, lässt sich aus den vielen Datenquellen ein Überblick über das Thema erstellen. In Sekundenschnelle kann der Redakteur verfolgen, was auf Blogs, über Twitter oder in anderen sozialen Medien dazu berichtet oder diskutiert wird. Auch die laufende Recherche wird so leichter: Sobald ein Stichwort wie »PKW-Maut« fällt, zum Beispiel in einer Bundestagsdebatte oder Nachrichtensendung, wird die Analyse automatisch aktualisiert.
Vom Jahr 2016 an will die Nachrichtenagentur dpa die Plattform im Tagesgeschäft testen und weiterentwickeln. »Ziel ist es, einen umfassenden, schnellen und gezielten Überblick über all diese Informationen zu ermöglichen. Das bedeutet dann vielfach einen enormen Recherchevorsprung für unsere Redakteure und damit für unsere Kunden«, erklärt dpa-Chefredakteur Sven Gösmann.
Auch die Deutsche Welle will die Redaktionen mit modernen Recherche- und Analysewerkzeugen stärken: »Ein großes Plus für unsere Journalisten besteht unter anderem darin, in der enormen Datenflut neue Geschichten entdecken zu können. Durch die Bündelung der Informationen aus Sozialen Netzen gelingt es uns, wichtige Themen auch durch die Augen von Nutzern genauer zu betrachten«, sagt Programmdirektorin Gerda Meuer.
Durch die Fusion von Daten aus unterschiedlichen Quellen entstehen neue Formen des multimedialen Storytellings. Das Recherchetool soll es zum Beispiel ermöglichen, in Sozialen Netzen diskutierte Themen frühzeitig zu erkennen und schnell zu reagieren. Mit ein paar Klicks findet der Journalist aber ebenso Material für einen Hintergrundbericht zu einem aktuellen Thema. Mit der Fraunhofer-Technologie »Audio Mining« lassen sich auch Audiodateien und Videos erschließen – sie erfasst die gesprochenen Wörter in dem Material, so dass ein Video wie Text durchsuchbar ist. Außerdem lassen sich Daten von Tausenden Sensoren in die Berichterstattung integrieren. Zum Beispiel bei einem Hochwasser: Steigt der Pegelstand über einen bestimmten Schwellenwert, kann automatisch ein Dossier zum Thema aufbereitet und mit Live-Bildern von Twitter aus dem Umkreis des Hochwassers ergänzt werden.
Mit dem riesigen Datenstrom wächst jedoch auch der Anspruch des Redakteurs an die gewissenhafte Verwendung des Datenmaterials und den Datenschutz. »Auch der beste Algorithmus ersetzt keinen Journalisten, aber er gibt ihm wertvolle Hilfestellung. Der Mensch muss letztlich immer die Kontrolle über Veröffentlichungen haben, die Maschine soll ihn dabei aber unterstützen und zum Beispiel möglichst gute Vorschläge für erkannte Personen, Organisationen und Orte machen, aus denen der Journalist dann die relevanten auswählt«, erklärt Gerd Kamp, Leiter des dpa-newslab innerhalb der dpa-infocom GmbH.
Das Projekt hat eine Laufzeit von drei Jahren. Das Fraunhofer IAIS aus Sankt Augustin entwickelt die technische Infrastruktur und die Technik für die Auswertung von Video- und Audiomaterial. Die auf Datenanalyse und -aggregation spezialisierte Neofonie GmbH aus Berlin steuert die intelligente Textanalyse bei. Die dpa und die Deutsche Welle stellen Archivmaterial zur Verfügung, erproben und evaluieren das System im praktischen Einsatz bei der täglichen journalistischen Arbeit. Die beiden Medienhäuser gehören zu den Ersten, die so umfassend auf Big Data in der journalistischen Arbeit setzen. News-Stream 3.0 ist damit der Startpunkt für eine neue Generation der Recherche. www.newsstreamproject.org