Das Bundesforschungsministerium (BMBF) hat noch unter der Großen Koalition neun Projekte zur Erforschung von Desinformation aufgesetzt. Sie gingen im Februar 2022 unter der neuen Ampelkoalition an den Start und sollen drei Jahre laufen. Bundesforschungsministerin Bettina Stark-Watzinger (FDP) sieht in digitaler Desinformation eine „zunehmende Bedrohung für unsere Demokratie und Gesellschaft“.
Gefördert werden die Projekte im Rahmen des Forschungsrahmenprogramms zur IT-Sicherheit „Digital. Sicher. Souverän.“ Sie sollen zum einen gesellschaftliche und rechtliche Rahmenbedingungen von Falschnachrichten analysieren, zum anderen auch Methoden und Techniken entwickeln, die der massenhaften Verbreitung von Desinformation entgegenwirken. Das Fördervolumen der Projekte beträgt 15 Millionen Euro. Ergänzend dazu fördert das BMBF sozial- und geisteswissenschaftliche Forschung, die die Auswirkungen von Desinformation auf den gesellschaftlichen Zusammenhalt sowie mögliche Gegenmaßnahmen untersuchen sollen.
Im Folgenden stellen wir die neuen Forschungsprojekte kurz vor.
Gegenstrategien für Medien
Videonachrichten: Im Projekt FakeNarratives wollen Forschende der Universität Leipzig im Verbund mit den Universitäten Bremen und Hannover verschiedene Nachrichtenvideos diskurs- und sprachwissenschaftlich analysieren – und zwar Videos aus verschiedenen Quellen: einerseits von öffentlich-rechtlichen Rundfunkanstalten, andererseits von sogenannten „alternativen“ Anbietern (so die verharmlosende Selbstbezeichnung vieler Absender von Desinformation). Mit Verfahren des maschinellen Lernens soll das Projekt narrative Muster besser erkennen und ein digitales Werkzeug entwickeln, das Mechanismen und Strategien von Narrativen der Desinformation systematisch offenlegen soll. Ziel ist zudem, Handreichungen für die Nachrichtenredaktionen von Qualitätsmedien zu erarbeiten. Diese sollen dabei helfen, das ungewollte Verbreiten von Desinformations-Narrativen zu vermeiden Desinformationskampagnen zu neutralisieren.
Nachrichtenvideos, zum Beispiel auf Online-Plattformen wie YouTube oder in Messenger-Diensten wie Whatsapp oder Telegram, können „analog zum Fernsehmedium eine sehr große Breitenwirkung entfalten und sind damit natürlich besonders gefährlich“, erklärt Manuel Burghardt von der Universität Leipzig. Die Forscher:innen betonen, dass „auch seriöse öffentlich-rechtliche Nachrichtenformate teilweise unbewusst narrative Muster beinhalten, die eine desinformierende Wirkung haben“. Wenn seriöse Medien solch wiederkehrende Erzählmuster übernehmen, über die ungewollt irreführende Informationen oder Deutungsmuster vermittelt werden, werde ein Misstrauen bei Teilen des Publikums weiter geschürt und diese so in die Arme „alternativer“, bewusst irreführender Informationskanäle getrieben. Es sei deshalb notwendig, kritische Fragen zu Ähnlichkeiten und Unterschieden zwischen öffentlich-rechtlichen und „alternativen“ Nachrichtenbeiträgen zu stellen.
Nachrichtenplattformen: Im Projekt noFAKE wollen Forschende der Technischen Universität Dortmund ein durch Künstliche Intelligenz (KI) unterstütztes Assistenzsystem für verschiedene Nachrichtenplattformen entwickeln. Es soll die Sichtung großer Mengen von Text- oder Bildmaterial automatisieren, indem es verdächtiges Material vorsortiert und mit ähnlichem Material in Verbringung bringt. Außerdem soll es digitale Verbreitungswege aufzeigen.
Das System soll sogenannten Crowdworkern helfen, die von Online-Plattformen wie Facebook engagiert werden, um Desinformationen rasch zu erkennen. Für sie sollen Schulungsunterlagen entwickelt werden, damit sie auf ihren Plattformen zirkulierendes Bild- oder Textmaterial besser als „Fake News“ erkennen können. Dazu arbeiten die Wissenschaftler mit Journalist:innen vom stiftungsfinanzierten Projekt Correctiv.org zusammen.
Promis versus Torwächter: Die besondere Rolle von Prominenten bei Desinformationskampagnen will das Projekt Notorious erforschen. In traditionellen Medien fungieren ausgebildete Journalist:innen als sogenannte Torwächter (engl.: „gatekeeper“) für Daten – sie prüfen diese und haben das Ziel, nur verlässliche Informationen weiterzuverbreiten. In den sogenannte Social Media gibt es keinen solchen Filter, stattdessen werden von den Nutzer:innen jegliche und oft auch falsche Informationen geteilt. Als Multiplikatoren dienen dabei oft Prominente, etwa Schlagersänger, Schauspielerinnen oder Sportler. Weil diese oft auf mehreren digitalen Plattformen vertreten sind, wollen die Wissenschaftler der Hochschule für Angewandte Wissenschaften Hamburg, des Hans-Bredow-Instituts sowie des Institute for Strategic Dialogue in Berlin anhand der Promis Verbreitungsmuster von Desinformation zu erforschen. Bisher sei nämlich noch nicht ausreichend untersucht, wie genau Promi-Kommunikation wirke, die die Torwächter-Funktion des Journalismus in den digitalen Medien zunehmend entwerte. Oft entfalte sie sich, so die Forscher, „unscheinbar auf emotionaler und spiritueller Ebene und nicht über Fakten und Sachargumente“.
Gegenstrategien von und für Expert:innen
Online-Medien: Im Projekt HybriD kombinieren Wissenschaftler:innen der Westfälischen Wilhelms-Universität Münster maschinelle Analysen mit menschlicher Expertise. Sie wollen ein web-basiertes Analysewerkzeug entwickeln, mit dem Expert:innen große Datenmengen aus Onlinemedien und sozialen Netzwerken in Echtzeit auswerten und zeitliche Muster erfassen können. So sollen sie Desinformationskampagnen besser bewerten können. Da die menschlichen Prüfer:innen ihre Analysen in das maschinelle System zurückspielen sollen, soll die Software schrittweise immer bessere Aussagen über Muster von Desinformation treffen können.
Behörden: Das Projekt PREVENT richtet sich an Behörden und Organisationen, die im Krisensituationen in der Lage sein sollen, vorsätzlichen Manipulationen der öffentlichen Meinung entgegenzuwirken. Unter Federführung der Universität Duisburg-Essen entwickeln Forscher der Universitäten Paderborn, Köln und Tübingen gemeinsam mit dem Berliner Unternehmen Virtimo ein Trainingstool, das die Verbreitung von Desinformation sowie die Wirkung möglicher Gegenmaßnahmen simuliert. Beispielsweise hatten nach der Flutkatastrophe im Juli 2021 sogenannte Querdenker behauptet, dass sich die Einsatzkräfte zurückziehen würden. Offenbar geschah dies, um das Vertrauen in die staatlichen Maßnahmen der Katastrophenbewältigung zu erschüttern.
Strategien gegen Wissenschafts-Fakes
Science-Fakes: Im Projekt DESIVE2 wollen Forschende wissenschaftlich anmutende Desinformation besser verstehen. Beispielsweise zur Corona-Pandemie kursieren Informationen, die aussehen, als kämen sie aus dem wissenschaftlichen Bereich. Typisch ist hier, dass ursprünglich korrekte Informationen entstellt werden, indem etwa Kontexte geändert oder Fakten weggelassen werden. Damit kann die breite Öffentlichkeit leicht getäuscht werden.
Das Forschungsprojekt unter der Koordination des Leibniz-Informationszentrums Wirtschaft ZBW will wissenschaftlich anmutende Desinformation aus dem Gesundheitsbereich charakterisieren und klassifizieren. Die Wissenschaftler:innen wollen Menschen befragen und interviewen, die Desinformationen weiterverbreiten – um „verstehen können, warum jemand etwas macht“, erklärt ZBW-Forscherin Leyla Dewitz Ziel ist es, dann künftig besser mit dieser Art von Desinformation umgehen zu können.
Gesundheits-Fakes: Speziell zu Gesundheitsthemen wollen Wissenschaftler:innen des Fraunhofer-Instituts FOKUS zusammen mit den Berliner Unternehmen Trustami und Ubermetrics Technologies im Rahmen des Vorhabens VERITAS einen Datensatz aufbauen, der Informationen von öffentlich-rechtlichen Nachrichtenportalen, sogenannten Sozialen Medien sowie Fach- und Expertenwissen umfasst. Mit maschinellem Lernen sollen verschiedene Inhalte wie Nachrichtenmeldungen strukturiert aufbereitet und Indikatoren von Falschinformation erkannt werden. Dazu wird ein Empfehlungsmodell erforscht, das Faktenchecker:innen gezielt unterstützen soll. Ziel ist es, schneller Fälschungen und Desinformation schneller erkennen zu können.
Strategien für Messenger und Social Media
KI-Detektor: Im Projekt DeFaktS geht es darum, Nachrichten aus verdächtigen Social-Media- und Messenger-Gruppen herauszufischen. Dafür füttern Forscher:innen des FZI Forschungszentrums Informatik in Karlsruhe die manuell aus den Kanälen extrahierten Nachrichten in ein KI-Modell. Es soll lernen, charakteristische Faktoren und Stilmittel von Desinformation zu erkennen. Damit können, so die Idee, dann später über eine App Nutzer:innen automatisiert gewarnt werden, wenn in ihren Nachrichten typische Merkmale von Desinformation auftauchen.
Die App wollen die Forschenden in einer Feldstudie testen. Über eine Programmierstelle sollen auch Dritte auf das so entwickelte KI-Modell zugreifen können. Die Idee hinter dem Projekt ist es, Portal-Betreibern wie Nachrichten-Seiten, Social-Media-Plattformen sowie Debatten- und Partizipationstools eine automatisierte Moderation von Inhalten zu ermöglichen. Zu den Projektpartnern gehört unter anderem der Berliner Verein Liquid Democracy.
Quellen-Analyse: Im Projekt Dynamo nehmen Forschende unter der Koordination des Fraunhofer-Instituts SIT in Darmstadtoffene Kanäle in Messenger-Diensten wie Telegram und Whatsapp unter die Lupe. „Dort entstehen häufig Fake News“, erklärt Fraunhofer-Forscher Martin Steinebach. „Tauchen dort Fake News auf, prüfen wir, wie weit, und vor allem wohin es diese Desinformationen schaffen.“ Dazu werden Wortfolgen, Nachrichtenteile und Medieninhalte wie Bilder untersucht, um die Verbreitungsdynamiken zu erkennen. Dabei geht es darum, Verbreitungsmuster von Desinformationskampagnen zu erkennen, auch um die Quellen der Daten, also etwa bestimmte Telegram-Kanäle, zu bestimmen. Im Projekt wollen die Wissenschaftler:innen eine Analysesoftware entwickeln, die automatisiert auf diese Quellen zugreift.
Das Verbreiten von Desinformation ist nicht selten auch mit Hassrede verbunden. Neben den neun genannten Projekten fördert das BMBF seit März 2022 auch das Vorhaben Hassreden-Tracker im Rahmen des Prototype Funds mit rund 30.000 Euro. Das Projekt will es Betroffenen ermöglichen, Belästigungen in sozialen Medien wie Facebook und Twitter zu dokumentieren und die von ihnen moderierten oder administrierten Internetgruppen vor Hassreden zu schützen. Entwickelt werden soll dazu ein Open-Source-Werkzeug, das beispielsweise das Blockieren von Accounts, die für Hassreden genutzt werden, automatisiert verwaltet. Oftmals sind diese Accounts nur kurz aktiv, um einer Nachverfolgung oder Löschung zu entgehen.
Im Zuge des Ukraine-Kriegs ist der Kampf gegen Desinformation inzwischen auch auf der internationalen Ebene ein Top-Thema. Im Juni 2022 wurde er zum ersten Mal auf einem Treffen der G7-Medienministerinnen und -minister zentral thematisiert. So heißt es in ihrem Kommuniqué: „Die Manipulation von Informationen einschließlich Desinformationen und Hassrede können den offenen, demokratischen Dialog und Diskurs untergraben und behindern sowie Spaltung und Polarisierung fördern.“ Die G7-Staaten wollen daher „Maßnahmen ergreifen, um freie, unabhängige und pluralistische Medienlandschaften zu bewahren und zu fördern“. Die jetzt gestarteten Forschungsprojekte lassen ahnen, in welche Richtung diese Maßnahmen gehen könnten.
Christiane Schulzki-Haddouti