Frau Dr. Muñoz, Sie beschäftigen sich intensiv mit der Schnittstelle von Digitalpolitik und Demokratie. Wie hängen diese beiden Themenfelder zusammen?

Digitalpolitik und Demokratie sind heute untrennbar miteinander verbunden, weil politische Meinungsbildung zunehmend online stattfindet. Unsere Forschung im Rahmen der Künstlichen Intelligenz (KI)/Demokratie-Initiative für Deutschland zeigt: Zwei Drittel der Bevölkerung beziehen Nachrichten hauptsächlich über das Internet, ein Drittel davon ausschließlich über soziale Medien. Die Funktionsweise von Plattformen und Algorithmen entscheidet also direkt darüber, welche Informationen Menschen erreichen und wie sie sich politisch orientieren.

Ein Schwerpunkt Ihrer Arbeit ist die Analyse von Desinformationskampagnen. Was zeigt Ihre Forschung im internationalen Kontext: Welche Rolle kann künstliche Intelligenz bei der Verbreitung solcher Kampagnen spielen?

Wie in anderen Bereichen auch, verändert KI die Desinformationslandschaft grundlegend – wenn auch anders als oft angenommen. Unsere Analyse der Wahlen in Mexiko, Indien, Südafrika, den USA, Frankreich und Deutschland im letzten Jahr zeigt: Nicht einzelne KI-Ereignisse beeinflussen Wahlen, sondern das Zusammenspiel auf mehreren Ebenen.

Erstens ermöglicht KI die Massenproduktion personalisierter Propaganda. Inhalte, die auf individuelle Ängste zugeschnitten sind, können sehr schnell, gezielt und vor allem günstig erstellt werden: beispielsweise Memes, die durch ihre Bildsprache emotionale Reaktionen auf Narrative hervorrufen, auch wenn der künstliche Ursprung erkannt wird.

Zweitens – und das ist das größere Problem – führt die Allgegenwart manipulierter Inhalte zum Vertrauensverlust in unseren Informationsraum. Wenn alles KI-generiert sein könnte, entsteht eine „Realitätskrise“, die den demokratischen Diskurs untergräbt. Drittens nutzen Akteure Plattformalgorithmen, um ihre Sichtbarkeit und Reichweite zu steigern und so bestimmte Positionen in den Mainstream zu tragen. Diese Mechanismen verzerren öffentliche Debatten nachhaltig.

Beim Thema Desinformation sprechen wir immer auch über soziale Plattformen, da sie die öffentliche Debatte weltweit prägen. Welche konkreten Maßnahmen halten Sie für notwendig, um die Verbreitung von Falschinformationen auf Plattformen wirksam zu begrenzen?

Ich vermeide bewusst den Begriff „Desinformation“, weil er den Fokus zu sehr auf den Inhalt verengt. Die effektivsten Einflusskampagnen manipulieren nicht nur einzelne Texte oder Bilder, sondern den gesamten Informationsraum. Sie nutzen koordinierte Strategien, um Plattformalgorithmen gezielt für ihre Zwecke einzusetzen. Konkret brauchen wir also ein Umdenken: weg von der Fixierung auf Inhalte, hin zum Verständnis, wie Verteilungssysteme auf sozialen Plattformen beeinflusst werden.

Meine Forschung zeigt, dass diese Kampagnen überall demselben dreistufigen Muster folgen: „Engineered Collective Mobilization“. Es beginnt mit der Vorbereitung von Inhalten – Memes, Videos, Narrative – sowie der Aufgaben- und Ressourcenverteilung zwischen mehreren Accounts. Darauf folgt die gezielte Verbreitung dieser Inhalte über verschiedene Plattformen, sodass künstlich eine große Reichweite entsteht. Zuletzt greift die algorithmische Verstärkung. Die künstlich erzeugten Reaktionen lassen Algorithmen die Inhalte als „viral“ einstufen und weiter ausspielen. So werden orchestrierte Kampagnen als authentisches, organisches Engagement getarnt. Diese Muster konnten wir in Mexico, Indien, Nigeria, Südafrika, Deutschland und den USA nachweisen.

Daraus folgt: Plattformen müssen verpflichtet werden, Transparenz über ihre Algorithmen und Datenverarbeitung herzustellen. Der Digital Services Act (DSA) enthält bereits entsprechende Vorgaben, doch viele Plattformen verweigern bislang den geforderten Zugang. Zusätzlich braucht es unabhängige Frühwarnsysteme, die solche Kampagnen schneller erkennen.

Welche Bedeutung haben Influencer*innen für die politische Meinungsbildung und wie nehmen Plattformen und ihre Algorithmen Einfluss darauf?

Unser Medienkonsumverhalten hat sich in den letzten Jahren stark verändert, wodurch sich neue Machtstrukturen entwickelt haben. In Zeiten schwindenden Vertrauens in traditionelle Institutionen werden Influencer*innen zu alternativen Informationsquellen. Sie können durch ihre Verbindung zu ihren Communities Narrative besonders wirksam verbreiten – für demokratische Teilhabe, aber auch zur Manipulation.

Ihr Einfluss basiert auf einem Gespür für guten Content, starken Online-Communities und dem Verständnis von Plattformalgorithmen. Diese sind darauf programmiert, Interaktion mit Beiträgen zu maximieren, nicht Wahrheit. Influencer*innen setzen dieses Wissen strategisch ein, um Sichtbarkeit für bestimmte Themen zu schaffen. Ein Beispiel: Um Metas Abwertung politischer Inhalte zu umgehen, kombinieren Influencer*innen diese mit provokanten Bildern, denn „Sex sells“ – und wird höher gewertet als die Depriorisierung politischer Inhalte. Oder sie koordinieren sich mit anderen Accounts, um TikToks Suchalgorithmen zu manipulieren. Diese „Growth Strategies“ werden zunehmend für politische Zwecke genutzt.

Problematisch daran ist, dass Algorithmen zunehmend isolierte Informationsräume schaffen. Menschen leben in derselben Gesellschaft, bewegen sich aber in völlig unterschiedlichen Informationsökosystemen. Das erschwert die demokratische Konsensfindung erheblich.

Neben Risiken birgt KI auch Chancen für Faktenprüfung und Aufklärung. Welche innovativen Ansätze sehen Sie, um KI gezielt gegen Desinformation einzusetzen?

Hier bin ich ehrlich gesagt skeptisch gegenüber rein technischen Lösungen. Die Antwort liegt nicht im Versuch, jeden Deepfake zu identifizieren. Ziel muss sein, eine kritische digitale Öffentlichkeit aufzubauen, vertrauenswürdige Informationsquellen zu stärken und transparente Kommunikationsstrukturen zu fördern, um demokratische Resilienz zu schaffen.

Trotzdem sehe ich drei konkrete Ansätze. Erstens: KI-gestützte Dialogplattformen, die politische Teilhabe erleichtern und verschiedene Perspektiven zusammenführen können – wie der wahl.chat zur Bundestagswahl in Deutschland oder das KI-gestützte Town Hall Tool das Jigsaw in Kentucky, USA, durchgeführt hat.

Zweitens: Statt nur Debunking, das Entlarven von Falschinformationen, „Pre-Bunking“ beitreiben – also psychologische Immunisierung gegen Manipulationstechniken durch die Förderung von Medienkompetenz, bevor Falschinformationen wirken.

Drittens: Multi-Stakeholder-Ansätze, bei denen Tech-Unternehmen, Wissenschaft und Zivilgesellschaft zusammenarbeiten, um Erkenntnisse über KI-Schwachstellen zu gewinnen und systemische Lösungen zu entwickeln. Letztendlich brauchen wir politische Rahmenbedingungen, die Innovation ermöglichen und gleichzeitig demokratische Prozesse schützen.