Drei Jahre ChatGPT: Wie bedroht KI die öffentliche Kommunikation?

Kommunikationsforscher Cornelius Puschmann über Risiken automatisierter Bots für demokratische Diskurse

Forschung / Uni & Gesellschaft / KI

Drei Jahre später ist Künstliche Intelligenz fester Bestandteil gesellschaftlicher, wirtschaftlicher und wissenschaftlicher Prozesse geworden – und zugleich Gegenstand intensiver Debatten: KI-gesteuerte Bots verstärken Polarisierung und untergraben das Vertrauen. Transparenzpflichten und Plattformverantwortung sind entscheidend für demokratische Widerstandsfähigkeit, wie Cornelius Puschmann, Leiter des ZeMKI-Labs „Digitale Kommunikation und Informationsvielfalt“, erläutert.

Wie genau funktionieren Social Bots, und warum sind sie so effektiv darin, polarisierende Inhalte zu verstärken?

Social Bots, algorithmisch gesteuerte Accounts, die menschliches Verhalten imitieren, tragen zur Verstärkung polarisierender Inhalte in Online-Debatten bei. Indem sie die Sichtbarkeit polarisierender Narrative künstlich erhöhen, verzerren sie die Wahrnehmung von Konsens und Konflikt. Die Manipulation von Engagement-Metriken verstärkt emotionale und identitätsbasierte Polarisierung und untergräbt die für demokratische Debatten unverzichtbare Meinungsvielfalt.

Welche Folgen hat das für unser Diskussionsverhalten – etwa auf Plattformen wie X?

Bots – zunehmend durch KI gesteuert – verbreiten nicht nur Desinformation, sondern überschwemmen auch deliberative Räume mit sich wiederholenden, emotional aufgeladenen und irreführenden Inhalten. Diese Überlastung macht es für Nutzer schwieriger, authentische von koordinierter Kommunikation zu unterscheiden. Infolgedessen werden deliberative Austausche oberflächlicher, reaktiver und weniger reflektiert; Bedingungen, die die Fähigkeit der Bürgerinnen und Bürger, fundierte Urteile zu fällen, einschränken.

Was macht es so gefährlich, wenn Nutzer ständig das Gefühl haben, „manipuliert“ zu werden?

Die Verbreitung automatisierter Konten trägt zu einem wachsenden Misstrauen gegenüber Online-Diskussionen bei. Wenn Nutzer Manipulation vermuten, sinkt die Glaubwürdigkeit der politischen Kommunikation insgesamt. Diese Wahrnehmung von Unechtheit schürt Zynismus gegenüber Institutionen und Medien und schwächt die kollektive Problemlösungskompetenz und Kompromissbereitschaft – wichtige Elemente der demokratischen Widerstandsfähigkeit.

Reicht eine Kennzeichnung von KI-generierten Inhalten aus, oder braucht es umfassendere Transparenz-Instrumente?

Um diesen Herausforderungen zu begegnen, sind sowohl strengere Transparenzmaßnahmen wie die klare Kennzeichnung von Bots und KI-Inhalten als auch mehr Engagement der Plattformen zur Überwachung koordinierter unechter Verhaltensweisen erforderlich. Ohne solche Schutzmaßnahmen werden Social Bots weiterhin systemische Risiken für die Integrität demokratischer Debatten und die Qualität des öffentlichen Diskurses darstellen.

Und in der öffentlichen Kommunikation bedroht automatisierte Desinformation die deliberative Qualität demokratischer Diskurse. KI erfordert damit nicht nur technologische Kompetenz, sondern auch gesellschaftliche Verantwortung und vorausschauende Gestaltung.

Weitere Informationen

Webseite des ZeMKI-Labs „Digitale Kommunikation und Informationsvielfalt“

zurück back


Auch interessant…