up2date. Das Onlinemagazin der Universtiät Bremen

KI-Bilder: Wie gefährlich sind sie für die Demokratie?

Kommunikationswissenschaftlerin Stephanie Geise über neue Technologien im Wahlkampf

Uni & Gesellschaft

Der Bundestagswahlkampf steht vor einer neuen Herausforderung: KI-generierte Bilder und Videos. Wie gefährlich sind diese Inhalte für die Demokratie, und welche Maßnahmen können Transparenz und Integrität sichern? Die Leiterin des ZeMKI-Labs „Politische Kommunikation und innovative Methoden“, Professorin Stephanie Geise fordert klare gesetzliche Vorgaben zur Kennzeichnung.

Im aktuellen Bundestagswahlkampf kommen KI-generierte Bilder und Videos zum Einsatz. Welche neuen Herausforderungen ergeben sich dadurch für die politische Kommunikation?

Die politische Kommunikation steht im aktuellen Bundestagswahlkampf vor einer neuen Herausforderung: Der Einsatz von KI-generierten Bildern, Videos und multimodalem Content. Diese Technologien ermöglichen es Parteien und Politiker:innen, täuschend echte Botschaften zu erstellen, die gezielt Emotionen wecken und Narrative verstärken. Doch mit der zunehmenden Verbreitung solcher Inhalte wachsen die Risiken für demokratische Diskurse und politische Integrität. Die Benutzerfreundlichkeit moderner KI-Tools senkt die technischen und finanziellen Hürden für die Erstellung synthetischer Inhalte erheblich. Dadurch können Bilder und Videos verbreitet werden, frei erfundene Ereignisse gezeigt, politische Persönlichkeiten in kompromittierenden Situationen dargestellt oder bestimmte Personengruppen stereotypisieren und diskriminierend imaginiert werden. Solche Inhalte fördern nicht nur die Verbreitung von Falschinformationen, sondern begünstigen auch Polarisierung und Radikalisierung, was letztlich den gesellschaftlichen Zusammenhalt gefährdet.

Was ist besonders problematisch am Einsatz von KI-generierten Inhalten im politischen Kontext?

Besonders problematisch ist die mangelnde Transparenz: KI-generierte Inhalte sind oft so realistisch, dass selbst geschulte Betrachter:innen sie nicht als künstlich erkennen. Ohne klare Kennzeichnung bleibt den Wähler:innen die generative Herkunft verborgen. Dies untergräbt das Vertrauen in politische Akteur:innen und gefährdet den demokratischen Diskurs, der auf informierten Entscheidungen basiert.

Welche Maßnahmen sind nötig, um die Integrität des Wahlkampfs angesichts solcher Technologien zu sichern?

Um die Integrität des Wahlkampfs zu sichern, braucht es klare gesetzliche Vorgaben zur Kennzeichnung synthetischer Inhalte. Plattformen sollten verpflichtet werden, technische Mechanismen zur Offenlegung des KI-Ursprungs bereitzustellen. Zusätzlich sollten politische Akteur:innen strikte Selbstverpflichtungen eingehen, um synthetische Inhalte zu vermeiden bzw. klar zu kennzeichnen. Nur durch transparente Standards kann sichergestellt werden, dass Wähler:innen auf der Grundlage belastbarer Informationen bewusst entscheiden. Es liegt in der Verantwortung von Politik, Plattformen und Gesellschaft, diese Standards gemeinsam durchzusetzen. Von den politischen Akteur:innen sollten wir aber mindestens eine strikte Selbstverpflichtung bei der Kennzeichnung synthetischer Inhalte einfordern.

Stephanie Geise
Stephanie Geise ist Professorin für Kommunikations- und Medienwissenschaft mit dem Schwerpunkt innovative Methoden am ZeMKI, Universität Bremen.
© Beate C. Koehler

Zur Person

Professorin Stephanie Geise erforscht, wie Menschen politische Medieninhalte über Bilder und Texte wahrnehmen und verarbeiteten. Sie ist Professorin für Kommunikations- und Medienwissenschaft mit dem Schwerpunkt innovative Methoden am ZeMKI, Universität Bremen. Forschungsschwerpunkte: Politische Kommunikation, Visuelle Kommunikation, Digitale Kommunikation, Methoden der empirischen Kommunikationsforschung, insb. computerbasierte Beobachtungsverfahren; Prozess der Medienrezeption und Medienwirkung: politische Partizipation; politischer Protest.

zurück back


Auch interessant…

Universität Bremen