Berlin Die Bilder sind auf den ersten Blick eindeutig: Bundeswirtschaftsminister Robert Habeck tritt vor die Kameras und verkündet, die Bundesregierung habe sich zu einem „sehr extremen, aber wichtigen Schritt entschieden“.
Das Video, das im Internet kursiert, scheint vom Fernsehsender Phoenix zu stammen, wie das Logo am oberen Bildrand verrät. Es sei ein „Notfallgesetz“ zur Schließung aller Freibäder in Deutschland verabschiedet worden, erklärt Habeck darin. Die Begründung: „Übergriffe“ und „unliebsame Vorkommnisse“ in der Vergangenheit.
Doch das hat Habeck niemals so gesagt. Es handelt sich um einen sogenannten Deepfake, der eine echte Videosequenz mit einer neuen Audiospur ausstattet, um so den Inhalt des Gesagten zu verändern. Das Perfide dabei: Die verwendete Stimme klingt wie die des Wirtschaftsministers, seine Lippenbewegungen wurden an den neuen Inhalt angepasst. Eine Veränderung, die nur mithilfe Künstlicher Intelligenz (KI) möglich ist.
Sarah Thusts Job ist es, Fälschungen wie diese zu finden und zu erkennen. Auf ihrer Internetsite und in den sozialen Medien entlarven sie und ihr Team der Nichtregierungsorganisation Correctiv die Deepfakes und beschreiben, anhand welcher Indizien ein Original von einer KI-Kopie unterschieden werden kann. Dabei liegt die wichtigste Waffe der Faktenchecker in ihrem menschlichen Verständnis davon, wie die Welt funktioniert, was logisch ist und was nicht.
„Man muss sehr stark auf die Details achten“, erklärt Thust. Etwa ob die Lippenbewegungen zum Gesagten passen, ob die Wand im Hintergrund plötzlich einen Knick bekommt oder ob eine Hand zu viele Finger aufweist.
Deepfakes mit KI: Faktenchecker wie Correctiv auf der Jagd nach Falschinformationen
Robert Habeck etwa scheint bei genauerem Hinsehen für einige Millisekunden die Oberlippe zu entgleisen. Doch Thust befürchtet, dass der menschliche Vorteil, Realitätsabweichungen, sogenannte „Glitches“, zu erkennen, nach und nach schwinden könnte. Denn: „Die KI ist in der Lage, aus ihren eigenen Fehlern zu lernen.“
>>Lesen Sie hier: Wie der Enkeltrick, nur mit KI: Deepfake-Betrüger erpressen Firmen mit falscher Chef-Stimme
Software, mithilfe derer sich gefälschte Fotos und Videosequenzen erstellen lassen, ist innerhalb kürzester Zeit massentauglich geworden. Die damit erzeugten Deepfakes kursieren im Internet ohne Kennzeichnung, dass es sich dabei nicht um echte Inhalte handelt.
Dieser Text ist Teil des großen Handelsblatt-Spezials zur Künstlichen Intelligenz. Sie interessieren sich für dieses Thema? Alle Texte, die im Rahmen unserer Themenwoche schon erschienen sind,
Wenn die Fälschungen einmal in der Welt sind, haben es Faktenchecker wie Correctiv schwer, die Falschinformation wiedereinzufangen, denn über die sozialen Medien verbreiten sie sich rasend schnell. Die Befürchtung: Täuschungsechte Deepfakes können dazu beitragen, die gemeinsame Faktenbasis der Bevölkerung zu erodieren und langfristig die Demokratie zu gefährden.
Alarmiert ist deswegen auch Bundesinnenministerin Nancy Faeser. „KI kann es Kriminellen oder Geheimdiensten ermöglichen, Bürgerinnen und Bürger leichter zu manipulieren und öffentliche Debatten mit Lügen und Propaganda zu überschwemmen“, sagt die SPD-Politikerin dem Handelsblatt. „Deepfakes, die Stimmen oder Gesichter imitieren oder verfälschen, können hier ein sehr gefährliches Mittel sein.“
Gleiches gelte für das künstliche Verstärken demokratiefeindlicher Narrative. „Entscheidend ist: Wir müssen immer mit Fakten gegenhalten und Fakes schnell erkennen und offenlegen“, betonte Faeser.
Fälschungen mit KI: Deepfakes sind Gefahr für die Börse
Wie schwierig es jedoch ist, bei der Verbreitung gefälschter Inhalte schnell genug zu reagieren, zeigte sich im Mai. Im Internet kursierte ein vermutlich von einer KI manipuliertes Foto, das eine vermeintliche Explosion am Pentagon in Washington zeigen sollte. Ehe das US-Verteidigungsministerium den Vorfall dementieren konnte, hatten die Börsen bereits mit sinkenden Kursen auf die vermeintliche Hiobsbotschaft reagiert.
Faktencheckerin Thust geht davon aus, dass einige Fälschungen überhaupt nicht entlarvt werden. Vor allem in digitalen Räumen, in denen sich Leute treffen, die kaum noch seriöse Nachrichten konsumieren, vermutet sie viele gefälschte Inhalte, die nie als solche entdeckt werden. Deshalb fordert sie: „Es wäre sehr wichtig, dass die Menschen selbst lernen, diese zu durchschauen“. Bisher sei diese digitale Medienkompetenz allerdings noch nicht besonders ausgeprägt.
Auch Innenministerin Faeser betont, wie wichtig die „Aufklärung und Sensibilisierung unserer Gesellschaft“ bei dem Thema sei. Sie spricht sich allerdings auch für strengere Regeln im Umgang mit Künstlicher Intelligenz aus – um auch mögliche Gefahren für die Demokratie einzudämmen. „Wir brauchen gesetzliche Antworten wie klare Kennzeichnungspflichten“, sagte Faeser dem Handelsblatt.
>> Lesen Sie hier: So will die EU KI-Betrug vorbeugen
Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie beobachtet allerdings, dass viele Staaten „hilflos“ auf die Herausforderungen reagieren, die sich durch die Massentauglichkeit Künstlicher Intelligenz ergäben.
„In Italien wurde die Anwendung kurzzeitig vor lauter Schreck verboten.“ Grunwald sieht die Notwendigkeit, dass auch Regulierungsbehörden, ähnlich wie die KI selbst, aus dem technischen Fortschritt wie aus eigenen Fehlern lernen, um technologischen Neuerungen adäquat zu begegnen. „Dass man einmal eine Regulierung schafft und diese dann für zehn Jahre erhält, ist nicht zu erwarten.“
Grunwald, der auch das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag leitet, hat beobachtet, dass die Faktenbasis der Gesellschaft schon vor der Verbreitung von KI erodiert ist – vor allem durch Falschnachrichten in den sozialen Medien.
KI radikalisiert sich selbst: Gefahr für Demokratie
Doch durch selbstlernende Technologien könne eine neue Dimension von Fake News entstehen. „KI gesteuerte Chatbots können sich durch Feedback auf ihre Falschnachrichten weiterentwickeln“, erklärt Grunwald. Das Problem: Auf besonders polarisierende Äußerungen bekommt die KI mehr Reaktionen – ein Anreiz, sich immer weiter zu radikalisieren.
Hinzu kommt der sogenannte „automation bias“. Dahinter steckt die nachgewiesene Tendenz von Menschen, maschinengenerierten Inhalten übermäßig viel Vertrauen zu schenken. Man könnte auch sagen: Informationen auf einem Bildschirm zu misstrauen widerstrebt der menschlichen Natur.
Gleichzeitig zeigen sich allerdings viele Menschen besorgt über die Auswirkungen von KI auf die Gesellschaft. Jeder zweite Mensch in Deutschland im Alter zwischen 16 und 75 Jahren sieht in KI-Anwendungen wie der Nutzung des Text-Roboters ChatGPT eine Gefahr für die Demokratie. Das geht aus einer kürzlich veröffentlichten repräsentativen Umfrage des Meinungsforschungsinstituts Forsa hervor, für die 1021 Menschen befragt wurden.
„Die Bürgerinnen und Bürger befürchten eine Welle von Falschnachrichten, Propaganda und manipulierten Bildern, Texten und Videos“, sagte Joachim Bühler, der Geschäftsführer des Tüv-Verbands. Der Verband hatte die Erhebung bei dem Institut in Auftrag gegeben.
Deepfake: AfD nutzt KI für ihre Kampagnen
Vor allem in Wahlkampfphasen dürfte sich zeigen, ob die Sorgen der Bevölkerung berechtigt sind. Einige Abgeordnete der AfD bedienen sich jetzt schon der Möglichkeit, gefälschte Bilder durch KI generieren zu lassen und sie für ihre eigene politische Botschaft zu benutzen.
Im März postete der stellvertretende AfD-Fraktionsvorsitzende Norbert Kleinwächter auf Instagram das Bild einer aggressiv wirkenden Gruppe junger Männer. Darunter die Botschaft: „Nein zu noch mehr Flüchtlingen“. Dass dieses Bild KI-generiert worden war, hatte Kleinwächter nicht zu erkennen gegeben. Gegenüber der ARD erklärte der AfD-Politiker, die Motive seien „optisch klar als künstliche Illustration erkennbar“. Eine Kennzeichnung erübrige sich somit.
Für die anderen Parteien stellt sich jetzt die Frage, wie sie sich in einem Bundestagswahlkampf 2025 aufstellen sollen, der durch KI generierte Inhalte beeinflusst werden könnte. Ronja Kemmer (CDU) ist Berichterstatterin ihrer Fraktion im Ausschuss Digitales im Bundestag. Sie beobachtet, dass sich die AfD seit Jahren mit großem Aufwand digitaler Technologien bedient, um Desinformation zu streuen. Sie selbst will KI im Wahlkampf allerdings nur einsetzen, wenn diese dem „ethischen Anspruch als Partei“ entspreche – etwa um Diskussionen in den sozialen Medien zusammenzufassen.
Sie sieht aber auch, dass die Parteien ihre Fähigkeiten ausbauen müssten, besser auf Desinformations- und Deepfake-Kampagnen zu reagieren. Doch Kemmmer ist zuversichtlich, dass „in einer Welt mit zunehmendem Einsatz von generativer KI die Menschen sehr genau merken, welche Parteien versuchen, sie in die Irre zu führen“.
Der Technikfolgen-Berater des deutschen Bundestags Grunwald zitiert den Philosophen Immanuel Kant, der sagte: Trau dich selbst zu denken. „Das Wichtigste ist“, so Grunwald, „dass wir uns selbst ein eigenständiges Urteil zutrauen und nicht nur nachplappern, was irgendwelche digitalen Systeme von sich geben.“
Mehr: Der Frankenstein-Moment: Wenn wir Künstliche Intelligenz nicht kontrollieren, kontrolliert sie uns
<< Den vollständigen Artikel: Deepfakes: Wie KI zur Gefahr für die Demokratie werden könnte >> hier vollständig lesen auf www.handelsblatt.com.