Viele Menschen glauben nur das, was sie sehen. Doch darauf ist kein Verlass mehr. Künstliche Intelligenz (KI) entwickelt sich rasant, auch bei der Erstellung von Bildern und Videos. Deepfakes sind immer schwieriger zu erkennen.
Oldenburg (epd). Der Papst in weißer Puffer-Jacke, ein perfekt deutschsprechender Cristiano Ronaldo, Obama und Trump beim Basketballspiel: Dass das KI-generierte Bilder und Videos sind, sogenannte Deepfakes, ist hinlänglich bekannt. Doch woran erkennen Menschen Deepfakes? Dieser Frage gehen die Medienpädagogen Patrick Jäkel, Christina ter Glane und Ulrik Kowalk in einem Workshop für junge Menschen in Oldenburg nach.
Jäkel nimmt mit den Workshop-Teilnehmern das KI-generierte Papst-Foto von 2023 genauer unter die Lupe. Er zeigt, wie man die Fälschung optisch erkennen kann: „Zum Beispiel funktioniert der Brillenschatten nicht.“ Bei anderen Deepfakes können unnatürliche Bewegungen oder Verpixelungen auf die Fälschung hinweisen. Doch es sind nicht die technischen Feinheiten allein. Denn technisch werden die falschen und manipulierten Bilder und Videos immer überzeugender.
Um Deepfakes erkennen zu können, brauche es eine gesunde Distanz zu Medieninhalten, sagt Kommunikationswissenschaftler Alexander Godulla von der Universität Leipzig. „Wichtig ist es, sich zu fragen: Ist das plausibel und wahrscheinlich, was ich da sehe?“ Das Bauchgefühl sei dabei kein guter Berater, denn die eigene Intuition könne trügen: „Es lohnt sich, darüber nachzudenken, ob das, was man mit eigenen Augen und Ohren sieht und hört, tatsächlich wahr ist.“
Das bestätigt auch Studentin Sarina Kugele, die mit zwölf weiteren jungen Erwachsenen an dem Workshop der Initiative „Netzwerkstatt“ in Oldenburg teilnimmt. Seit 2019 engagiert sich die 23-Jährige mit den anderen jungen Menschen zwischen 16 und 25 Jahren und den Medienpädagogen Jäkel, ter Glane und Kowalk für Zivilcourage im Netz. Eigentlich sei es jedem klar, dass „der Papst nicht mit einer Tausend-Euro-Jacke rumrennt“, sagt Kugele. Der 25-jährige Jannik Kahsnitz gibt zu: „Hätte ich dieses Wissen, wie der Papst sich kleidet, nicht, wäre ich vielleicht dem Foto auf den Leim gegangen wäre.“
Die Medienpädagogen weisen auf die rasante Entwicklung der Deepfake-Technologie hin. Als Beispiel nehmen sie Obama und Trump auf dem Basketballfeld - ein Deepfake, das auch mit dem KI-Programm Midjourney erstellt wurde. Im März 2022 ist der Fake schnell enttarnt: Obama sieht gar nicht aus wie ein Mensch, Trumps Körper ist deformiert. Das gleiche Fake-Bild sieht ein Jahr später schon authentischer aus: Zwar sind die Proportionen noch immer nicht perfekt, doch auf den ersten Blick überzeugt das Bild.
Dass Deepfakes nicht nur zum Schmunzeln sind, zeigen die Warnungen des Bundesamtes für IT-Sicherheit. Es sei möglich, Personen zu verleumden und glaubwürdige Desinformationskampagnen durchzuführen, „indem manipulierte Medieninhalte von Schlüsselpersonen erzeugt und verbreitet werden“, heißt es. Die Gefahr solcher Kampagnen im Netz für die Gesellschaft bestätigt auch ter Glane: „Wir können Demokratie- und Medienkompetenz nicht getrennt denken.“
Negative Auswirkungen könnten Falschinformationen auf Wahlentscheidungen haben, etwa im Superwahljahr 2024. Neben der Europa- und US-Wahl werden die Landtage in Brandenburg, Sachsen und Thüringen gewählt. „Wenn Sie Menschen mit ausreichend Deepfakes und Cheapfakes konfrontieren, kann es sein, dass sie irgendwann gar nichts mehr glauben“, sagt Kommunikationswissenschaftler Godulla. Solche Cheapfakes - auf Deutsch „billige“ oder „seichte Fälschungen“ - sind audiovisuelle Fälschungen mit einfachen Mitteln, die technisch weniger anspruchsvoll sind.
Für Godulla ist ein Hauptproblem, dass mittels Deepfakes Spott und Häme über politische Gegner verbreitet werden. „Politische Deepfakes haben auch einen Anteil an der Polarisierung: rechts gegen links, links gegen rechts.“ Eine besondere Gefahr geht von Deepfakes nach Ansicht des Wissenschaftlers für Menschen mit einer engen politischen Weltsicht aus, die in ihrer „Blase“ lebten: „Wirklich gefährdet sind Personen, die sich nicht über Qualitätsmedien informieren, sondern nur über soziale Medien.“
Die Workshop-Teilnehmer in Oldenburg diskutieren derweil weiter am runden Tisch darüber, welche Recherchen und Hintergrundchecks bei einem Deepfake-Verdacht sinnvoll sind. Dafür empfehlen ter Glane und ihre Kollegen die Faktenchecks von Correctiv, Mimikama und den Faktenfuchs des Bayrischen Rundfunks.
Weitere möglichst unabhängige Quellen zum gleichen Sachverhalt zu finden, ist auch der Tipp von Godulla. Und er rät: „Wenn ich auf einer Plattform häufig mit irritierenden Botschaften konfrontiert bin, sollte ich überlegen, ob ich diese Plattform nutzen möchte.“