Nicht von einem echten Foto zu unterscheiden: Ein mit künstlicher Intelligenz computergeneriertes Bild zeigt vermeintlich Papst Franziskus in einer modischen Daunenjacke (Foto: Screenshot, Markierung: SR info)

Menschen können KI-erstellte Inhalte oft nicht mehr von realen unterscheiden

Martina Kind   26.05.2024 | 08:46 Uhr

Anfang 2023 kursierte ein Bild von Papst Franziskus in hipper Daunenjacke in den Medien. Dass es von einem KI-Bildgenerator erstellt wurde, war für den Laien dabei kaum zu erkennen. Generell hätten Menschen immer mehr Probleme damit, echte Inhalte von gefälschten zu unterscheiden, sagt ein CISPA-Forscherteam. Warum das gefährlich ist.

Mit Künstlicher Intelligenz (KI) erstellte Inhalte sind für den Menschen kaum bis gar nicht mehr zu erkennen. Das ist der Ergebnis einer Studie des CISPA Helmholtz-Zentrums für Informationssicherheit in Saarbrücken. An der Studie haben den Angaben zufolge insgesamt etwa 3000 Menschen aus Deutschland, China und den USA teilgenommen.

Sie wurden den Gruppen "Text", "Bild" oder "Audio" zugeordnet und bekamen dann reale und KI-generierte Medien vorgelegt. Dabei zeigte sich: Die Teilnehmerinnen und Teilnehmer klassifizierten KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht.

"Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht", resümiert Thorsten Holz, Professor am CISPA und einer der Studienautoren. Demnach hätten etwa Alter und Medienkompetenz oder Bildungshintergrund und politische Einstellung kaum eine Rolle gespielt.

KI-Modelle immer besser

Lea Schönherr, die am CISPA forscht und ebenso an der Studie mitgewirkt hat, betont im Gespräch mit dem SR zudem, dass der Zeitraum der Befragung bereits zwei Jahre zurückliegt – die Studie wurde zwischen Juni und September 2022 durchgeführt. "Das bedeutet, dass sich die Modelle, mit denen sich KI-Inhalte generieren lassen, seitdem nochmal deutlich weiterentwickelt haben."

Überrascht hätten sie die Ergebnisse auch deshalb, weil die Teilnehmerinnen und Teilnehmer gewusst hätten, worum es in der Studie geht – sie also nicht völlig unbedarft mit den Inhalten konfrontiert wurden. "Unter diesem Aspekt hätte ich schon gedacht, dass die da besser abschneiden."

Risiken von KI-generierten Inhalten

Die Studienergebnisse seien angesichts der Risiken, die mit dem Einsatz von KI verbunden sind, alarmierend. "Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie", sagt Holz.

Schönherr nennt dazu ein konkretes Beispiel, das erst wenige Monate alt ist: Kurz vor der US-Präsidentschaftsvorwahl in New Hampshire im Januar hatten automatisierte Anrufe mit einer täuschend echt klingenden Nachahmung der Stimme von Präsident Joe Biden für Aufruhr gesorgt. Tausende Wählerinnen und Wähler wurde dabei fälschlicherweise mitgeteilt, dass eine Stimmabgabe bei der Vorwahl sie von der Präsidentschaftswahl im November ausschließen würde.

Dem Urheber des gefälschten Wahlkampf-Anrufs droht jetzt zwar eine Strafe von sechs Millionen Dollar. Doch was bleibt ist die Verunsicherung und die Sorge, dass KI vor der Präsidentenwahl im November noch häufiger missbraucht wird. 

Kaum Instrumente zur Erkennung von KI

Denn ein großes Problem ist: "Anhaltspunkte oder Instrumente, anhand derer sich KI-generierte Inhalte von echten Inhalten unterscheiden lassen, gibt es schon jetzt kaum mehr und bald definitiv nicht mehr. Wir stecken hier in einer Sackgasse", so Schönherr. Zwar mögen KI-Bildgeneratoren einzelne Details aktuell vielleicht noch nicht ganz so gut hinbekommen – oftmals stimmt etwas an den Händen nicht –, doch sei es nur eine Frage der Zeit, bis die KI auch hier fehlerfreie Ergebnisse liefert.

Das spiele auch Betrügern in die Hände. Künftig werde sich die Zahl der Schockanrufe, bei denen KI zum Einsatz kommt, um die Stimme der angeblich hilfsbedürftigen Angehörigen täuschend echt zu imitieren und die Opfer damit unter Druck zu setzen, auch in Deutschland erhöhen, davon ist Schönherr überzeugt. "Denkbar ist auch, dass die nächste Generation von Phishing-Emails auf mich personalisiert ist und der Text perfekt zu mir passt."

Abwehrmechanismen für genau solche Angriffsszenarien zu entwickeln, darin sieht Schönherr eine wichtige Aufgabe für die Zukunft.

Faktencheck wichtig

Internetnutzerinnen und -nutzern empfiehlt Schönherr, besonders kritisch im Umgang mit Inhalten vor allem im Bereich Social Media zu sein – gerade in Hinblick auf die bevorstehenden Wahlen. "Wenn man sich nicht sicher ist, ob etwas echt oder gefälscht ist, sollte man zunächst den Kontext einbeziehen, genau prüfen, wer den Inhalt geteilt hat und sich mehr die Frage stellen, was eigentlich dafür spricht, dass es sich um einen realen Inhalt handelt."

Am CISPA arbeiten die Forscherinnen und Forscher derweil an Verfahren zum automatisierten Fakt-Checking. "Dabei fragt man dann einen Algorithmus, was echt ist und was nicht. Aber leider funktioniert das auch noch nicht so gut." Aktuell lasse sich die Technologie noch leicht aushebeln. Eine wirkliche Lösung im Kampf gegen Fake-Inhalte muss demnach noch gefunden werden.


Mehr zum Thema künstliche Intelligenz

Kommunikation mit Verstorbenen
Anruf aus dem Jenseits: Lässt Künstliche Intelligenz bald Tote auferstehen?
Mit Menschen in Kontakt bleiben, auch wenn sie längst gestorben sind? Das ist die Vision einiger Techunternehmen aus den USA. Und so abwegig ist die Vorstellung gar nicht, im Gegenteil. Wie das funktionieren soll und welche Probleme es birgt.
200 Teilnehmer bei Ethiktag in Saarbrücken
KI-Einsatz in der Medizin wirft ethische Fragen auf
Künstliche Intelligenz kommt inzwischen auch in der Medizin zum Einsatz. Das wirft aber auch Fragen auf. Zum Beispiel, was sie darf. Darum ging es am Samstag beim siebten saarländischen Ethiktag in Saarbrücken.
Digitalisierungskampagne gestartet
KI soll Polizeiarbeit beschleunigen
Mithilfe künstlicher Intelligenz soll die Arbeit der Polizei im Saarland in Zukunft erleichtert werden. Innenminister Bouillon hat dazu am Donnerstagvormittag den Startschuss für eine Digitalisierungskampagne gegeben. Partner ist das Softwarehaus Scheer.

Artikel mit anderen teilen


Push-Nachrichten von SR.de
Benachrichtungen können jederzeit in den Browser Einstellungen deaktiviert werden.

Datenschutz Nein Ja