Menschen können KI-erstellte Inhalte oft nicht mehr von realen unterscheiden

Anfang 2023 kursierte ein Bild von Papst Franziskus in hipper Daunenjacke in den Medien. Dass es von einem KI-Bildgenerator erstellt wurde, war für den Laien dabei kaum zu erkennen. Generell hätten Menschen immer mehr Probleme damit, echte Inhalte von gefälschten zu unterscheiden, sagt ein CISPA-Forscherteam. Warum das gefährlich ist.

Mit Künstlicher Intelligenz (KI) erstellte Inhalte sind für den Menschen kaum bis gar nicht mehr zu erkennen. Das ist der Ergebnis einer Studie des CISPA Helmholtz-Zentrums für Informationssicherheit in Saarbrücken. An der Studie haben den Angaben zufolge insgesamt etwa 3000 Menschen aus Deutschland, China und den USA teilgenommen.

Sie wurden den Gruppen "Text", "Bild" oder "Audio" zugeordnet und bekamen dann reale und KI-generierte Medien vorgelegt. Dabei zeigte sich: Die Teilnehmerinnen und Teilnehmer klassifizierten KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht.

"Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht", resümiert Thorsten Holz, Professor am CISPA und einer der Studienautoren. Demnach hätten etwa Alter und Medienkompetenz oder Bildungshintergrund und politische Einstellung kaum eine Rolle gespielt.

KI-Modelle immer besser

Lea Schönherr, die am CISPA forscht und ebenso an der Studie mitgewirkt hat, betont im Gespräch mit dem SR zudem, dass der Zeitraum der Befragung bereits zwei Jahre zurückliegt – die Studie wurde zwischen Juni und September 2022 durchgeführt. "Das bedeutet, dass sich die Modelle, mit denen sich KI-Inhalte generieren lassen, seitdem nochmal deutlich weiterentwickelt haben."

Überrascht hätten sie die Ergebnisse auch deshalb, weil die Teilnehmerinnen und Teilnehmer gewusst hätten, worum es in der Studie geht – sie also nicht völlig unbedarft mit den Inhalten konfrontiert wurden. "Unter diesem Aspekt hätte ich schon gedacht, dass die da besser abschneiden."

Risiken von KI-generierten Inhalten

Die Studienergebnisse seien angesichts der Risiken, die mit dem Einsatz von KI verbunden sind, alarmierend. "Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie", sagt Holz.

Schönherr nennt dazu ein konkretes Beispiel, das erst wenige Monate alt ist: Kurz vor der US-Präsidentschaftsvorwahl in New Hampshire im Januar hatten automatisierte Anrufe mit einer täuschend echt klingenden Nachahmung der Stimme von Präsident Joe Biden für Aufruhr gesorgt. Tausende Wählerinnen und Wähler wurde dabei fälschlicherweise mitgeteilt, dass eine Stimmabgabe bei der Vorwahl sie von der Präsidentschaftswahl im November ausschließen würde.

Dem Urheber des gefälschten Wahlkampf-Anrufs droht jetzt zwar eine Strafe von sechs Millionen Dollar. Doch was bleibt ist die Verunsicherung und die Sorge, dass KI vor der Präsidentenwahl im November noch häufiger missbraucht wird. 

Kaum Instrumente zur Erkennung von KI

Denn ein großes Problem ist: "Anhaltspunkte oder Instrumente, anhand derer sich KI-generierte Inhalte von echten Inhalten unterscheiden lassen, gibt es schon jetzt kaum mehr und bald definitiv nicht mehr. Wir stecken hier in einer Sackgasse", so Schönherr. Zwar mögen KI-Bildgeneratoren einzelne Details aktuell vielleicht noch nicht ganz so gut hinbekommen – oftmals stimmt etwas an den Händen nicht –, doch sei es nur eine Frage der Zeit, bis die KI auch hier fehlerfreie Ergebnisse liefert.

Das spiele auch Betrügern in die Hände. Künftig werde sich die Zahl der Schockanrufe, bei denen KI zum Einsatz kommt, um die Stimme der angeblich hilfsbedürftigen Angehörigen täuschend echt zu imitieren und die Opfer damit unter Druck zu setzen, auch in Deutschland erhöhen, davon ist Schönherr überzeugt. "Denkbar ist auch, dass die nächste Generation von Phishing-Emails auf mich personalisiert ist und der Text perfekt zu mir passt."

Abwehrmechanismen für genau solche Angriffsszenarien zu entwickeln, darin sieht Schönherr eine wichtige Aufgabe für die Zukunft.

Faktencheck wichtig

Internetnutzerinnen und -nutzern empfiehlt Schönherr, besonders kritisch im Umgang mit Inhalten vor allem im Bereich Social Media zu sein – gerade in Hinblick auf die bevorstehenden Wahlen. "Wenn man sich nicht sicher ist, ob etwas echt oder gefälscht ist, sollte man zunächst den Kontext einbeziehen, genau prüfen, wer den Inhalt geteilt hat und sich mehr die Frage stellen, was eigentlich dafür spricht, dass es sich um einen realen Inhalt handelt."

Am CISPA arbeiten die Forscherinnen und Forscher derweil an Verfahren zum automatisierten Fakt-Checking. "Dabei fragt man dann einen Algorithmus, was echt ist und was nicht. Aber leider funktioniert das auch noch nicht so gut." Aktuell lasse sich die Technologie noch leicht aushebeln. Eine wirkliche Lösung im Kampf gegen Fake-Inhalte muss demnach noch gefunden werden.

Mehr zum Thema künstliche Intelligenz

WOLLEN SIE SR.DE WIRKLICH VERLASSEN?

Viele Soziale Netzwerke wie Facebook oder Youtube erfüllen nicht die hohen Datenschutz-Standards des SR. Deshalb sollten Sie bei diesen Anbietern besonders auf Ihre persönlichen Daten achten.

Unser Tipp: Nur das posten und angeben, was Sie theoretisch jedem Internetnutzer zeigen würden. Außerdem sollten Sie die voreingestellten Datenschutzeinstellungen der jeweiligen Anbieter überprüfen.

WOLLEN SIE SR.DE WIRKLICH VERLASSEN?

Viele Soziale Netzwerke wie Facebook oder Youtube erfüllen nicht die hohen Datenschutz-Standards des SR. Deshalb sollten Sie bei diesen Anbietern besonders auf Ihre persönlichen Daten achten.

Unser Tipp: Nur das posten und angeben, was Sie theoretisch jedem Internetnutzer zeigen würden. Außerdem sollten Sie die voreingestellten Datenschutzeinstellungen der jeweiligen Anbieter überprüfen.