Täuschend echt? Um für demokratische Wahlen zu werben, hat eine US-amerikanische Nichtregierungsorganisation ein Video mit dem Machthaber Nordkoreas gefakt. (Bildquelle: RepresentUS / CC BY 3.0; Screenshot aus https://www.youtube.com/watch?v=ERQlaJ_czHU)

KIT-Forscher untersuchen KI-basierte Fälschungen

Wie lässt sich prüfen, ob Informationen echt und vertrauenswürdig sind – gerade solche, die über das Internet oder die Sozialen Medien verbreitet werden? Die Möglichkeit, etwa Videos und Fotos mit Hilfe Künstlicher Intelligenz (KI) zu manipulieren, machen eindeutige Antworten immer schwieriger. Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) haben sich im Auftrag des Europaparlaments mit den potenziellen Gefahren der Deepfake-Technologie beschäftigt und Optionen für eine bessere Regulierung entwickelt. Gemeinsam mit Partnern aus den Niederlanden, Tschechien und Deutschland haben sie die Ergebnisse ihrer Studie vor EU-Abgeordneten offiziell vorgestellt.

Deepfakes sind zunehmend realistisch wirkende Fotos, Audios oder Videos, in denen Personen mit Hilfe von KI-Technologien in neue Kontexte gestellt oder ihnen Worte in den Mund gelegt werden, die so niemals gesagt wurden. „Wir haben es mit einer neuen Generation digital manipulierter Medieninhalte zu tun, die seit einigen Jahren immer kostengünstiger und einfacher zu erzeugen sind und vor allem täuschend echt aussehen können“, sagt Jutta Jahnel, die sich am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT mit der gesellschaftlichen Dimension lernender Systeme beschäftigt. Die Technik eröffne durchaus neue Möglichkeiten für Kunstschaffende, für digitale Visualisierungen in Schulen oder Museen und helfe in der medizinischen Forschung.

Erhebliche Gefahren

Gleichzeitig bringen Deepfakes jedoch erhebliche Gefahren mit sich, wie die jetzt vorgestellte internationale Studie für den STOA-Ausschuss (steht für Scientific Technology Options Assessment) des Europäischen Parlaments zeigt. „Die Technologie kann missbraucht werden, um sehr effektiv Fake News und Desinformationen zu streuen“, so Jahnel, die den Beitrag des ITAS zur Studie koordiniert hat. So könnten gefälschte Audiodokumente dafür eingesetzt werden, juristische Prozesse zu beeinflussen oder in Misskredit zu bringen, und letztlich das Justizsystem bedrohen. Möglich wäre beispielsweise auch, mit einem fingierten Video einer Politikerin nicht nur persönlich zu schaden, sondern damit auch die Wahlchancen ihrer Partei zu beeinflussen und in letzter Konsequenz dem Vertrauen in demokratische Institutionen insgesamt zu schaden.

KIT Deepfakes Manipulationen als Gefahr fuer Demokratie

Deepfakes können Einzelpersonen, Organisationen oder ganzen Gesellschaften schaden. Schaubild aus der Studie für das Europaparlament. (Grafik: Rathenau Institut)

Kritischer Umgang mit Medieninhalten notwendig

Die Forscherinnen und Forscher aus Deutschland, den Niederlanden und Tschechien machen konkrete Lösungsvorschläge. Aufgrund des rapiden technologischen Fortschritts dürfe man sich nicht auf Vorschriften zur Technikentwicklung beschränken. „Um die öffentliche Meinung manipulieren zu können, müssen Fakes nicht nur hergestellt, sondern vor allem auch verbreitet werden“, erläutert Jahnel. „Bei der Regelung zum Umgang mit Deepfakes müssen wir daher in erster Linie bei Internetplattformen und Medienunternehmen ansetzen“. KI-gestützte Technologien für Deepfakes werden sich jedoch auch so kaum ganz aus der Welt schaffen lassen. Im Gegenteil, die Forscher sind davon überzeugt, dass sich Individuen und Gesellschaften künftig immer häufiger mit visuellen Desinformationen konfrontiert sehen. Essenziell sei es daher, solchen Inhalten künftig noch kritischer gegenüberzutreten und Fertigkeiten weiterzuentwickeln, die dabei helfen, die Glaubwürdigkeit von Medieninhalten kritisch zu hinterfragen. Auf deutscher Seite hat an der Studie neben dem ITAS das Fraunhofer-Institut für System- und Innovationsforschung mitgewirkt, in den Niederlanden das Rathenau Institut als Projektkoordinator und in Tschechien das Technology Centre CAS.

Weitere Pilotstudie am KIT zu gesellschaftlichen Antworten auf Deepfakes

Aufbauend auf die europäische Studie untersucht derzeit ein interdisziplinäres Projekt am KIT, wie effektive gesellschaftliche Antworten auf Deepfakes aussehen könnten. Neben der Technikfolgenabschätzung arbeiten dabei Fachleute aus Informatik, Kommunikations- und Rechtwissenschaft sowie qualitativer Sozialforschung des KIT zusammen. Ziel ist es, die Erkenntnisse und Ansätze der unterschiedlichen Disziplinen zusammenzuführen. Eine Pilotstudie soll insbesondere die Perspektive von Nutzerinnen und Nutzern genauer untersuchen.

Der vollständige Report „Tackling deepfakes in European policy“ für das Panel for the Future of Science and Technology (STOA) des Europäischen Parlaments ist hier auf der Website des Europaparlaments zu finden.

Über das Karlsruher Institut für Technologie: Das KIT schafft und vermittelt Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9.600 Mitarbeiterinnen und Mitarbeiter in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften eng zusammen. Das KIT ist eine deutsche Exzellenzuniversität, an der mehr als 23.000 Studierende eingeschrieben sind.


Wir haben die Kommentarfunktion wegen zu vieler Spam-Kommentare abgeschaltet. Sie können uns aber trotzdem Ihre Meinung zu diesem Artikel als Leserbrief direkt zusenden. Falls Sie wünschen, dass wir Ihren Leserbrief als Kommentar dem Artikel hinzufügen, vermerken Sie dies bitte in der Mail an uns.
leserbrief@pr-journal.de


Werbung

Heute NEU im PR-Journal