Artikel Kopfzeile:
Quarks Daily Spezial
Deep Fakes: Warum wir unseren Augen nicht mehr trauen können
Sieht echt aus, ist es aber nicht: Mithilfe von künstlicher Intelligenz (KI) lassen sich Fotos, Videos oder Audios heute nicht nur manipulieren, sondern sogar komplett künstlich herstellen. Echt oder nicht – das lässt sich oft kaum noch sagen. Was ist heute mit Deep Fakes alles möglich – und wo liegen die Risiken?
iframe embed
Artikel Abschnitt:
Retusche und Photoshop waren gestern
Fotos retuschieren und dabei einen Pickel entfernen oder eine Falte glätten, damit die abgebildeten Personen optisch glänzen können. Das haben Fotograf:innen schon immer gemacht. Auch wurden Fotos schon immer manipuliert, etwa um unliebsame Personen aus einem Foto zu entfernen – oder einen Platz besonders friedlich aussehen zu lassen, obwohl jede Menge Menschen da waren.
Doch was früher mit viel Aufwand verbunden war – Schere, Klebstoff und viel Erfahrung –, das ist spätestens seit Softwareprogrammen wie Photoshop und Co. zu einer vergleichsweise einfachen Sache geworden. Per Mausklick lassen sich Fotos nach allen Regeln der Kunst nachbearbeiten. Selbst Foto-Apps auf dem Smartphone bieten heute Effekte, Filter und Sticker, die per Knopfdruck jedes Foto verändern. Deep Fakes machen jedoch deutlich mehr, als "nur" Bilder beschönigen.
Der Begriff Deep Fake
Zwar zeigen auch mit Photoshop bearbeitete Fotos oft genug nicht die Wirklichkeit – doch zumindest wurden die Personen oder Orte tatsächlich fotografiert. Bei Deep Fakes können Bilder entstehen, die niemand geknipst hat. Von Deep Fakes wird gesprochen, wenn mithilfe von künstlicher Intelligenz (KI) Medieninhalte – also Fotos, Videos oder Audios – massiv abgeändert, verfälscht oder sogar vollständig künstlich erzeugt wurden.
Das "Deep" leitet sich dabei aus der Informatik ab, denn es bezieht sich auf sogenanntes "Deep Learning". Beim Deep Learning wird eine spezielle Form von KI-Software trainiert, mit Bildern, Audios oder Videos. Die Software kann dabei lernen, wie die Mimik einer bestimmten Person aussieht. So eine trainierte KI-Software kann dann Fotos oder Filme dieser Person erstellen, ohne dass der echte Mensch dafür vor einer Kameralinse stand.
Der Unterschied zur Manipulation mit Photoshop oder Filtern in Apps: KI-Software macht das komplett automatisch. Niemand muss Hand anlegen. Und es sieht täuschend echt aus. Für den Laien lässt sich kaum oder gar nicht sagen, ob ein Foto, Video oder Audio echt ist oder nicht. Die Fähigkeiten solcher Software verbessern sich rasant.
Nicht nur Fotos: auch Videos und Audio
Längst lassen sich mithilfe von KI nicht nur einzelne Fotos künstlich erzeugen oder manipulieren, sondern auch Audios und Videos. Die Firma Adobe (steht auch hinter Photoshop) hat eine Software entwickelt, die in der Lage ist, mit der Stimme jeder Person so ziemliches alles sagen zu lassen. Dazu muss die KI sich lediglich 20 Minuten Audiomaterial der betreffenden Person "anhören". Schon kann die Software mit einer fremdem Stimme "sprechen" – und Sprechtempo, Aussprache und Intonation täuschend echt synthetisieren.
Und an der "University of Washington" haben Forschende ein KI-System entwickelt, das in der Lage ist, die Gesichtsbewegungen eines Schauspielers 1 : 1 auf ein Video von Barack Obama zu übertragen und so eine täuschend echt wirkende Ansprache zu erzeugen, die Obama aber niemals gehalten hat.
Gefährden Deep Fakes Gesellschaft und Demokratie?
Wenn sich mithilfe von KI-Software Fotos, Videos oder Audios täuschend echt erzeugen lassen, verlieren Bilder und Töne ihre Beweiskraft. Weder vor Gericht noch in der Berichterstattung ließe sich dann sagen, ob das, was dort gesehen und gehört wird, tatsächlich stattgefunden hat. Fake-Videos könnten auch für Hetze oder Propaganda genutzt werden, um Zustände vorzutäuschen, die so nicht stattfanden. Ob Original oder Fake, das lässt sich dabei kaum noch unterscheiden. Am Ende dürfte kaum jemand den Bildern oder Tönen noch trauen, selbst wenn sie tatsächlich echt sind.
Derzeit untersuchen Forschende die möglichen Folgen von Deep Fakes auf die Demokratie und auf die Glaubwürdigkeit von Medien. Klar ist schon jetzt: Falschinformationen verteilen sich blitzschnell über soziale Medien und im Internet. Richtigstellungen im Nachhinein erreichen deutlich weniger Menschen. Die Forschung sucht unter anderem nach Mitteln und Werkzeugen, um synthetisch erzeugte oder veränderte Medien zu erkennen.
Das brauchen Wir
Egal ob Foto, Video oder Audio: In naher Zukunft brauchen wir – zumindest für relevante Medieninhalte – wohl eine Art Echtheitszertifikat. Ton- und Videoaufnahmen von offiziellen Statements der Staatsoberhäupter oder Pressefotos würden dann mit diesem Zertifikat versehen. Für Fälschungssicherheit könnte eine sogenannte Blockchain sorgen, mit diesem digitalen System könnten Ursprung, Echtheit und Veränderungen dokumentiert werden.
Selbst ob Manipulationen vorgenommen wurden, ließe sich dann erkennen. Diese Methode ließe sich auch schrittweise erweitern. Irgendwann wäre es dann möglich, Quelle, Aufnahmezeitpunkt, Aufnahmeort und auch das Maß der Bearbeitung eines Mediums zu erkennen und nachzuweisen. Das würde Deep Fakes nicht unmöglich machen, aber deutlich erschweren – und leichter enttarnen.
DIE MACHER:INNEN
Jörg Schieb ist Digitalexperte des WDR und zum Beispiel mit seiner Sendung "Angeklickt" im WDR Fernsehen schon lange Digitalthemen auf der Spur.
Marlis Schaum ist nicht nur als Host in Quarks Daily zu hören, sondern auch im Radio und TV unterwegs.
Über den/die AutorIn:
Über den/die AutorIn:
Quellenangaben zum Artikel:
Social Sharing:
Artikel Überschrift:
Geiler Artikel