Gefährliche Deepfakes: Unterschätzen wir das Missbrauchspotential?
Leider hat es in der Vergangenheit sehr viele Fälschungen im Internet gegeben, die für Aufruhr und Schaden gesorgt haben. Die Rede ist von gefährlichen Deepfakes.
Im Moment werden kritische Stimmen laut, wenn es um eine ganz neue Software in Bezug auf Videos und die Veränderung des Transcripts geht. Tatsächlich ist es damit möglich, das Gesagte von einer Person in einem Video zu verändern. Es handelt sich um eine angewendete künstliche Intelligenz. Sogar die Mundbewegungen der Person werden entsprechend verändert, die Worte der Sätze werden ausgetauscht oder ganz entfernt, bzw. es werden neue Sätze gebildet. Das geschieht in genau derselben Stimmlage der originalen Person im Video. Einerseits zeigt sich damit zwar der immense Fortschritt der heutigen künstlichen Intelligenz dieser Software, andererseits stellt sich auch die grosse Frage danach, welche Gefahren davon ausgehen.
Eine neue Technologie
Die unterschiedlichsten Techniken werden für diese Fälschungen herangezogen. Als erstes isoliert das Video die kleinsten sprachlichen Einheiten des Gesprochenen. Anschliessend werden Wörter ausgetauscht, welche der Mimik und der Wortbewegung des Mundes entsprechen. Die untere Gesichtshälfte wird als 3-D Modell verändert. Der tatsächliche Prozess, der hinter diese Software steckt ist natürlich viel komplexer. Bisher kam es noch zu keiner Veröffentlichung von dieser Software, bald wird es aber so weit sein.
Realistische Fälschungen
Im Moment liegt die Situation so, dass solche Videofälschungen 60 von 100 befragten Menschen täuschen, 40 davon erkennen die Fälschung. Die Software funktioniert übrigens noch nicht komplett fehlerfrei und muss noch perfektioniert werden. Für eine erfolgreiche Analyse werden ca. 40 Minuten Videomaterial benötigt. Eine Analyse funktioniert nur dann, wenn sich derjenige nicht mit der Hand in das Gesicht fasst, bzw. wenn die Mimik nicht gestört wird.
Ansonsten ist das Video nutzlos. Auch die Stimmlage lässt sich nicht verändern, das hat natürlich mit den dahinterstehenden Emotionen einen direkten Zusammenhang. Bisher macht die Audioqualität die grössten Fortschritte. Bis diese Fehler der Software also korrigiert sind, ist es nur eine Frage der Zeit. Dann ist es so weit und authentische Deepfakes können damit erstellt werden.
Erste Probleme
Trotzdem ist es anhand der Software der neuesten Technologie bereits gelungen, erste Menschen mit einer Fälschung zu überzeugen. Ein Beispiel dafür ist ein Video von Facebook Gründer Mark Zuckerberg. In diesem Video erklärt er angeblich seine umfassende Macht. Das gefälschte Video ist allerdings ein Teil eines sozialkritischen Kunstprojektes aus Israel. Viele Zuschauer erachteten das Video als glaubwürdig. Das Image von Mark Zuckerberg wurde angekratzt.
Ob sich die Gefahr der Software regulieren lässt oder nicht bleibt eine ungelöste Frage. Oft wird im Internet der entsprechende Kontext ignoriert und Markierungen werden entfernt. Eine angemessene Regulierung ist daher nicht zu erwarten.