Welt der Deepfakes: Ultra-realistische Medienmanipulation durch KI. Entstehung, Anwendung und Gefahren dieser fortschrittlichen Technologie im Überblick.Welt der Deepfakes: Ultra-realistische Medienmanipulation durch KI. Entstehung, Anwendung und Gefahren dieser fortschrittlichen Technologie im Überblick.

Was sind Deepfakes?

Deepfakes sind Medieninhalte, normalerweise Videos oder Audios, die so manipuliert wurden, dass sie ultra-realistisch wirken. Häufig fallen Berühmtheiten und öffentliche Persönlichkeiten diesen Fälschungen zum Opfer. Aber in unserer Internet- und Social-Media-Ära kann eigentlich jeder zum Opfer werden.

Hauptsächlich konzentrieren sich Deepfakes auf das menschliche Gesicht und die Stimme. Was eine Fälschung jedoch zu einem Deepfake macht, ist die Methodik, nicht das Thema.

Die meisten bekannten Deepfakes sind humorvoll, wie das John Snow-Video (bereits aus dem Jahr 2019) oder Videos von ehemaligen US-Präsidenten Donald Trump und Facebook-Gründer und CEO Mark Zuckerberg. Aber nicht alle Deepfakes werden aus gutem Glauben erschaffen, einige dienen auch finsteren Zwecken.

Wie entstehen Deepfakes?

Deepfakes entstehen nicht durch Videobearbeitungssoftware wie Premiere Pro oder After Effects, sondern sie werden mit Hilfe von künstlicher Intelligenz und maschinellem Lernen generiert. Das macht Deepfakes schwieriger zu erstellen, da sie umfangreiches Wissen in AI erfordern. Aber gleichzeitig wird das Erstellen von Deepfakes einfacher, sobald die richtigen Algorithmen vorhanden sind.

Um einen Deepfake zu erstellen, wird eine KI mit vielen Videoclips, Sprachclips und Standbildern gefüttert. Je mehr Material zur Verfügung steht, desto besser werden die Ergebnisse. Das macht öffentliche Persönlichkeiten wie Politiker und Künstler zu perfekten Opfern für Deepfakes. Es gibt einfach unendlich viele Rohmaterialien, mit denen man die KIs trainieren kann.

Neuerdings werden Deepfakes auch aus einzelnen Fotos oder kurzen Audios mit unterschiedlichem Erfolg generiert. Erst kürzlich gab es Fake-Anrufe von “President Selensky” (Fed-Vorsitzender Jerome Powell wurde mit einem Telefonstreich hereingelegt — die russischen Anrufer gaben sich als ukrainischer Präsident aus, am 28.4.2023 zuletzt, Quelle: BusinessInsider)

Sehen und Hören ist nicht mehr Glauben

Die aktuelle Deepfake-Technologie hat bereits gezeigt, dass es möglich ist berühmte Politiker oder andere öffentliche Persönlichkeiten zu imitieren und sie alles Mögliche sagen zu lassen. Hier ein paar aktuelle Beispiele: Morgan Freeman, oder wie wäre es mit “The Shining starring Jim Carrey“, oder doch lieber eine Episode von “Better Call Trump“? Das ist gefährlich, denn ein Video von einer öffentlichen Person, die ihre Anhänger zu etwas auffordert, kann viel Chaos und Schaden anrichten.

Deepfakes für das Gute

Während die meisten Anwendungsfälle von Deepfakes entweder bösartig oder neutral sind, gibt es auch positive Beispiele. So kann man Deepfakes etwa dazu verwenden, Krebs- und ALS-Patienten ihre verloren gegangene Stimme wiederzugeben.

Ein weiterer positiver Anwendungsfall für Deepfakes ist die Medienproduktion. Anstatt die Anwesenheit von beschäftigten Schauspielern am Set zu benötigen, könnten Studios das Recht erwerben, das Aussehen und die Stimme eines Schauspielers zu nutzen und den Film dann mit Deepfakes zu produzieren.

Was ist zu tun

Das Hauptproblem mit Deepfakes ist, wie nahe sie der Realität kommen. Es wird immer schwieriger, Deepfakes zu erkennen, da die Fälscher ihre Fehler ausbügeln und ihre Produktionen immer realistischer machen.

Es gibt viele Bemühungen KI zur Erkennung von Deepfakes einzusetzen. Sowohl Facebook als auch Microsoft entwickeln Algorithmen zur Erkennung von Deepfakes, während die Regierung der Vereinigten Arabischen Emirate (VAE) einen Leitfaden veröffentlicht hat, um die Menschen über die Gefahren von Deepfakes aufzuklären. (Quelle Gulfnews)

Einige Menschen schlagen ein Verbot von Deepfakes vor, aber Experten bezweifeln die Wirksamkeit solcher Verbote. Die Büchse der Pandora ist geöffnet und es ist nicht mehr möglich Deepfakes loszuwerden.

Eine vorgeschlagene Alternative besteht darin, nur noch Video- und Audiomaterial von “vertrauenswürdigen Quellen” zu vertrauen. Aber die Definition von vertrauenswürdigen Quellen ist ebenso problematisch. Heute scheint jeder seine eigenen Quellen zu haben und nur noch diese (eigenen) Quellen als “vertrauenswürdig” einzustufen. Glaubwürdigkeit von Experten, von Quellen, Bildern und Videos ist nicht mehr so einfach darstellbar.

Die beste Waffe gegen Deepfakes ist der Menschenverstand

Zusammenfassend kann man sagen, dass wir auf das Problem der Deepfakes noch nicht vorbereitet sind. Es wird Zeit und Mühe kosten, verantwortungsbewusste Strategien gegen Deepfakes zu entwickeln, und wahrscheinlich wird auch staatliches Handeln erforderlich sein. Wir raten gern: Einfach mal schauen, ob das wirklich wahr sein kann. Ist es wirklich der Pabst, der den Roboter umarmt? Früher nannte man soetwas Menschenverstand – ein ziemliches Gegengewicht zur KI. Wenn man denn will 🙂