Deepfake
Französischer Nachrichtenbericht wurde gefälscht
13.3.2024, 14:16 (CET)
Auf Facebook wurde kürzlich behauptet, französische Medien hätten berichtet, dass die ukrainische Regierung ein Attentat auf den französischen Präsidenten Emmanuel Macron geplant habe und Russland dafür verantwortlich machen wollte. Das Ziel dahinter sei gewesen, neue Waffenlieferungen einzufordern. Als Beleg dafür ist ein unscharfes Video beigefügt, das den Nachrichtenbeitrag zeigen soll. Was ist dran an der Geschichte?
Bewertung
Das Video basiert auf einem französischsprachigen Deepfake und zeigt keinen echten Nachrichtenbericht.
Fakten
Die Qualität des kursierenden Videos ist so schlecht, dass man darin kaum etwas erkennen kann. Schemenhaft steht auf einem roten Banner am unteren Bildrand: «Deux otages israéliens libérés à Rafah» (übersetzt: Zwei israelische Geiseln in Rafah freigelassen). Rechts oben heißt es: «powered by ExDubs.ai», was einen bereits stutzig machen könnte, da «ai» für Artificial Intelligence steht.
Tatsächlich handelt es sich bei dem Video um einen Deepfake. Der Clip wurde mithilfe von Künstlicher Intelligenz (KI) aus echtem Material des französischen Fernsehsenders France24 hergestellt. Das stellte der Sender selbst in einem Video klar und zeigte die Vorgehensweise der Fälscher.
Die Originalaufnahmen stammen aus einer Sendung vom 12. Februar 2024. Die Einblendungen über die befreiten israelischen Geiseln, die man in der Fälschung sieht, stimmen mit denen bei Minute 2:13 überein.
Auf einem russischsprachigen Kanal bei Telegram findet sich eine Version des Videos mit höherer Auflösung, in der man keine deutsche, sondern eine französische Sprecherstimme hört. Dort erkennt man zudem in der unteren rechten Ecke das Logo von «France24». Der Hinweis auf ExDubs.ai fehlt in dieser französischen Version. Er kam offenbar beim Entsehen der deutschsprachigen Fassung hinzu.
Bei «EzDubs.ai» handelt es sich um einen Online-Service, mit dem man die Audiospur von Videos mit einer KI in andere Sprachen übersetzen kann.
Schon für den Deepfake auf Telegram indes wurde sowohl die Audiospur als auch das Filmmaterial verändert. Die dabei errechneten Lippenbewegungen sehen unnatürlich aus, da die genutzte Technologie noch keine perfekten Fälschungen herstellen kann.
(Stand: 13.03.2024)
Links
Über dpa-Faktenchecks
Dieser Faktencheck wurde im Rahmen des Facebook/Meta-Programms für unabhängige Faktenprüfung erstellt. Ausführliche Informationen zu diesem Programm finden Sie hier.
Erläuterungen von Facebook/Meta zum Umgang mit Konten, die Falschinformationen verbreiten, finden Sie hier.
Wenn Sie inhaltliche Einwände oder Anmerkungen haben, schicken Sie diese bitte mit einem Link zu dem betroffenen Facebook-Post an factcheck-oesterreich@dpa.com. Nutzen Sie hierfür bitte die entsprechenden Vorlagen. Hinweise zu Einsprüchen finden Sie hier.
Schon gewusst?
Wenn Sie Zweifel an einer Nachricht, einer Behauptung, einem Bild oder einem Video haben, können Sie den dpa-Faktencheck auch per WhatsApp kontaktieren. Weitere Informationen dazu finden Sie hier.