Von KI-Künstler

Angebliches Beirut-Video wurde synthetisch erzeugt

29.10.2024, 12:54 (CET)

Israel verstärkt seit Wochen seine Angriffe im Libanon, besonders im Süden von Beirut. Viele Bilder dokumentieren die Schäden. Einige Videos wurden jedoch künstlich erstellt.

Anfang Oktober 2024 bombardierte Israel erneut die südlichen Vororte von Beirut. Kurz darauf tauchten in den sozialen Medien Videos auf, die die Schäden in der libanesischen Hauptstadt zeigen sollen. Ein Facebook-Nutzer postete mehrere Videos, die angeblich «Terroranschläge der rechtsextremistischen und rassistischen israelischen Regierung auf Zivilisten in Beirut» zeigen sollen.

Bewertung

Eine Sequenz wurde mithilfe einer KI-Software erstellt.

Fakten

Drei der vier veröffentlichten Videos zeigen tatsächlich israelische Angriffe auf Beirut. Die Aufnahmen findet man ebenfalls in verschiedenen Medienberichten.

Erster Teil des Videos KI-generiert

Der erste Teil des dritten Videos wurde hingegen synthetisch erzeugt. So wirken unter anderem die Geschwindigkeit der Fahrzeuge im Vordergrund und das höchste der brennenden Gebäude unnatürlich.

Ein TikTok-Nutzer veröffentlichte die Sequenz am 1. Oktober 2024 auf seinem Account. Er nennt sich selbst «AI Artist» («KI-Künstler») und weist unter dem Video darauf hin, dass es sich um KI-generierten Content handelt. Auf seinem Profil gibt es mehrere ähnliche Videos.

Der zweite Teil desselben Videos zeigt echte Aufnahmen von Explosionen in Beirut am 5. Oktober 2024. Der libanesische Fernsehsender «Al Jadeed» veröffentlichte eine Aufnahme davon bei X.

KI-generierte Videos erkennen

KI-generierte Inhalte weisen oft bestimmte Merkmale auf, die sie erkennbar machen:

  • Licht und Schatten wirken oft unnatürlich oder inkonsistent, da die Berechnung für KI-Modelle komplex ist.
  • Bei schnellen Bewegungen oder sich schnell verändernden Szenen entstehen oft Bildverzerrungen, weil die KI die Details nicht korrekt anpasst.
  • Gesichter wirken oft zu glatt oder symmetrisch. Schnelle Kopf- oder Augenbewegungen erscheinen unnatürlich.
  • Ohrringe, Zähne oder Haare können bei genauer Betrachtung inkonsistent wirken, da die KI Schwierigkeiten hat, diese bei jeder Bewegung stabil darzustellen.
  • Lippenbewegungen passen oft nicht exakt zu dem, was gesprochen wird, besonders bei komplexen oder langen Wörtern.

(Stand: 28.10.2024)

Links

Facebook-Post (archiviert)

Aufnahmen der Videos AP und DW (AP archiviert und DW archiviert)

TikTok-Account (archiviert)

KI-generierte Sequenz TikTok (archiviert)

X-Post «Al Jadeed» (archiviert)

KI-generierte Fakes erkennen (archiviert

Über dpa-Faktenchecks

Dieser Faktencheck wurde im Rahmen des Facebook/Meta-Programms für unabhängige Faktenprüfung erstellt. Ausführliche Informationen zu diesem Programm finden Sie hier.

Erläuterungen von Facebook/Meta zum Umgang mit Konten, die Falschinformationen verbreiten, finden Sie hier.

Wenn Sie inhaltliche Einwände oder Anmerkungen haben, schicken Sie diese bitte mit einem Link zu dem betroffenen Facebook-Post an faktencheck@dpa.com. Nutzen Sie hierfür bitte die entsprechenden Vorlagen. Hinweise zu Einsprüchen finden Sie hier.

Schon gewusst?

Wenn Sie Zweifel an einer Nachricht, einer Behauptung, einem Bild oder einem Video haben, können Sie den dpa-Faktencheck auch per WhatsApp kontaktieren. Weitere Informationen dazu finden Sie hier.