Ohne entsprechenden Hinweis

Account verbreitet KI-Bilder zu Silvester in Berlin-Neukölln

3.1.2024, 14:11 (CET)

Rund um den Jahreswechsel 2023/2024 kursieren im Netz zahlreiche Fotos und Videos aus der Hauptstadt. Doch darunter sind auch Bilder, die mithilfe von Künstlicher Intelligenz erzeugt wurden.

390 vorläufige Festnahmen, etwa 720 Ermittlungsverfahren und 54 verletzte Polizisten: Die Polizei Berlin hatte in der Silvesternacht nach eigenen Angaben viel zu tun. Im Netz kursieren nun angebliche Fotos, die um den Jahreswechsel im Stadtteil Neukölln aufgenommen worden sein sollen. Ein Account auf X verbreitet gleich mehrere Bilder (hier, hier, hier und hier). Darauf sind unter anderem Polizisten, Flammen oder brennende Barrikaden zu sehen. Handelt es sich um echte Fotos aus der Silvesternacht?

Bewertung

Die Bilder sind nicht echt. Sie wurden offenbar mithilfe von Künstlicher Intelligenz generiert. Darauf weisen mehrere Darstellungsfehler hin.

Fakten

Bei genauem Betrachten fallen auf allen vier Bildern Unstimmigkeiten auf: Ein Bild soll mehrere Polizisten vor einem Feuer zeigen. Drei der darauf abgebildeten Einsatzkräfte tragen einen markanten hellblau-silberfarbenen Helm. Ein solcher Helm wird von der Polizei Berlin jedoch nicht verwendet. Das zeigt ein Vergleich mit einem echten dpa-Foto aus der Silvesternacht von Polizisten auf der Sonnenallee.

Auffällig ist zudem der Unterschied bei den Uniformen. Auf echten dpa-Fotos (hier und hier) ist der Schriftzug «Polizei» auf der Vorderseite und der Rückseite der Schutzausrüstung auch bei Dunkelheit deutlich lesbar. Auf den bei X geposteten Bildern mit Polizisten (hier und hier) existiert entweder kein solcher Schriftzug oder er ist unleserlich und verschwommen. Die Uniformen stimmen nicht überein.

Weitere Bildfehler, sogenannte Artefakte, lassen sich darüber hinaus an den abgebildeten Personen erkennen: Auf einem Bild tragen augenscheinlich Passanten einen Polizeihelm, aber keine Uniform. Das passt nicht zusammen. Schaut man sich die Schatten an, sieht es so aus, als würde eine dieser Personen über der Straße schweben. Ein Schuh derselben Person ist seltsam geformt. Bei manchen Menschen sieht zudem die Körperhaltung unnatürlich aus.

KI hat Schwierigkeiten bei der Darstellung von Details

Mithilfe von Künstlicher Intelligenz (KI) lassen sich heutzutage authentisch wirkende Bilder erzeugen, die auf den ersten Blick wie Fotos aussehen. Die Deutsche Presse-Agentur hat zu solchen Bildern bereits mehrere Faktenchecks veröffentlicht.

Es gibt jedoch Möglichkeiten, KI-generierte Bilder zu erkennen. So tut sich die KI derzeit noch schwer, bestimmte Details, etwa menschliche Körperteile, originalgetreu abzubilden. Diese Art von Darstellungsfehlern lässt sich auf den kursierenden X-Bildern mehrfach wiederfinden. So hat eine am Feuer stehende Person (hier) beispielweise kein Gesicht. Bei der unmittelbar dahinter abgebildeten Person nur Kopf und Rumpf zu sehen, während die Beine fehlen.

Hintergrund kann Anzeichen für KI-Generierung enthalten

Ebenso können Gebäude im Hintergrund Hinweise liefern, dass das Bild künstlich erzeugt wurde: Auf den kursierenden Bildern (hier und hier) sind beispielweise die Fenster teilweise schief oder Fassaden verschwimmen und gehen nahtlos ineinander über. Außerdem ist auf keinem der kursierenden Bilder der Name eines Geschäfts oder Restaurants zu lesen - auf echten Fotos hingegen schon.

Es lassen sich auch keine weiteren Aufnahmen der brennenden Barrikaden aus anderen Perspektiven finden. Erwartbar wäre, dass auch andere Personen oder Journalisten Fotos dieser Barrikaden veröffentlicht haben. Fährt man zudem bei Google Street View die Karl-Marx-Straße ab, in der laut dem X-Profil angeblich eines der Bilder aufgenommen worden sein soll, so lässt sich schnell feststellen: Die Bildumgebung passt nicht zur Karl-Marx-Straße. Auf dem KI-Bild fehlen beispielsweise die Fahrbahnmarkierungen.

Eines der KI-Bilder soll darüber hinaus eine brennende Barrikade bei Tageslicht am Neujahrsmorgen zeigen. Doch wie eine Polizeisprecherin der «Berliner Zeitung» erklärte, fuhren die Beamten gegen 6.30 Uhr die letzten größeren Einsätze und beendeten dann langsam den Großeinsatz. Nach Angaben der Website «Sonnenverlauf.de» ging die Sonne erst gegen 8.16 Uhr auf. Das Tageslicht-Bild passt also nicht zur realen Einsatzsituation.

All diese Bildfehler zeigen, dass es sich bei den vier auf X veröffentlichten Bildern um KI-Kreationen handelt. Zu derselben Einschätzung kommen auch entsprechende KI-Bildanalyse-Tools. Allerdings ist hier die Technik ebenfalls noch nicht verlässlich ausgereift, sodass Ergebnisse immer mit Vorsicht betrachtet werden müssen und diese lediglich einen weiteren Hinweis auf eine potenzielle KI-Erzeugung liefern können.

(Stand: 2.1.2024)

Links

Hinweise zum Erkennen KI-generierter Bilder (archiviert)

dpa-Foto von Polizisten auf der Sonnenallee (archiviert)

dpa-Foto von Polizisten am Kottbusser Damm (archiviert)

«Berliner Morgenpost» über Schutzanzug der Polizei (archiviert)

dpa-Faktencheck zu KI-Bild von Julian Assange

dpa-Faktencheck zu KI-Bild von Putin und Xi Jinping

Karl-Marx-Straße bei Street View (archiviert)

Liveticker der «Berliner Zeitung» (archiviert)

«Sonnenverlauf.de» am 1. Januar 2024 (archiviert)

Bilanz der Polizei Berlin zu Silvester-Einsatz (archiviert)

Test-Version Hive AI Image Detector (archiviert)

X-Beitrag 1 (archiviert / archiviertes Bild)

X-Beitrag 2 (archiviert / archiviertes Bild)

X-Beitrag 3 (archiviert / archiviertes Bild)

X-Beitrag 4 (archiviert / archiviertes Bild)

Über dpa-Faktenchecks

Dieser Faktencheck wurde im Rahmen des Facebook/Meta-Programms für unabhängige Faktenprüfung erstellt. Ausführliche Informationen zu diesem Programm finden Sie hier.

Erläuterungen von Facebook/Meta zum Umgang mit Konten, die Falschinformationen verbreiten, finden Sie hier.

Wenn Sie inhaltliche Einwände oder Anmerkungen haben, schicken Sie diese bitte mit einem Link zu dem betroffenen Facebook-Post an faktencheck@dpa.com. Nutzen Sie hierfür bitte die entsprechenden Vorlagen. Hinweise zu Einsprüchen finden Sie hier.

Schon gewusst?

Wenn Sie Zweifel an einer Nachricht, einer Behauptung, einem Bild oder einem Video haben, können Sie den dpa-Faktencheck auch per WhatsApp kontaktieren. Weitere Informationen dazu finden Sie hier.