Ratgeber

Gefälschte Fotos und Videos: Was heute möglich ist und wie du Fakes erkennst

David Lee
31.7.2018

Der Fortschritt in Software, Hardware und künstlicher Intelligenz bringt uns realistisch wirkende Bilder und Videos, die aber manipuliert oder computergeneriert sind. Wie wir damit umgehen sollen, ist eine schwierige Frage. Auf jeden Fall sollten wir möglichst viel über Fake-Techniken wissen, um Fälschungen zu erkennen.

Die wenigsten Bildbearbeitungen sind Fälschungen. Denn eine Fälschung bedingt eine Täuschungsabsicht. Natürlich gibt es unterschiedliche Meinungen darüber, wie stark Fotos nachbearbeitet werden dürfen, etwa für Mode-Shootings, und die Grenze zwischen Optimierung und Betrug ist fliessend. Aber das ist ein anderes Thema. Darauf gehe ich in diesem Artikel nicht näher ein. Hier geht es vor allem um die Frage, ob und wie sich Bildfälschungen erkennen lassen.

Sehen heisst glauben – unsere Kontrollinstanz ist lasch

Ob du eine Fälschung als solche erkennst, hängt natürlich davon ab, wie gut sie gemacht ist. Experten sind sich einig, dass eine gute Fälschung extrem schwer zu erkennen ist – ausser man hat das Originalbild zum Vergleich. Das ist sogar in der Malerei so, wie das Beispiel des Kunstfälschers Wolfgang Beltracchi zeigt. In einem spannenden Interview mit der NZZ schildert Beltracchi, wie Kunstexperten in Gutachten verbissen an der Echtheit der Bilder festhielten – bis er die Fälschungen gestand.

Natürlich brauchst du zuerst einmal einen Anfangsverdacht. Misstrauisch wirst du normalerweise, wenn das Motiv unrealistisch ist, wenn Geometrie oder Grössenverhältnisse irgendwie seltsam aussehen, oder wenn du die Quelle für nicht vertrauenswürdig hältst. Die innere Kontrollinstanz ist bei Bildern allerdings viel lascher als bei Texten. Dabei wird mit Bildern nicht weniger gelogen als mit Worten. Warum glauben wir Bildern viel mehr? Der offensichtlichste Grund: Wir können nicht auf alles achtgeben. Wir schauen immer nur auf bestimmte Dinge in einem Bild.

Unsere Leichtgläubigkeit bei Bildern mag auch mit der Evolution zu tun haben. Mit Worten trickst der Mensch, seit er reden kann. Mit Bildern erst seit relativ kurzer Zeit. Hinzu kommt, dass viele Menschen ein Foto schlicht für die Abbildung der Realität halten. Diese Vorstellung war schon immer naiv und streng genommen falsch: Auch sogenannt «echte» Fotos sind künstliche Gebilde – wie Gemälde oder Erzählungen. In der digitalen Zeit ganz besonders.

Schliesslich ist die Art der Bildmanipulation massgebend für die Chance, sie zu erkennen. Schauen wir uns ein paar wichtige Techniken genauer an.

Bildmontage

Bei der Bildmontage wird ein Objekt aus einem anderen Foto in das Bild eingefügt. Damit das realistisch aussieht, müssen verschiedene Dinge stimmen:

  • Die Grössenverhältnisse. Nicht immer ganz einfach, da Objekte näher bei der Kamera grösser sein müssen – aber wie viel grösser?
  • Der Winkel und die Perspektive. Wenn Person A von leicht unten zu sehen ist, muss auch Person B von leicht unten zu sehen sein.
  • Die Richtung des Lichts (gut zu erkennen an den Schatten) und auch der Charakter des Lichts (hartes oder weiches Licht, kaltes oder warmes Licht)
  • Helligkeit, Kontrast, Sättigung, Farbbalance und Schärfe müssen beim eingesetzten Bildteil ungefähr gleich sein wie im Rest des Bildes.

Seve Kinya aus Kenia hat dieses Foto am 2. März 2016 auf Facebook gepostet. Die schöne Geschichte dahinter, wenn man Medienberichten glauben darf, geht so: Seve wäre gern nach China gereist, hatte aber kein Geld dafür, nicht einmal einen Pass. Also führte sie die Reise in ihrer Fantasie mit selbstgebastelten Fotomontagen durch. Natürlich erkennt jeder die Fälschung auf Anhieb, weil weder Kontrast noch Farben noch Licht zusammenpassen. Aus irgend einem Grund wurde die Fotomontage zum viralen Renner, Leute montierten die Frau in viele weitere Bilder rein. Das wurde für Seve zum Glücksfall: Ein Landsmann bekam Mitleid und trommelte Spendengelder zusammen. Noch im gleichen Jahr konnte Seve ein echtes Foto von sich auf der Great Wall posten.

Wenn du dieses Foto zum Vergleich hast, siehst du auch sofort, dass die Grössenverhältnisse im oberen gefälschten Bild überhaupt nicht stimmen.

An den obigen Punkten kannst du eine Fälschung von blossem Auge erkennen, wenn handwerklich nicht sauber gearbeitet wurde. Ein wichtiges Erkennungsmerkmal sind auch die Ränder des Objekts – seine Konturen. Damit ein Objekt ins Bild eingefügt werden kann, muss es zuerst vollständig von seinem ursprünglichen Hintergrund separiert werden. Alleine das kann schon eine extrem aufwendige Arbeit sein – je nach Konturen und Hintergrund. Wenn ein Mensch herausgeschnitten werden soll, müssen die einzelnen Haare freigestellt werden. Wobei dies viel einfacher ist, wenn die Original-Umgebung ein gleichmässiger Hintergrund (zum Beispiel im Studio) ist.

Retusche

Die Retusche ist sozusagen das Gegenteil der Montage. Ein Objekt wird aus einem Bild entfernt. Dabei darf natürlich kein Loch entstehen, sondern die Stelle muss mit plausiblen Bildteilen übermalt werden. Je nach Grösse und Bild ist das sehr einfach bis sehr schwierig. Einen Pickel aus dem Gesicht retuschieren kann jeder. Dazu nimmst du in Photoshop den Bereichsreparatur-Pinsel und klickst auf den Pickel. Fertig. Das Tool nimmt Fläche aus der Umgebung und kopiert sie auf die zu entfernende Stelle. Es gibt mehrere ähnliche Tools in Photoshop, die so arbeiten, zum Beispiel der Kopierstempel.

Ganze Menschen oder grössere Objekte wegzuretuschieren, ist je nach Hintergrund schwer. Vor einem regelmässigen Hintergrund kann das in Photoshop mit der Funktion «inhaltssensitives Füllen» vollautomatisch gemacht werden.

Genau wie der Kopierstempel und der Reparatur-Pinsel verwendet auch das inhaltssensitive Füllen umliegende Bildteile für die Retusche. Daher wiederholen sich die Muster: Es kommen zum Beispiel zwei exakt gleiche Wolken oder zwei exakt gleiche Wellen im Wasser vor. Dem menschlichen Auge fällt das kaum auf, wenn wir nicht eh schon misstrauisch sind. Diese Art von Retusche lässt sich aber gut computergestützt erkennen. Mehr dazu unten im Abschnitt über forensische Hilfsmittel.

Verformungen

Mit dem Verflüssigen-Tool in Photoshop ist es sehr leicht, Konturen zu verändern.

Solche und ähnliche Tools werden gerne benutzt, um Frauen eine vorteilhafte Figur zu verpassen, und noch häufiger, um Frauen mit einer eh schon vorteilhaften Figur in surreale Wesen zu verwandeln.

Man kann es auch übertreiben mit dem Verlängern der Beine. Immerhin ist das ein gutes Anschauungsmaterial für diesen Beitrag. Screenshot: aliexpress.com
Man kann es auch übertreiben mit dem Verlängern der Beine. Immerhin ist das ein gutes Anschauungsmaterial für diesen Beitrag. Screenshot: aliexpress.com

Allerdings sind diese Manipulationen meist auch leicht zu erkennen. Der Hintergrund wird nämlich mitverformt. Wenn wir uns nicht gerade inmitten der Natur befinden, umgeben uns überall Linien, die gerade sein sollten: Tür- und Fensterrahmen, Tischkanten, Bodenplatten, etc. Wenn diese Linien ausgerechnet auf Brust- oder Hüfthöhe seltsam krumm sind, weisst du sofort, woher der Wind weht. Ebenso, wenn die Taille sehr schmal, die Unterarme dafür sehr breit sind.

Auch dieses Bild bewirbt ein Kleid auf aliexpress.com. Dass dem Model nachträglich Kurven verpasst wurden, ist an den verbogenen Linien des Möbels rechts davon zu erkennen.
Auch dieses Bild bewirbt ein Kleid auf aliexpress.com. Dass dem Model nachträglich Kurven verpasst wurden, ist an den verbogenen Linien des Möbels rechts davon zu erkennen.

Vor neutralem Hintergrund kann man das Objekt unter Umständen direkt verformen, ohne dass es auffällt. Allerdings sind Models, die sich nur vor solchen Hintergründen präsentieren, in der heutigen Zeit an sich schon verdächtig.

Forensische Hilfsmittel

Verschiedene Methoden der Forensik erleichtern das Erkennen von Bildfälschungen. Der Schweizer Software Engineer Jonas Walker hat ein leicht verständliches Web-Interface entwickelt, mit dem du einige gängige Methoden selbst ausprobieren kannst. Doch zuvor muss ich dich vor überzogenen Erwartungen warnen. Diese Tools nützen dir nur etwas, wenn du weisst, worauf du achten musst. Ausserdem geben sie nur Hinweise auf mögliche Manipulationen, es sind keine Beweise. Und schliesslich sind diese Methoden vor allem wirksam bei Originaldateien. Bei Bildern, die du irgendwo aus dem Netz gezogen hast, entpuppen sie sich vielfach als wirkungslos.

Clone Detection: Erkennt automatisch duplizierte Bildteile. Damit zeigt die Funktion Stellen auf, wo Dinge mit dem Kopierstempel oder einem ähnlichen Tool wegretuschiert wurden.

Error Level Analysis (ELA): Erkennt JPEG-Artefakte, die durch (Mehrfach-)Kompression entstehen. Die Artefakte an sich sind noch kein Indiz für Manipulation. Verdächtig ist, wenn eine Stelle deutlich andere Artefakte aufweist als eine andere Bildstelle, die etwas sehr Ähnliches zeigt.

In der ELA-Darstellung werden die Farben mit jedem Mal neu abspeichern dunkler. Wenn nun ein Objekt ins Bild reinmontiert wird, ist dieses in der ELA viel heller, als es seinem Aussehen nach eigentlich sein müsste.

Dabei ist aber zu beachten, dass Bilder aus dem Web unter Umständen eh schon mehrfach neu abgespeichert und verändert worden sind. Daher ist der Umkehrschluss nicht erlaubt: das Fehlen von solchen Unregelmässigkeiten ist kein Hinweis, dass das Bild nicht manipuliert wurde.

Principal Component Analysis: Wie die Principal Component Analysis (PCA) funktioniert und wofür sie gut ist, erklärt Jonas Walker in diesem Blogbeitrag. In seinem Beispiel wird das oben erwähnte «inhaltssensitive Füllen» von Photoshop sichtbar gemacht. Auch wenn diese Analyse Bearbeitungen optisch besser hervorhebt, musst du trotzdem genau wissen, worauf du achten musst.

Automatische Tools (Deep Fakes) ermöglichen Videofälschungen

Eine echt wirkende Bildmontage ist also nicht so leicht zu machen. Umso erstaunlicher, dass in letzter Zeit Tools entwickelt worden sind, mit denen nicht nur einzelne Bilder, sondern ganze Video-Clips manipuliert werden können. Das Schlagwort dazu ist Deep Fake. Für die Fakes (Fälschungen) werden Methoden des Deep Learning eingesetzt.

Für viele mag es ein Schock sein, wenn nun Porno-Videos die Runde machen, in denen das Gesicht einer Prominenten einigermassen überzeugend reinmontiert wurde. Aber so plötzlich kommt das nicht. Schon lange gibt es Software, die automatisch Gesichter erkennt – unabhängig von Blickwinkel und anderen Variablen. Den automatisch erkannten Blickwinkel auf ein bestehendes anderes Bild anzuwenden, ist der nächste logische Entwicklungsschritt. Auch das gab es schon länger, etwa diverse Morphing-Apps, die Gesichter vermischen, oder Face Swap aus der App Snapchat, eine Funktion, die zwei Gesichter vertauscht. Mit Deep Learning wird die Software so lange trainiert, bis sie Gesichtsmontagen ohne jede menschliche Hilfe vornehmen kann. Und wenn man mal so weit ist, kann man die Technik auch auf ganze Videos anwenden.

Was ich damit sagen will: Es sind viele kleine Entwicklungsschritte, die zu diesen Deepfake-Videos geführt haben, nicht ein einzelner grosser. Aber nun, wo die Technik so weit ist, dass sie für gefälschte Pornos taugt, ist natürlich die medienwirksame Aufregung (oder Erregung) perfekt.

Bislang sind diese Videos meistens leicht als Fälschung zu erkennen. Sie sind unscharf, wabbeln und schwabbeln herum, zuweilen entstehen auch ganz merkwürdige, unrealistische Vermischungen. Trotzdem haben diese Videos ein grosses Potenzial, Unsicherheit zu stiften, weil wir bei Videos noch leichtgläubiger sind als bei Fotos. Schliesslich galt bisher, dass sich Videos im Unterschied zu Fotos nur unter extremem Aufwand fälschen lassen. Das hat sich geändert.

Zukunft: Geht uns das Gefühl für Realität verloren?

Wir müssen davon ausgehen, dass sich die Resultate in Zukunft deutlich verbessern und es dann schwieriger wird, Fälschungen zu enttarnen. Wenn es einmal nicht mehr möglich sein sollte, echte Fotos und Videos von manipulierten zu unterscheiden, wird der Justiz eines der wichtigsten Beweismittel fehlen. Fortschritt als Rückschritt: Die Rechtsprechung würde um über 100 Jahre zurückgeworfen. Und natürlich tut es der Gesellschaft insgesamt nicht gut, wenn keine Einigkeit mehr darüber herrscht, was real ist und was nicht.

Doch auch bei der computergestützten Erkennung von Fälschungen finden natürlich laufend Fortschritte statt. Es ist ein Wettlauf. Bodenlosen Pessimismus halte ich für falsch. Ausserdem werden auch die Menschen in ihrer Wahrnehmung sensibilisiert. Stell dir mal vor, ein Mensch im Jahr 1990 würde ein gut gemachtes Computerspiel aus dem Jahr 2018 sehen. Dieser Mensch würde die Spielszene wahrscheinlich für einen Spielfilm halten. Ein heute 20-jähriger hingegen kann ein Computerspiel deutlich besser von einem Spielfilm unterscheiden. Auch wenn die virtuelle Welt der realen immer näher kommt, bedeutet das nicht zwangsläufig, dass wir die beiden Dinge irgendwann nicht mehr unterscheiden können. Nachfolgende Generationen werden diesbezüglich neue Fähigkeiten entwickeln.

Titelbild: Screenshot aus dem Video «Ed». Ed ist eine computergenerierte Figur des Künstlers Chris Jones.

59 Personen gefällt dieser Artikel


User Avatar
User Avatar

Durch Interesse an IT und Schreiben bin ich schon früh (2000) im Tech-Journalismus gelandet. Mich interessiert, wie man Technik benutzen kann, ohne selbst benutzt zu werden. Meine Freizeit ver(sch)wende ich am liebsten fürs Musikmachen, wo ich mässiges Talent mit übermässiger Begeisterung kompensiere. 


Foto und Video
Folge Themen und erhalte Updates zu deinen Interessen

Foto und Video
Folge Themen und erhalte Updates zu deinen Interessen

Diese Beiträge könnten dich auch interessieren

  • Ratgeber

    Stalker Selfie Experiment: Wann werden Reflexionen in Selfies zur Gefahr?

    von Dominik Bärlocher

  • Ratgeber

    Retro-Look, süss oder simpel: Nur ein Thermodrucker überzeugt mich im Test

    von Stefanie Lechthaler

  • Ratgeber

    Bundesratsfotos 1993-2021: Warum Gruppenporträts schwierig sind

    von David Lee

22 Kommentare

Avatar
later