Die Gaza-Fakes: Für Dummies erklärt
Es tobt ein Informationskrieg. Das dürfte inzwischen eine Binsenweisheit sein. Doch in diesem Krieg kommen zum ersten Mal auch hochmoderne Waffen zum Einsatz. Nämlich mit künstlicher Intelligenz generierte Bilder.
Ich erkläre das einmal für „Dummies“, die nicht so netzaffin sind oder wenig Ahnung von Computerzeug haben.
Zunächst eines vorweg:
Selbstverständlich sterben im Gazastreifen Menschen. Selbstverständlich sterben dort auch Frauen und Kinder. Es ist völliger Quatsch, das leugnen zu wollen. Oder mir zu unterstellen.
Ich möchte erklären, was es mit diesen Fake-Bildern auf sich hat und woran man sie erkennen kann.
Dazu muss man ein wenig von Grafik und von Computern wissen.
Und bevor Klugscheißer kommen: Leute, das ist hier für Dummies. Nicht für Profis. Bleibt gnädig, Mut zur Lücke. Ihr Rasselbande.
Die Grafik
Die Königsdisziplin der Grafik ist die vektorisierte Grafik.
Angenommen ich mal ein schwarzes Quadrat auf weißem Grund, speichert die vektorisierte Grafik nur „Vektoren“. Sie speichert die vier Ecken des Quadrats, und die Informationen, dass innerhalb dieser vier Ecken alles schwarz und außerhalb alles weiß ist. Das war’s.
Diese Grafiken kann man später endlos aufblähen, also so groß machen, wie man will. Man nutzt so etwas beispielsweise für Kinofilme, Werbung an Bushaltestellen und ähnliches.
Bei einem Bild im Internetz läuft das aber alles etwas anders. Ein Bild auf einem Computer besteht eigentlich aus winzig kleinen Farbquadraten, den so genannten Pixeln.
Erstelle ich das Bild mit dem schwarzen Quadrat als „Pixel“ Datei, merkt der Computer sich: Oben links, erstes Quadrat: weiß; zweites Quadrat: weiß; drittes… und so weiter. Bis in einer Reihe dann mal kommt: schwarz.
Unser Hirn setzt das dann wieder zu einem Bild zusammen. So funktioniert das dann auch mit Farben. Erstes Quadrat: gelb; zweites Quadrat: gelbgrün, drittes Quadrat: hellgrün, viertes Quadrat: grün… und wir sehen dann einen Farbverlauf.
Hinzu kommt die Auflösung. Ein Grafiker arbeitet üblicherweise mit einer Auflösung von 300 dpi (dots per inch, Punkte pro Inch). Das Internetz stellt aber nur 72dpi dar. Immer.
Bedeutet: wenn ich ein Bild hochlade, wird es automatisch auf 72dpi umgerechnet. Wenn ich jemandem beispielsweise per PN auf Facebook ein Bild schicke, rechnet Facebook es in 72dpi um. Völlig egal, wie groß es dann nachher auf dem Monitor oder Handy zu sehen ist, es wird auf jeden Fall umgerechnet, wenn es nicht 72dpi hat.
Will ich jemandem ein Bild in einer großen Auflösung schicken, muss ich die geschlossene Datei verschicken. Also beispielsweise als Anhang per Mail.
Und das macht es dann sehr leicht, Fälschungen zu bauen. Denn man kann ja nicht mit der Lupe darauf gucken. Selbst wenn man mit einer Lupe am Monitor guckt, sieht man irgendwann nur noch die Pixel. Und wenn man es ausdruckt und mit der Lupe guckt, sieht man die Spritzer vom Drucker. Im Bildbearbeitungsprogramm Photoshop kann man so weit reinzoomen, bis man die einzelnen Pixel sieht.
Ein Foto, also so richtig mit Negativ und Fotopapier, ist viel schwerer zu fälschen.
Die künstliche Intelligenz
Künstliche Intelligenz (KI, engl.: „artificial intelligence“ AI) bedeutet, dass man Computerprogramme schreibt, die selber dazulernen können.
Beispielsweise ein Programm für Handschriftenerkennung. Was es ja teilweise so auch schon bei Banken gibt, oder bei Anträgen bei Behörden.
Ein „normales“ Programm hat die Buchstaben gespeichert und gleicht sie mit dem Buchstaben ab, die es sieht. Doch das führt zu Fehlern. Weil wir ja nicht sauber Druckbuchstaben schreiben.
Ein „intelligentes“ Programm erkennt einen Buchstaben vielleicht nicht. Aber es kann sich, wie das menschliche Hirn, etwas zusammenreimen. Wenn es beispielsweise in einer Adresszeile hinten einen Buchstaben nicht erkennt, kann es aus dem „sta“ davor und dem „t“ dahinter erkennen, dass der Buchstabe sicher ein „d“ ist. Und ein gutes Programm gleicht das dann mit allen „d“ im Text ab und merkt sich das.
Und so muss man sich KI-Grafik vorstellen.
Das Programm hat viele Bilder gelesen und „gelernt“, und kann sich daraus etwas zusammenreimen.
Und dafür gibt es sogar schon Anwendungen, die frei im Netz zu finden sind. Da gibt man dann beispielsweise ein, was man haben will. Ein Firmenlogo, einen Löwen oder einen Hut. Man kann die Farbe eingeben, die Größe, und so weiter.
Man kann aber auch andere Bilder eingeben. Beispielsweise ein Bild von einem Mann und einer Frau, und das Programm macht dann daraus ein Bild von einem Mann und einer Frau, die scheinbar zusammen vor einer Kamera posieren.
Dem Ganzen sind keine Grenzen gesetzt. Und die Fortschritte sind enorm, der ganze Bereich hat in den letzten drei Jahren erst so richtig Fahrt aufgenommen.
Gerade gibt es beispielsweise einen Boom im asiatischen Bereich mit Bildern von jungen Frauen, von Erotik bis zu Porno. Vermutlich, da die fernöstliche Manga-Ästhetik für solche Programme sehr leicht umsetzbar ist. Auf einem Handy werden die sicher häufig sehr echt aussehen. …wenn da nicht gerade eine Manga-Figur im Hintergrund sitzt, weil das Programm da etwas falsch zusammengewürfelt hat. Denn Maschinen sind und bleiben nun einmal doof.
Nein, auch die Frau im Vordergrund gibt es nicht. Die ist genauso real, wie die hinten auf der Couch.
Der Vater mit den fünf Kindern
Und genau solche Bilder werden nun auch für die Propaganda eingesetzt. Zumeist emotionalisierende Bilder von Opfern. Aber auch die Bilder zu Boykottaufrufen gegen westliche Firmen sind häufig KI-generiert. Das hatte ich schon einmal auseinanderklamüsert und konnte zeigen, dass viele dieser Bilder aus der Türkei verteilt wurden.
Für diesen Newsletter habe ich einmal in die Abgründe von X verstiegen und mir bis vier Uhr morgens Propaganda Accounts angeguckt.
Viele dieser Bilder werden vermeintlich aus Pakistan online gestellt. Doch ich habe mehrere solcher Accounts gefunden, und alle haben auch schiitische Inhalte gepostet. Beispielsweise Lobeshymnen auf den Chef der Hisbollah Hassan Nasrallah. Deshalb gehe ich von der Quelle Iran aus. Zumal auch über Saudi-Arabien abgezogen wurde, die in der schiitischen Propaganda häufig mit Homosexualität in Zusammenhang gebracht werden.
Das bedeutet aber, dass auch Troll-Fabriken oder Accounts in Indien oder der Türkei sitzen können.
Als Beispiel habe ich ein Bild gesucht, das schon bei ein oder zwei Medien „ausgewertet“ wurde. Ich finde es so passend, weil es so emotionalisierend und typisch ist. Aber auch, weil es so viele Fehler enthält, die man auf dem Handy beim scrollen sicher erstmal gar nicht sieht.
Die KI-Programme haben noch einige große Probleme. Zum Beispiel kommen sie nicht mit Fingern zurecht. Sie können das offenbar nicht abgleichen, weshalb da immer wieder Fehler auftauchen. Zudem haben sie Probleme mit der Anordnung von Extremitäten. Da kann eine rechte Schulter schon mal in einem linken Arm enden. Solche Dinger gab es sogar schon in der Werbung, wo das Modell plötzlich eine dritte Hand hatte.
Ein anderes Problem scheinen Gesichtszüge zu sein, wo Augen gerne mal als schwarze Löcher erscheinen.
Mit der Lupe zu gucken bringt aber auch nichts. Deshalb habe ich das mit den 72dpi erklärt.
Denn häufig sehen solche Fehler einfach so aus, als wäre die Qualität so schlecht. Manchmal werden solche Bilder auch groß erstellt und dann wieder verkleinert, um absichtlich ungenau zu werden. Für den Laien sieht es dann aus, als wäre da einfach der Computer schuld.
Trotzdem habe ich das ausgewertete Bild auch nochmal auf dem U.M.-Server bereitgestellt. (Klick auf Bild) Es kann aber auch jeder das Bild speichern und dann großziehen.
Zunächst einmal sieht das Gesicht des Mannes ja aus, wie von einem Toten. Er könnte selber von Schutt bedeckt gewesen sein, dann ist aber die Frage, warum er und seine Kinder nicht. Was auch merkwürdig erscheint ist, dass da im Hintergrund in den Trümmern von Gaza ein Jedi rumsteht. Oder Ninja, wer weiß das schon?
Das eine Kind hat sechs Zehen, dafür wurde das arme Baby offenbar nur mit drei Zehen geboren. Die Füße des Kindes links verschwinden in den Steinen, was der Vater dadurch ausgleicht, Quadratlatschen mit etwa 20 Zehen zu haben. Der Sohn zur Rechten hat wohl nur ein Auge. Und ein merkwürdig tief sitzendes Bein. Aberes ist völlig unlogisch, wo dieser merkwürdige Arm in der Mitte herkommt.
Das sind typische Zeichen einer fehlerhaften KI-Grafik.
Das Bild wurde am 27.10. auf dem Propaganda-Account gepostet und steht dort auch nach wie vor. Es wurde tausende Male „retweetet“, also verbreitet.
Ähnliche Bilder gibt es unter anderem mit einem vermeintlichen Toten und einer Familie, die scheinbar in den Trümmern isst.
Diese Bilder sind jedoch nur eine Waffe im Arsenal der Propagandisten. Es wurden auch händisch Bilder verändert, alte Bilder als neue ausgegeben und so weiter.
Ich erinnere an das Bild des angeblich zerstörten Leopard in der Ukraine, der aber nur einen Unfall bei der Ausbildung in Polen hatte, während noch gar keine Leos in der Ukraine waren. Also selbst durch die Dekontextualisierung kann man Fakes produzieren.
Medienkompetenz ist wichtiger denn je. Und sie wird immer wichtiger.
Wenn man mal so ein Bild nicht gleich als Fake erkennt, dann ist das so. Aber man sollte immer aufpassen, woher ein Bild stammt, wer etwas verbreitet, was der Account sonst noch verbreitet, und so weiter. Das muss nun einmal jeder leisten, wenn er den ganzen Tag auf dem Handy Medien rezipiert. Die Zeiten von einmal täglich Zeitung lesen unwiederbringlich sind vorbei.