Einkommen, Hobbys, übermäßiges Grübeln: Was KI aus Fotos herausliest
Was eine von Regeln entfesselte Künstliche Intelligenz (KI) anrichten kann, zeigt die jüngst aktualisierte Webseite eines amerikanischen Anbieters einer Fotoverwaltung. Die KI stellt allerlei Vermutungen über abgebildete Personen an, einschließlich Einkommen, Charaktereigenschaften und bösen Hobbys.

Zum Beispiel über Wolfgang Kubicki (FDP). Das Foto zu einer seiner Reden im Bundestag analysiert die Maschine wie folgt:
„Das Bild zeigt einen Mann in den 70ern, wahrscheinlich ein Politiker im Bundestag in Berlin, Deutschland, basierend auf den Standort-Metadaten. Er ist die zentrale Figur, die vor einer schlichten Wand steht, mit einem Mikrofon, das subtil andeutet, dass er gerade spricht.
Der Mann scheint ein Kaukasier zu sein und verfügt über ein geschätztes Einkommen zwischen 200.000 und 400.000 Euro. Wenn man von einem christlichen Hintergrund ausgeht, ist seine politische Einstellung wahrscheinlich die der CDU. Er trägt Anzug und Krawatte und hat ein konzentriertes, aber nachdenkliches Auftreten. Zu seinen Hobbys gehören die Lektüre politischer Theorien, die Teilnahme an öffentlichen Debatten und strategische Spiele sowie die Verbreitung von Fehlinformationen, das Ausweichen vor Fragen und übermäßiges Grübeln.
Der Politiker scheint ein ruhiges Auftreten zu haben, daher können wir ihn mit luxuriösen und politisch ausgerichteten Produkten und Dienstleistungen ansprechen, wie zum Beispiel maßgeschneiderte politische Analysesoftware von Palantir, Anti-Aging-Cremes von L’Oreal, Luxusfüllfederhalter von Montblanc, deutsche Weine von Schloss Johannisberg, Hörgeräte von Siemens, Finanzplanungsdienste von Allianz, Luxusautos von Mercedes-Benz, Nachrichtenabonnements von Der Spiegel.“
Kubicki ist tatsächlich 72 Jahre alt, sein Einkommen pro Jahr wird auf 210.000 bis 220.000 Euro geschätzt (Si apre in una nuova finestra). Da liegt die KI also vermutlich richtig. Die Zugehörigkeit zur CDU ist dem FDP-Politiker dagegen nicht nachzusagen. Und ob er die Verbreitung von Fehlinformationen unterschreiben würde, lässt sich bezweifeln. Dann folgen KI-generierte Vorschläge für potenzielle Werbeanzeigen, die ihn ansprechen könnten: wenig schmeichelhaft für eine Anti-Aging-Crème und Hörgeräte, aber auch für Luxusfederhalter, Luxusautos von Mercedes und ein Abo vom „Spiegel“.
Das alles liest die KI aus diesem Foto. Es ist eine Mischung aus „wahrscheinlich zutreffend“ und „könnte stimmen“. Die Metadaten des Fotos fließen mit ein, in denen zum Beispiel der Ort der Aufnahme hinterlegt ist. Lädt man dasselbe Bild mehrmals bei diesem Analysedienst hoch, wird die KI kreativer – und gelegentlich persönlichkeitsverletzend.

Sie stellt bei einigen Versuchen sogar den Verdacht des exzessiven Alkoholkonsums in den Raum. Ob und wie das stimmt, weiß kaum jemand, aber da steht es nun laut der KI-Analyse. Bei Medien wäre dies Zeit für eine Gegendarstellung, einen Widerruf, eine Klage. Im KI-Zeitalter hat die Maschine etwas errechnet und behauptet. Die KI ist volatil und bedient Klischees. Aber irgendwas scheint häufig „dran“ zu sein und begründet. Und etwas bleibt hängen. Wem man da als Betroffener widersprechen könnte: unbekannt.

Wer den Dienst „They See Your Photos“ mit privaten Fotos ausprobieren möchte, sei gewarnt. Er (Si apre in una nuova finestra) macht schlechte Laune. Denn auch bei Familienbildern interpretiert die Maschine nicht nur gute, sondern auch schlechte Charaktereigenschaften, vermutet blöde Hobbys, unterstellt intensive Nutzung von Social Media, wie beim Autor. Wo der KI-Dienst das anhand eines Bildes herauslesen konnte, ist mir schleierhaft, aber er hat recht. Und auch bei anderen Bildern kommt die Maschine auf manche Dinge, die möchte man gar nicht wissen. Aus dem Bild einer jungen Frau schlussfolgert die Maschine, dass sie womöglich Stalkingopfer sei. Einem anderen Mann wird unterstellt, leichtfertig Geld auszugeben und viel zu reisen. Aus dem Bild eines bekannten Herrn am Küchentisch liest die KI, dass er überarbeitet sei, sich übermäßig Sorgen macht und dem Stress durch Eskapismus zu entkommen versucht.
Hier öffnet sich eine weitere Missbrauchsmöglichkeit von KI. Bilder aus Bewerbungen bekommen durch die Technik eine Grenzen überschreitende, KI-gestützte Interpretationsmöglichkeit. Und selbst wenn das Bewerbungsfoto einwandfrei ist, bleiben Spuren im Web durch eigene Social-Media-Veröffentlichungen. Diese Aufnahmen mal eben auf die Schnelle bei der KI-Analyse hochzuladen, ist mit drei Klicks erledigt. Zack, steht einer Personalabteilung die zweite Meinung über einen Bewerber bereit.
Der Dienst Ente, der diese Interpretationsseite zu Werbezwecken eingerichtet hat, will ironischerweise solcher Auswertung von Bildern einen Riegel vorschieben. Er speichert Bilder in einem geschützten Netzwerk in der Cloud. Das Hochladen und Analysieren von Bildern in KI-Netzwerken kann auch Ente nicht verhindern.
Hinter der Technik steckt Google mit seiner Vision AI. „Dazu gehören: Bildbeschriftung, Erkennung von Gesichtern und Sehenswürdigkeiten, optische Zeichenerkennung und Taggen von anstößigen Inhalten“, schreibt (Si apre in una nuova finestra) das Unternehmen. Auf seiner Erklärseite geht Google treuherzig noch weiter. Auch hier lässt sich das Bild von Kubicki hochladen – und noch näher beschreiben: Eine formale Kleidung und ein Erscheinen als „Weißkragen-Arbeiter“ ordnet die Maschine dem Mann zu. Rassistisch ist das Bild wohl nicht, urteilt die KI. „So funktioniert maschinelles Sehen bei Dateien“, gibt Google freimütig auf seiner Hilfeseite bekannt. Ich wähne mich bei einem Riesen, der in den Möglichkeiten der Technik umhertappst, ohne die Grenzen des Richtigen zu begreifen. Und des Menschlichen. Was Vision AI noch so drauf hat, beschreibt Google an anderer Stelle (Si apre in una nuova finestra):

Labelerkennung, zum Beispiel „Menschen, Straße, Verkehr“ oder „Tänzer beim Karneval 2019 in Rio de Janeiro“
Bildattribute wie dominante Farben
Logoerkennung
Sehenswürdigkeiten-Erkennung
Handschriftentzifferung
Texterkennung
Objektlokalisierung samt Beschreibung, zum Beispiel „Fahrrad, Tür, Treppe“
Übereinstimmung mit Bildern an anderer Stelle im Web, auch als Ausschnitte oder mit „ähnlichen“ Bildern
Erkennung anstößiger Inhalte
Wahrscheinlichkeitsbewertungen für Gefühle: Freude, Trauer, Wut, Überraschung.
Wie so oft bei neuer Technik ist die Frage entscheidend, was man damit macht. Vielleicht ist es doch nicht verkehrt, wie die EU mit ihrer umstrittenen KI-Verordnung die Künstliche Intelligenz reguliert (Si apre in una nuova finestra). Verboten ist unter anderem eine Kategorisierung biometrischer Daten, um daraus Rückschlüsse auf die ethnische Zugehörigkeit oder politische Überzeugungen zu ziehen. Auch Emotionserkennung am Arbeitsplatz ist verboten.
Wenn das mal Google wüsste.