Der KI-generierte Albtraum des Kindesmissbrauchs ist da
Im Jahr 2023 hat die Internet Watch Foundation (IWF) ihre ersten Berichte über Material über sexuellen Kindesmissbrauch (CSAM) untersucht, das durch künstliche Intelligenz (KI) erstellt wurde.
Die ersten Untersuchungen haben eine Welt der „Text to Image”-Technologie zum Vorschein gebracht. Kurz gesagt: Man gibt in Online-Generatoren ein, was man sehen will. Die Software erzeugt das Bild.
Ein Beispiel:
Unser Prompt (ChatGPT/ DALL.E3)
“Zeichne mir bitte das Wort "MIMIKAMA" in einem Bilderrahmen, der an der Wand eines Büros hängt. Das Büro soll aus den 50er Jahren stammen. Die Möbel sollen im Vintage-Stil dargestellt werden. Es gibt 2 Schreibtische mit je einer Schreibmaschine. An jedem Tisch sitzt 1 Mann. Auf den Tischen sind Namensschilder. Auf einem steht "Andre", auf dem anderen "Tom". Im Büro stehen auch 2 Pflanzen! Und auf dem Boden liegt in einem Hundekorb ein kleiner Hund, der schwarz-weiß gefleckt ist.”
Das Ergebnis:
Auch wenn dies ein gut gemeintes Beispiel ist, kann es für andere Zwecke missbraucht werden, z.B. um Bilder von Kindesmissbrauch zu erstellen.
Die wichtigsten Ergebnisse dieses Berichts lassen sich wie folgt zusammenfassen:
Innerhalb eines Monats wurden insgesamt 20.254 durch künstliche Intelligenz erzeugte Bilder in einem CSAM-Forum im Dark Web veröffentlicht.
Davon wurden 11.108 Bilder für eine Bewertung durch IWF-Analysten ausgewählt. Dies waren die Bilder, die am wahrscheinlichsten als kriminell eingestuft wurden.
(Die restlichen 9.146 KI-generierten Bilder enthielten entweder keine Kinder oder sie enthielten zwar Kinder, waren aber eindeutig nicht krimineller Natur).
12 IWF-Analysten investierten insgesamt 87,5 Stunden in die Bewertung dieser 11.108 KI-generierten Bilder.
Alle Bilder, die als kriminell eingestuft wurden!
In einer Welt, die zunehmend von künstlicher Intelligenz (KI) beherrscht wird, ist ein beunruhigender neuer Trend aufgetaucht - die Erstellung von Bildern von Kindesmissbrauch durch KI-Technologien. Ein Bericht der Internet Watch Foundation (Opens in a new window) (IWF) zeigt, wie kriminelle Netzwerke generative KI-Modelle nutzen, um sehr realistische Bilder von Missbrauchsopfern zu erstellen und zu verbreiten.
Die Mechanismen des Missbrauchs
Täter nutzen frei verfügbare KI-Modelle, um neue Bilder von existierenden Missbrauchsopfern zu generieren. Ursprünglich für die Produktion von Kunst und realistischen Bildern entwickelt, werden diese Modelle nun pervertiert, um kinderpornografisches Material (Child Sexual Abuse Material, CSAM) zu erstellen. Dies geschieht, indem die KI mit bereits existierenden Missbrauchsbildern und Fotos von Gesichtern gefüttert wird, die es ermöglichen, bestimmte Personen zu reproduzieren. Dies hat zu einer erschreckenden Zunahme von Bildern geführt, die schweren Missbrauch, einschließlich Vergewaltigung von Babys und Kleinkindern, zeigen.
Diese KI-Bilder können so überzeugend sein, dass sie von echten Bildern nicht zu unterscheiden sind.
Verbreitung und Zugänglichkeit
Die Leichtigkeit, mit der diese Bilder erstellt und verbreitet werden können, hat zu einem Boom bei monatlichen Abonnements für KI-generierte CSAM geführt. Die Bilder werden über das Internet und private Netzwerke verkauft und verbreitet. Die Analysten der IWF und anderer Organisationen, die sich mit der Bekämpfung solcher Inhalte befassen, stehen vor der gewaltigen Aufgabe, diese Bilder zu identifizieren und zu klassifizieren.
Die Reaktion der Technologiefirmen
Technologieunternehmen stehen vor der Herausforderung, ihre Modelle so zu gestalten, dass die Erzeugung von CSAM erschwert wird. Einige haben bereits Maßnahmen ergriffen, indem sie ihre Algorithmen angepasst haben, um die Erstellung expliziter Bilder zu verhindern. Die Frage der Haftung bleibt jedoch brisant, da ältere Modelle weiterhin missbraucht werden und die Technologie sich ständig weiterentwickelt.
Experten sagen die Zukunft von Technologie, KI und Menschheit voraus
Das Ausmaß des Problems zu erfassen, ist eine Herausforderung. Im September konzentrierten sich die IWF-Analysten auf ein unbenanntes Dark-Web-Forum von CSAM, das sich im Allgemeinen auf Softcore-Bilder und Bilder von Mädchen konzentriert. In einem neueren KI-Bereich des Forums wurden im vergangenen Monat insgesamt 20.254 KI-generierte Fotos gepostet, wie die Forscher herausfanden. Ein Team von 12 Analysten der Organisation verbrachte 87,5 Stunden damit, 11.108 dieser Bilder zu analysieren.
Insgesamt stufte die FIM 2.978 Bilder als strafbar ein. Die meisten davon - 2.562 - waren realistisch genug, um genauso behandelt zu werden wie Bilder ohne KI-CSAM. Die Hälfte der Bilder wurde in die Kategorie C (Opens in a new window)eingestuft, was bedeutet, dass sie unanständig sind. 564 davon zeigten die schwersten Formen des Missbrauchs. Die Bilder zeigten wahrscheinlich Kinder im Alter zwischen 7 und 13 Jahren, wobei es sich laut IWF zu 99,6 Prozent um weibliche Kinder handelte. (Von den Tausenden nicht kriminellen KI-generierten Bildern, die die Forscher untersuchten, zeigten die meisten zwar Kinder, aber keine sexuellen Aktivitäten, so die IWF).
„Das Ausmaß, in dem solche Bilder erstellt werden können, ist beunruhigend“, sagt Nishant Vishwamitra, Assistenzprofessor an der University of Texas in San Antonio, der sich mit der Erkennung von Deepfakes und KI-CSAM-Bildern im Internet beschäftigt. Der IWF-Bericht stellt fest, dass die Organisation zunehmend feststellt, dass einige Schöpfer missbräuchlicher Inhalte für Bilderstellungsdienste werben, einschließlich der Erstellung „maßgeschneiderter“ Bilder und des Angebots monatlicher Abonnements.
Dies kann sich noch verstärken, wenn die Bilder immer realistischer werden. „Einige Bilder werden so gut, dass es für einen Analysten schwierig ist, zu erkennen, ob sie tatsächlich von KI erzeugt wurden oder nicht“, sagt Lloyd Richardson vom kanadischen Zentrum für Kinderschutz. Der Realismus ist auch ein potenzielles Problem für Ermittler, die stundenlang Missbrauchsbilder durchsuchen, um sie zu klassifizieren und die Opfer zu identifizieren. Laut dem neuen Bericht der Organisation sagen IWF-Analysten, dass sich die Qualität schnell verbessert hat - obwohl es immer noch einige einfache Anzeichen dafür gibt, dass die Bilder möglicherweise nicht echt sind, wie zusätzliche Finger oder schlechte Beleuchtung. „Ich bin auch besorgt, dass zukünftige Bilder so gut sein könnten, dass wir es nicht bemerken werden“, wird ein anonymer Analyst in dem Bericht zitiert.
Schlussfolgerung
Die Forschung und Berichterstattung über KI-generierte CSAM öffnet die Augen für eine dunkle Seite der KI-Entwicklung, die dringend angegangen werden muss. Es bedarf eines globalen, koordinierten Vorgehens von Technologieunternehmen, Gesetzgebern und Strafverfolgungsbehörden, um diese Form des Missbrauchs zu bekämpfen und die Sicherheit und Unversehrtheit unserer Kinder zu gewährleisten.
Bevor Du weiterziehst: Wir stecken viel Herzblut in unsere Recherche und Artikel. Wenn Du magst, was wir tun, und uns unterstützen willst, überleg doch mal, Mitglied bei Mimikama auf Steady zu werden. Jeder Beitrag hilft uns, weiterhin die Fakten zu prüfen und die Wahrheit zu verbreiten.
(Opens in a new window)Werde ganz einfach Mitglied, indem Du auf den Button klickst und ein Paket aussuchst, das zu Dir passt. Wir sind für jede Unterstützung dankbar!
Hinweis: Auch das Artikelbild wurde mit einer „Text to Image”-Technologie erstellt, und zwar mit Midjourny 5.2
Quelle: WIRED (Opens in a new window)