In einer alarmierenden Erhebung hat eine britische Kinderschutzorganisation Tausende von KI-generierten Darstellungen von Kindesmissbrauch im Internet entdeckt und schlägt Alarm vor der potenziellen Flut solcher Bilder. Diese Darstellungen sind mittlerweile so realistisch, dass selbst erfahrene Experten keinen Unterschied zu echten Fotos erkennen können, was rechtliche Konsequenzen nach britischem Recht nach sich zieht.
Besorgniserregend ist, dass einige der kriminellen Akteure, die für die Erstellung dieser Bilder verantwortlich sind, auf schockierende Weise echte Opfer von Kindesmissbrauch ausnutzen, um mithilfe von KI neue, beunruhigende Bilder zu generieren. Darüber hinaus verwenden einige diese Technologie, um Darstellungen von Prominenten als Kinder zu erstellen, die sexuellem Missbrauch ausgesetzt sind.
Die Internet Watch Foundation (IWF) veröffentlichte kürzlich einen Bericht, der beunruhigende Einblicke in dieses düstere Phänomen gewährt. Im September allein wurden in einem einzigen Darknet-Forum mehr als 11.000 KI-generierte Bilder identifiziert und überprüft. Fast 3000 davon wurden als gesetzeswidrig eingestuft, wobei mehr als 2500 so realitätsnah erschienen, dass sie nach britischem Recht als echte Missbrauchsdarstellungen behandelt werden müssen. Mehr als ein Fünftel dieser Bilder fiel in die schlimmste Kategorie von Missbrauchsdarstellungen, und über die Hälfte zeigte KI-generierte Kinder im Alter von sieben bis zehn Jahren. Alarmierenderweise zeigten über 140 dieser „Pseudofotografien“ kleinere Kinder, sogar Babys.
Die IWF hebt hervor, dass Kriminelle inzwischen alle erforderlichen Werkzeuge zur Erstellung solcher Bilder legal aus dem Internet herunterladen können. Sie können offline unentdeckt beliebig viele solcher Bilder erzeugen und verwenden Tools, um die Qualität ihrer Darstellungen zu verbessern. Die Verbreitung von Anleitungen dafür ist derzeit nicht strafbar, doch die IWF drängt auf eine Änderung dieser Situation.
Eine besonders beunruhigende Facette dieser neuen Technologie ist die Fähigkeit, auf der Grundlage bereits existierender Missbrauchsdarstellungen neue Bilder der Opfer zu erstellen. Dies bedeutet, dass Opfer nicht mehr nur mit der Sorge leben müssen, dass bereits existierende Fotos im Darknet kursieren, sondern auch mit dem Risiko, auf nie zuvor dagewesene Aufnahmen zu stoßen. Die IWF-Chefin, Susie Hargreaves, betont, dass dies bereits Realität ist und es nicht mehr nur um hypothetische Szenarien geht.
Die Organisation warnt auch davor, dass die wachsende Flut solcher Bilder die Strafverfolgungsbehörden überwältigen und echten Opfern möglicherweise nicht mehr helfen könnte, da nach Opfern gesucht wird, die in Wirklichkeit nie existiert haben. Die Notwendigkeit, diesem schockierenden Trend entgegenzuwirken und das Gesetz anzupassen, ist dringlicher denn je, um die Sicherheit und das Wohlergehen derjenigen zu schützen, die am schutzlosesten sind.
Gib den ersten Kommentar ab