Die Welt erlebt einen Boom bei den zugänglichen Technologien der künstlichen Intelligenz (KI). Neue Werkzeuge und Fähigkeiten bieten kriminellen und böswilligen Akteuren neue Möglichkeiten, Kinder zu missbrauchen. Während Gesetzgeber, politische Entscheidungsträger und Strafverfolgungsbehörden versuchen, mit kriminellen Innovationen Schritt zu halten, werden Kinder immer anfälliger für KI-generiertes Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material; CSAM). Neue Technologien ermöglichen es Kriminellen, CSAM in einem noch nie dagewesenen Tempo zu erstellen, zu verstärken und zu verbreiten. Ohne sofortiges Eingreifen droht dieser Trend, die Sicherheit von Kindern im Internet zu untergraben.
Was ist KI-generierte CSAM?
KI-generiertes CSAM ist synthetisches oder lebensechtes CSAM, das mit KI-Tools erstellt wurde (Clark, 2023). Diese Inhalte stellen eine doppelte Bedrohung dar: An sich ermöglichen sie die Generierung neuer und schädlicher CSAM, und gleichzeitig können Kriminelle mithilfe von KI-Tools schneller als je zuvor auf andere CSAM zugreifen und diese verbreiten.
Illegale Inhalte können veränderte Bilder von echten Kindern oder betrügerische Kreationen enthalten. Die Fähigkeit von KI-Tools, Inhalte zu erstellen, die vorher nicht existierten, wird oft als „generativ“ bezeichnet, und diese Modalität erweitert das Netz potenzieller CSAM-Opfer, sofern die Bilder in betrügerischer Absicht erstellt wurden.
KI bietet Kriminellen eine noch nie dagewesene Möglichkeit, eine unbegrenzte Menge an CSAM zu erstellen. Alle Formen von KI-generiertem CSAM sind illegal, unabhängig davon, ob sie ein echtes Kind zeigen oder widerspiegeln oder nicht. KI-Tools sind so ausgefeilt, dass die meisten KI-generierten CSAM „visuell nicht von echten CSAM zu unterscheiden“ sind, auch nicht für geschulte Analytiker (Internet Watch Foundation, 2023).
Trends und Prävalenz
Obwohl der Einsatz von KI zur Generierung und Verbreitung von CSAM relativ neu ist, gibt es neue Erkenntnisse über die von kriminellen Akteuren eingesetzten Methoden. Was die Generierung betrifft, so wird frei zugängliche KI-Software wie Stable Diffusion verwendet, um betrügerische CSAM-Inhalte zu erzeugen (Crawford und Smith, 2023).
Die Einfachheit dieser und anderer Software ermöglicht es Einzelpersonen, die nicht unbedingt über technologische Erfahrung verfügen, neue Bilder auf der Grundlage von Wortvorgaben und einfachen Anweisungen zu erstellen (Crawford und Smith, 2023). Die Text-zu-Bild-Technologie ist schnell und präzise und ermöglicht die gleichzeitige Erstellung großer Mengen von Inhalten (Internet Watch Foundation, 2023).
Für die Unterbringung und Verbreitung von CSAM werden Content-Sharing-Seiten wie Patreon genutzt, um KI-generierte CSAM-Bilder zu speichern (Crawford und Smith, 2023). Dies ermöglicht es Kriminellen, Abonnements bei denselben Diensten zu erwerben, um ständig auf Bilder zuzugreifen (Crawford und Smith, 2023). Patreon hat seine Nulltoleranz gegenüber solchen Inhalten auf seiner Website zum Ausdruck gebracht, aber es ist leichter gesagt als getan, Akteure zu identifizieren und zu sanktionieren, die diese Plattformen ausnutzen (Crawford und Smith, 2023).
Globaler Kampf gegen KI-unterstützten Online-Kindermissbrauch
Diese Herausforderung ist nicht auf Patreon beschränkt; die National Crime Agency (NCA) des Vereinigten Königreichs (UK) ist der Ansicht, dass eine stärkere Ende-zu-Ende-Verschlüsselung – der Prozess der Sicherung von Daten zwischen zwei kommunizierenden Parteien und der Verhinderung des Zugriffs Dritter darauf – innerhalb der Meta-Plattformen (Facebook, Instagram und andere) bedeuten würde, dass die Strafverfolgungsbehörden den Zugang zu 85 bis 92 % der CSAM-Empfehlungen verlieren würden, die über die Plattformen eingehen (Home Office, 2023).
Studien in den USA deuten darauf hin, dass Facebook, Instagram und WhatsApp die sozialen Medienplattformen mit dem größten Anteil an illegalem Material sind (McQue, 2024). Auf diese Plattformen folgen schnell andere große soziale Medien, was die zentrale Rolle einiger der weltweit beliebtesten Websites und Anwendungen bei der Verbreitung von CSAM widerspiegelt.
Da die Produktion von CSAM durch KI erleichtert wird, ist es schwierig, das Ausmaß und die Verbreitung von Online-Inhalten genau zu messen. Der Innenminister des Vereinigten Königreichs gab an, dass 800 Sexualstraftäter verhaftet worden seien und die Regierung 1.200 Kinder pro Monat schütze (Innenministerium, 2023), aber dies sei nicht auf den Online-Bereich beschränkt.
Darüber hinaus kann KI-Software heruntergeladen und online ausgeführt werden, was bedeutet, dass böswillige Akteure grenzenlose Inhalte erstellen können, während sie nicht mit dem Internet verbunden sind, sodass sie für die Strafverfolgungsbehörden nicht sichtbar sind (Internet Watch Foundation, 2023).
Die begrenzten existierenden Analysen deuten auf eine alarmierende Menge an KI-generiertem CSAM hin, der in kurzer Zeit produziert wird. Eine Analyse im Vereinigten Königreich ergab, dass im September 2023 in einem einzigen KI-CSAM-Forum 20.254 Bilder eingestellt wurden (Internet Watch Foundation, 2023).
In den Vereinigten Staaten von Amerika (USA) hat das National Center for Missing and Exploited Children (NCMEC) erst im Jahr 2023 damit begonnen, KI-generierte CSAM zu empfangen, und hat bereits Meldungen von bis zu 5.000 Inhalten erhalten (McQue, 2024). Im Jahr 2023 gingen bei der Cyber Tipline der USA fast 36 Millionen Meldungen zu CSAM-Vorfällen ein, wobei über 90 % der Inhalte im Ausland hochgeladen wurden und über 60.000 der Meldungen ein Kind betrafen, das sich in unmittelbarer Gefahr befand (McQue, 2024).
Strafverfolgung und politische Antworten
Angesichts des bereichsübergreifenden Charakters der KI-generierten CSAM-Herausforderung sind sektorübergreifende Ansätze erforderlich, um diesen Trend sinnvoll zu unterbrechen. Im privaten Sektor haben sich 27 Organisationen, darunter TikTok und Snapchat, kürzlich mit mehreren Regierungen, darunter die USA, Deutschland und Australien, zusammengeschlossen, um neue Wege zur Bekämpfung von KI-generiertem CSAM zu erkunden (Clark, 2023).
Auch bilaterale und multinationale Regierungsinterventionen kommen allmählich zum Vorschein: 2023 gaben die USA und das Vereinigte Königreich eine gemeinsame Erklärung ab, in der sie ihr Engagement für die Bekämpfung generativer KI bekräftigten (Home Office und US Secretary of Homeland Security, 2023). Unterstützt wurde dies durch ein wegweisendes Gesetz der britischen Regierung, das Online Safety Bill, das strengere Anforderungen an privatwirtschaftliche Unternehmen stellt, damit diese alles in ihrer Macht Stehende tun, um CSAM-Inhalte zu identifizieren und von ihren Websites zu entfernen (Home Office, 2023).
Strategische Antworten auf KI-generierten CSAM
Die wachsende Bedrohung durch KI-generierten CSAM erfordert schnelles und entschlossenes Handeln. Neben anderen Maßnahmen gibt es einige wesentliche Schritte, die Regierungen unternehmen müssen, um eine effektive Reaktion zu ermöglichen.
- Regierungen müssen ihre CSAM-Gesetzgebung, wo nötig, aktualisieren und sicherstellen, dass sie die Überwachung von KI-generiertem CSAM angemessen fördert und Wege für Verhaftungen und Strafverfolgung schafft (Internet Watch Foundation, 2023).
- Regierungen müssen mit ausländischen und benachbarten Rechtsräumen zusammenarbeiten, um ihre Verfahren und Vorschriften für KI-generierten CSAM anzugleichen (Internet Watch Foundation, 2023). Uneinheitliche rechtliche Rahmenbedingungen schaffen Schlupflöcher, die kriminelle Akteure ausnutzen können.
- Regierungen müssen die Arbeit der Technologieentwickler des privaten Sektors überwachen und regulieren, die oft schneller Neuerungen einführen, als die politischen Entscheidungsträger neue kriminelle Aktivitäten gesetzlich regeln können. Zumindest müssen die Technologieunternehmen aufgefordert werden, CSAM auf ihren Plattformen eindeutig zu verbieten und aktiv nach Möglichkeiten zu suchen, die Verbreitung schädlicher Inhalte über ihre Plattformen zu verhindern.
- Die Strafverfolgung muss im Umgang mit KI-Tools geschult werden, damit sie KI-generierte CSAM erkennen und verarbeiten kann. Wo Ressourcenbeschränkungen bestehen, sollten die Strafverfolgungsbehörden aufgefordert und unterstützt werden, neue Wege zur Bekämpfung der Verbreitung von CSAM zu entwickeln.
- Forschungseinrichtungen sollten nach Möglichkeiten suchen, die Beweisgrundlage für KI-generierten CSAM zu verbessern. Derzeit gibt es weder ein standardisiertes Verständnis des Ausmaßes der Bedrohung noch eine solide Analyse der Orte, an denen sich die Inhalte online befinden. Dies untergräbt die Reaktion der Strafverfolgungsbehörden.
Humanium setzt sich für den Schutz der Rechte von Kindern und deren Sicherheit im digitalen Zeitalter ein. Indem Sie unsere Bemühungen durch Spenden, Freiwilligenarbeit oder Interessenvertretung unterstützen, können Sie uns helfen, Kinder auf der ganzen Welt zu schützen. Unterstützen Sie uns auf unserer Mission, die digitale Welt zu einem sichereren Ort für zukünftige Generationen zu machen.
Geschrieben von Vanessa Cezarita Cordeiro
Übersetzt von Michael Aschenbrenner
Lektorat durch Karolina Hofman
Bibliographie:
Clark, E. (2023, October 31). “Pedophiles using AI to generate child sexual abuse imagery.” Retrieved from Forbes, accessed 22 April 2024.
Crawford, A and Smith, T. (2023, June 28). “Illegal trade in AI child sex abuse images exposed.” Retrieved from BBC News, accessed 22 April 2024.
Home Office and US Secretary of Homeland Security. (2023, September 27). “A joint statement from the United States and the United Kingdom on combatting child sexual abuse and exploitation.” Retrieved from Home Office, accessed 22 April 2024.
Home Office. (2023, September 27). “UK and US pledge to combat AI-generated images of child abuse.” Retrieved from Home Office, accessed 22 April 2024.
Internet Watch Foundation. (2023, October 25). “‘Worst nightmares’ come true as predators are able to make thousands of new AI images of real child victims.” Retrieved from Internet Watch Foundation, accessed 22 April 2024.
Internet Watch Foundation. (2023, October). “How AI is being abused to create child sexual abuse imagery.” Retrieved from Internet Watch Foundation, accessed 22 April 2024.
McQue, K. (2024, April 16). “Child sexual abuse content growing online with AI-mad images, report says.” Retrieved from The Guardian, accessed 22 April 2024.