Es auf die Technik zu reduzieren ist bequem … und falsch. Denn es handelt sich hier nicht um einen Systemfehler oder Bug, sondern um ein geschaffenes, leicht zugängliches kriminogenes Setting. Und genau das macht den Fall so gefährlich.
Nicht jede Person mit problematischen Fantasien wird Täter:in – aber jede Tat braucht eine Gelegenheit.
Sexualisierte KI und Täter:innenlogiken
Aus den Erfahrungen in der Täter:innenarbeit heraus kann man feststellen, das sexualisierte Gewalt nicht durch „böse Menschen“ entsteht, sondern aus einem Zusammenspiel von individuellen Dispositionen (Sozialisation, sexuelle Skripte mit Macht- und Kontrollfokus,…) UND Gelegenheitsstrukturen (welche entweder geschaffen werden oder gezielt gesucht, wenn vorhanden).
Oder vereinfacht gesagt: Nicht jede Person mit problematischen Fantasien wird Täter:in – aber jede Tat braucht eine Gelegenheit.
Und Grok liefert leider genau diese Gelegenheit, durch die Möglichkeit
- Reale Menschen ohne Zustimmung zu entkleiden,
- Intime Darstellungen von ihnen zu erzeugen
- und auch Kinder zu sexualisieren.
Dadurch werden gleich mehrere zentrale protektive Faktoren, sprich Schutzbarrieren, vor sexuellen Übergriffen durch Täter:innen gesenkt, nämlich
- der Schamaspekt,
- Angst vor einer Entdeckung,
- moralische Hemmungen und
- soziale Kontrolle.
Was bleibt, ist ein hochwirksamer Trigger für Menschen, die bereits eine Präposition für sexualisierte Grenzverletzungen haben.
Wer ein Hochrisikosetting schafft, trägt Mitverantwortung für das, was darin passiert. Das gilt offline – und online erst recht. Wenn beispielsweise ein Clubbetreiber keine Beleuchtung, Türkontrollen, Hausregeln oder Interventionsmaßnahmen bei Übergriffen hat, ist er zwar nicht Täter, aber Teil des Problems.
Aktivierung von kriminogenen Faktoren
Aus forensisch-psychologischer Sicht wirkt Grok daher wie ein Verstärker für klassische Risikofaktoren sexualisierter Gewalt.
Wenn die KI auf Knopfdruck Menschen zu Objekten macht, passiert beispielsweise etwas Entscheidendes: Der Mensch verliert seine Subjektivität, es kommt zu einer kognitiven Enthemmung. Sie leistet auf dem Bild keinen Widerstand, sie zeigt keine Emotion, es gibt im Grunde keine Grenze. Ein psychologischer Mechanismus, der es Täter:innen ermöglicht und erleichtert, Übergriffe innerlich zu rechtfertigen.
Die KI trainiert – im traurigen Wortsinn – die Fähigkeit zur Entmenschlichung: „Wenn ich das hier darf, kann es ja nicht so schlimm sein.“
So entsteht auch eine kulturelle Grauzone, in denen die Übergriffe nicht mehr als Gewalt, sondern als „Spielerei“ wahrgenommen und abgetan werden. Durch die millionenfache „Erlaubnis“, Einwilligung zu ignorieren (wodurch sich Grok in der Reichweite und gesellschaftlicher Akzeptanz von klassischen Nudity-Apps unterscheidet), verschiebt sich die Norm, es kommt zu einer Normalisierung von sexuellen Grenzverletzungen.
Ein wichtiger Steigerungsfaktor bei digitaler Gewalt an sich ist das Zusammentreffen von zwei Umständen:
- geringe Entdeckungswahrscheinlichkeit und
- gefühlt hohe subjektive Belohnung
In der aktuellen Situation haben wir beiden – und nach Letztstand wird dies zur „Lösung“ der Problematik hinter eine Paywall verfrachtet. Dies stellt aber keine Risikoreduktion dar, sondern in Grunde eine ökonomische Selektion der Täter:innen. Wer zahlt, darf verletzen und missbrauchen.
Aus Sicht der Prävention: Wenn du ein gefährliches Verhalten mit Exklusivität und Aufwand verknüpfst (und dabei dennoch leicht zugänglich gestaltet), steigt sein Wert. Für Täter:innen ist das weniger eine Bremse – sondern ein weiterer Anreiz.
Was könnte helfen?
- Klare moralische Markierungen: Technologie ist nie neutral. Wenn ein System dir sagt: „Das geht nicht“, wirkt dies stärker als jede Nutzungsbedingung (die – seien wir mal ehrlich – sowieso nie gelesen wird).
- Friktion statt Bequemlichkeit: Systeme müssen unangenehm sein und unbequem reagieren, wenn sie in Richtung Grenzverletzung führen sollen. Überprüfungen, Kontextualisierung der Eingaben, Verzögerungen der Abläufe und (temporäre) Sperren für diesbezügliche Prompts – als dies senkt Impulsdeliktsetzungen.
- Verantwortung auf Plattformebene: Wer ein Hochrisikosetting schafft, trägt Mitverantwortung für das, was darin passiert. Das gilt offline – und online erst recht. Wenn beispielsweise ein Clubbetreiber keine Beleuchtung, Türkontrollen, Hausregeln oder Interventionsmaßnahmen bei Übergriffen hat, ist er zwar nicht Täter, aber Teil des Problems. Die missbräuchliche Verwendung des KI-Chatbots ist kein zufälliges Ereignis, sondern ein eingebautes Risikoprofil, auch aus wirtschaftlichen Aspekten. Eine generelle Unterbindung der Funktion bis zu einer Behebung wäre ein Gebot der Notwendigkeit.
Was könnte helfen?
Diese Situation ist kein Einzelfall. Sie ist in dieser Form ein reichweitenstarker, gesellschaftlich verbreiteter Prototyp. Ein Prototyp für eine digitale Zukunft, in der
- Menschen zu Rohmaterial werden,
- Einwilligung optional ist und
- Missbrauch skalierbar wird.
Dann reden wir in ein paar Jahren nicht mehr über „ein paar“ Deepfakes, sondern über eine neue Normalität sexualisierter, digitaler Gewalt. Sexualisierte KI ist aus meiner Sicht kein Randthema für Nerds, sondern ein zentrales Feld moderner Gewaltprävention.
Denn wenn wir digitale Systeme bauen, die Entmenschlichung und Sexualisierung so erleichtern, dürfen wir uns nicht wundern, wenn sie genutzt werden und reale Menschen darunter leiden.
Oder um es in Täter:innenlogik zu sagen: Man muss keine Gewalt gezielt wollen, um sie möglich zu machen – es reicht, die falschen Räume zu öffnen.


