LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Elon Musks „Spicy“-KI-Modus löst NSFW-Deepfake-Skandal aus – Warum Frauen das Ziel einer neuen KI-Porno-Krise sind

Elon Musks „Spicy“-KI-Modus löst NSFW-Deepfake-Skandal aus – Warum Frauen das Ziel einer neuen KI-Porno-Krise sind

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Elon Musks neues KI-Unternehmen steht unter Beschuss, weil es nicht-einvernehmliche Nackt-Deepfakes von Prominenten generiert – und das auf eine beunruhigend geschlechtsspezifische Weise. Eine aktuelle Untersuchung von Gizmodo zeigt, dass Musks Grok Imagine-Tool mit seinem „Spicy“-Modus bereitwillig NSFW-Videos von berühmten Frauen erstellt (man denke an Taylor Swift oder Melania Trump), sich aber weigert, dasselbe für Männer zu tun gizmodo.com gizmodo.com. Dieser Bericht geht auf die Gizmodo-Erkenntnisse zu Groks umstrittener Funktion ein, untersucht den rasanten Anstieg von KI-generierten pornografischen Inhalten und Deepfakes und beleuchtet die ethischen, rechtlichen und gesellschaftlichen Implikationen. Wir betrachten außerdem die aktuellen Entwicklungen mit Stand August 2025 – von öffentlicher Empörung und Expertenwarnungen bis hin zu neuen Gesetzen, die darauf abzielen, KI-„Rachepornos“ einzudämmen. Das Ziel: zu verstehen, wie der „Spicy Mode“ zum neuesten Brennpunkt in der anhaltenden NSFW-KI-Inhaltskrise wurde – und was dagegen getan werden kann.

Groks „Spicy Mode“ – NSFW-Deepfakes und ein eingebauter Bias

Grok Imagine ist xAIs Bild- und Videogenerator (verfügbar für zahlende Abonnenten auf Musks X-Plattform) und ermöglicht es den Nutzern, über einen „Spicy“-Modus explizite Inhalte zu erstellen gizmodo.com. Während Mainstream-KI-Tools wie Googles Veo und OpenAIs Sora explizite oder Promi-Bilder verbieten, fördert Groks Spicy-Modus dies aktiv avclub.com avclub.com. Die Tests von The Verge zeigten, dass die KI „ohne zu zögern komplett unzensierte Oben-ohne-Videos von Taylor Swift ausspuckte“ – und das schon beim ersten Versuch, ohne dass überhaupt nach Nacktheit gefragt wurde theverge.com. Ähnlich fand Deadline es kinderleicht, Grok ein Bild von Scarlett Johansson zu entblößter Unterwäsche generieren zu lassen avclub.com. Im krassen Gegensatz dazu führten Versuche, männliche Nacktheit zu erzeugen, zu nichts. Wie Gizmodo berichtet, „würde es nur die Darstellungen von Frauen wirklich nicht jugendfrei machen. Videos von Männern waren eher harmlos und würden kaum Aufsehen erregen.“ gizmodo.com. In der Praxis lässt Groks Spicy-Modus einen Mann höchstens oberkörperfrei erscheinen, während Frauen oben ohne oder ganz nackt dargestellt werden.

Dieser eklatante Doppelstandard hat Alarm ausgelöst. Grok erzeugt auf Knopfdruck einen Softcore-Porno-Clip einer weiblichen öffentlichen Person gizmodo.com, aber derselbe „Spicy“-Filter scheint bei Männern offenbar schon bei bloßem Oberkörper Halt zu machen gizmodo.com. Matt Novak von Gizmodo versuchte sogar, einen generischen, nicht berühmten Mann im Vergleich zu einer generischen Frau zu prompten: Der männliche Avatar zupfte unbeholfen an seiner Hose, blieb aber bedeckt, während der weibliche Avatar prompt ihre Brüste entblößte gizmodo.com. Solche Ergebnisse deuten auf eine geschlechtsspezifische Voreingenommenheit in der Inhaltsmoderation der KI hin (ob nun beabsichtigt oder als Nebenprodukt ihres Trainings). Musks eigene Vorgeschichte mit frauenfeindlichen Bemerkungen – von der Verstärkung von Behauptungen, dass Frauen „schwach“ seien gizmodo.com bis hin zu Witzen über eine mögliche Schwangerschaft von Taylor Swift – verstärkt den Verdacht, dass diese Voreingenommenheit eher ein Feature als ein Bug ist gizmodo.com.

Fähigkeiten & Einschränkungen: Es ist erwähnenswert, dass Groks Deepfakes oft von schlechter Qualität sind. Die von ihm erzeugten Promi-Ähnlichkeiten sind häufig wenig überzeugend oder fehlerhaft gizmodo.com gizmodo.com. (Zum Beispiel sahen Bilder, die Schauspielerin Sydney Sweeney oder Politiker J.D. Vance darstellen sollten, ihren echten Vorbildern überhaupt nicht ähnlich gizmodo.com.) Seltsame Kontinuitätsfehler – wie ein Mann, der in einem Video unterschiedlich gemusterte Hosenbeine trägt – sind häufig gizmodo.com. Grok generiert außerdem automatisch generische Hintergrundmusik oder Audio für jeden Clip, was die surreale „Uncanny Valley“-Stimmung noch verstärkt gizmodo.com. Diese technischen Mängel könnten derzeit ein Glücksfall für xAI sein, da wirklich lebensechte Nacktfälschungen von Prominenten mit ziemlicher Sicherheit Klagen und einstweilige Verfügungen nach sich ziehen würden gizmodo.com. Wie Gizmodo spöttelte, könnte Musks beste Verteidigung gegen rechtliche Schritte sein, dass „die Bilder nicht einmal annähernd echt aussehen“ im Vergleich zu den echten Prominenten gizmodo.com. Aber die Technologie verbessert sich rasant, und selbst diese unvollkommenen Deepfakes sind schon beunruhigend erkennbar avclub.com.

Öffentliche Reaktion: Die Einführung des „Spicy Mode“ löste sofort Empörung in den sozialen Medien und der Presse aus. Bereits wenige Tage nach dem Start von Grok Imagine wurde X (Twitter) mit KI-generierten Bildern nackter Frauen überschwemmt, wobei Nutzer eifrig Tipps teilten, wie man mit ihren Prompts möglichst viel Nacktheit erzeugen kann gizmodo.com. Dies führte zu weit verbreiteter Kritik, dass Musk damit praktisch KI-gestützte sexuelle Belästigung und Ausbeutung Tür und Tor geöffnet habe. „Ein Großteil der von Musk geteilten oder erneut geposteten Grok Imagine-Inhalte sind Clips von generisch aussehenden, üppigen Blondinen oder Frauen in aufreizender Fantasy-Kleidung“, stellte der A.V. Club fest und merkte an, dass Musk offenbar darauf aus ist, Pornhubs Revier streitig zu machen avclub.com avclub.com. Tech-Blogger und Kommentatoren haben spöttisch angemerkt, Musk „bettle praktisch um eine Taylor-Swift-Klage“ wegen Groks automatisch generierter Nacktbilder avclub.com. Tatsächlich haben einige Kommentatoren prominente Zielpersonen wie Swift dazu aufgefordert, Musk vor Gericht zu bringen und „die Welt für andere Frauen und Mädchen sicherer zu machen“ avclub.com. Bisher gibt es keine öffentlichen Hinweise auf rechtliche Schritte von Swifts Seite oder anderen – aber die Forderungen nach Rechenschaft werden lauter.

Auch abgesehen von der Grok-Kontroverse gab es 2024 einen großen öffentlichen Aufschrei über KI-generierte Pornografie auf X. In einem Vorfall verbreiteten sich Deepfake-pornografische Bilder von Taylor Swift rasant auf der Plattform, wobei ein gefälschtes Foto 47 Millionen Aufrufe erzielte, bevor es entfernt wurde theguardian.com. Fans mobilisierten sich massenhaft, um die Bilder zu melden, und sogar das Weiße Haus schaltete sich ein und bezeichnete die Situation als „alarmierend“ theguardian.com. Swifts Fall ist nur insofern außergewöhnlich, als er so viel Aufmerksamkeit erhielt; zahllose Frauen (berühmte oder nicht) haben erlebt, dass ihr Abbild in explizite Inhalte verwandelt wurde, die von den Plattformen nicht schnell genug entfernt werden theguardian.com theguardian.com. Die öffentliche Empörung über diese Vorfälle – und nun auch über Groks integrierten NSFW-Modus – spiegelt einen wachsenden Konsens wider, dass KI-Tools, die sexuelle Deepfakes ermöglichen, ethische Grenzen überschreiten.

Der rasante Anstieg von KI-generierten NSFW-Inhalten und Deepfakes

Die Grok-Episode ist das jüngste Kapitel in einem beunruhigenden Trend: KI-generierte Pornografie („Deepfake-Porn“) hat in den letzten Jahren explosionsartig zugenommen. Das Phänomen erlangte erstmals 2017 Berüchtigtkeit, als Hobbyisten auf Reddit begannen, mit frühen Deep-Learning-Algorithmen Prominentengesichter auf die Körper von Pornodarstellern zu montieren. Bis 2018 verbreiteten sich sogenannte „Deepfake“-Videos von Gal Gadot, Emma Watson, Scarlett Johansson und anderen auf Erwachsenen-Websites – was Plattformen wie Reddit, Twitter und Pornhub dazu veranlasste, solche nicht-einvernehmlichen Inhalte zu verbieten theguardian.com theverge.com.

Trotz dieser frühen Verbote zog sich die Deepfake-Pornoindustrie in den Schatten zurück und wuchs weiter. Ende 2019 ergab ein bahnbrechender Bericht der Cybersicherheitsfirma Deeptrace, dass 96 % aller Deepfake-Videos, die online kursieren, pornografische, nicht-einvernehmliche Gesichtstausch-Videos waren, die fast ausschließlich weibliche Zielpersonen zeigten regmedia.co.uk. Die vier größten untersuchten Deepfake-Porno-Websites verzeichneten über 134 Millionen Aufrufe von Videos, die sich gegen „Hunderte weiblicher Prominenter weltweit“ richteten. regmedia.co.uk Dieses Ungleichgewicht war eklatant: Die Opfer waren überwiegend Frauen, und die Konsumenten waren überwiegend an Frauen als Sexualobjekten interessiert. „99 % der Deepfake-Sexvideos betreffen Frauen, meist weibliche Prominente“, stellte die Rechtsprofessorin Danielle Citron fest und betonte, wie diese Werke „dich zu einem Sexualobjekt machen, ohne dass du es gewählt hast“ nymag.com. Es sei „nichts falsch an Pornografie, solange man sie selbst gewählt hat“, fügte Citron hinzu – das Schreckliche an Deepfakes sei, dass diese Frauen niemals gewählt haben, dass ihr Abbild in expliziten Szenen verwendet wird nymag.com.

Anfangs dominierten Deepfakes von Prominenten, aber inzwischen werden zunehmend auch gewöhnliche Personen ins Visier genommen. Im Januar 2023 wurde die Twitch-Streaming-Community von einem Skandal erschüttert, als der beliebte Streamer Brandon „Atrioc“ Ewing versehentlich enthüllte, dass er eine Deepfake-Porno-Website besucht hatte, die explizite Videos von Streamerinnen verkaufte – indem deren Gesichter auf die Körper von Pornodarstellerinnen montiert wurden polygon.com. Die Frauen (einige davon waren persönliche Freundinnen von Atrioc) waren am Boden zerstört und wurden nach Bekanntwerden der Deepfakes mit Wellen von Belästigungen konfrontiert polygon.com. Ein Opfer, die Streamerin QTCinderella, gab eine tränenreiche Stellungnahme ab, in der sie den Übergriff anprangerte, und half später dabei, juristische Schritte zu organisieren, um solche Inhalte entfernen zu lassen polygon.com polygon.com. Der „Twitch-Deepfake“-Skandal machte deutlich, dass man kein Hollywoodstar sein muss, um so etwas zu erleben – jede Person mit Bildern im Internet ist potenziell gefährdet, von KI gegen ihren Willen „ausgezogen“ zu werden.

Der Aufstieg benutzerfreundlicher KI-Tools hat diesen Trend nur noch beschleunigt. Im Jahr 2019 ging eine App namens DeepNude kurz viral, weil sie mithilfe von KI Fotos von Frauen per Knopfdruck „auszog“ und so gefälschte Nacktbilder erzeugte onezero.medium.com. Obwohl der Entwickler von DeepNude die App nach öffentlichem Aufschrei einstellte, war das sprichwörtliche Kind bereits in den Brunnen gefallen. Bis 2023–2025 haben Open-Source-Bildgeneratoren (wie Stable Diffusion-Derivate) und spezialisierte Deepfake-Dienste es jedem mit ein paar Fotos und minimalen technischen Kenntnissen ermöglicht, Nackt- oder Sexualbilder von anderen zu erstellen. In manchen Foren werden KI-generierte Nacktbilder von Frauen, die aus sozialen Medien stammen, offen gehandelt. Wie ein Opfer, eine Twitch-Streamerin, klagte, nachdem sie pornografische Fälschungen von sich entdeckt hatte: „Das hat nichts mit mir zu tun. Und trotzdem ist es hier mit meinem Gesicht.“ theguardian.com Das Gefühl der Verletzung und Ohnmacht ist bei den „digitalen Opfern“ deutlich spürbar.

Kurz gesagt, KI hat die Fähigkeit, pornografische Fälschungen zu erstellen, demokratisiert, und diese Möglichkeit wird überproportional gegen Frauen eingesetzt. Es sind nicht nur Prominente betroffen – es kann jeden treffen, von Journalistinnen und Aktivistinnen (die zur Einschüchterung oder Diskreditierung ins Visier genommen werden) bis hin zu Ex-Partnern und Privatpersonen (die von rachsüchtigen Stalkern oder zu Erpressungszwecken angegriffen werden). Die Einführung von Funktionen wie Groks Spicy-Modus – der dem, was zuvor eine Untergrundpraxis war, einen offiziellen, benutzerfreundlichen Anstrich verleiht – zeigt, dass NSFW-generierende KI endgültig im Mainstream angekommen ist und all ihre ethischen Probleme mit sich bringt.

Ethische, rechtliche und gesellschaftliche Implikationen von KI-generierter Pornografie

Die ethische Empörung über Deepfake-Pornografie ist weit verbreitet. Im Kern gilt: Sexuelle Inhalte von jemandem ohne dessen Zustimmung zu erstellen oder zu verbreiten, ist ein schwerwiegender Verstoß gegen Privatsphäre, Würde und Selbstbestimmung. Wie Citron und andere Ethiker argumentieren, handelt es sich dabei um mehr als nur bildbasierte Gewalt – es ist eine Form sexueller Ausbeutung. Opfer berichten von Gefühlen der „Hilflosigkeit, Demütigung und Angst“, wenn sie wissen, dass Fremde (oder Täter) gefälschte Videos von ihnen bei sexuellen Handlungen sehen, die sie nie begangen haben. Es kann einer virtuellen Form sexueller Gewalt gleichkommen und bleibende Traumata hinterlassen. Wenig überraschend trifft es vor allem Frauen und Mädchen: „Nicht-einvernehmliche intime Deepfakes“ sind laut Forschern „eine aktuelle, schwere und wachsende Bedrohung, die Frauen überproportional betrifft“ sciencedirect.com.

Es gibt auch eine misogyne Unterströmung in vielen dieser Inhalte. Experten weisen darauf hin, dass Deepfake-Pornos oft als Waffe eingesetzt werden, um Frauen zu erniedrigen, die Machtpositionen innehaben oder die Annäherungsversuche von jemandem ablehnen. „KI-generierte Pornografie, angetrieben von Misogynie, überschwemmt das Internet“, stellte The Guardian während des Taylor-Swift-Deepfake-Aufruhrs fest theguardian.com. Allein die Handlung, eine Frau per KI nackt zu machen, kann als Versuch gesehen werden, sie „an ihren Platz zu verweisen“. „Es sind Männer, die einer mächtigen Frau sagen, sie solle zurück in ihre Schublade“, beschrieb ein Beobachter die Stimmung beim Swift-Vorfall. Ob es nun anonyme Trolle sind, die Nacktbilder einer Politikerin erstellen, oder ein besessener Fan, der gefälschte Sexvideos eines Popstars macht – die Botschaft ist ähnlich: eine Form der digitalen Objektifizierung und Einschüchterung.

Über den individuellen Schaden hinaus sind die gesellschaftlichen Implikationen ernüchternd. Wenn jeder in Pornografie hineinmontiert werden kann, kann man visuellen Medien nicht mehr trauen. Deepfakes drohen mit Rufschädigung und Erpressung im großen Stil. Frauen des öffentlichen Lebens könnten sich selbst zensieren oder aus Angst vor Angriffen aus dem Netz zurückziehen. Es gibt auch einen abschreckenden Effekt auf die Meinungsfreiheit: Man stelle sich vor, eine regierungskritische Journalistin wird zum Gegenstand eines realistisch wirkenden gefälschten Sexvideos, das zu ihrer Diffamierung verbreitet wird. Insgesamt wirft die Normalisierung von „Designer-Pornos“ mit unfreiwilligen Beteiligten Fragen zu Einwilligung, Sexploitation und der Kommerzialisierung menschlicher Ähnlichkeit auf. Selbst bei einvernehmlicher Erwachsenenunterhaltung befürchten manche, dass KI-generierte Darsteller echte Models ersetzen könnten – aber wenn diese KI-Darsteller die echten Gesichter von Menschen tragen, die von Facebook oder Instagram gestohlen wurden, ist die Grenze der Einwilligung eindeutig überschritten.

Meinungsfreiheit vs. Privatsphäre: Es besteht eine Spannung zwischen denen, die ein Verbot aller pornografischen Deepfakes fordern, und Verfechtern der Meinungsfreiheit, die eine Überregulierung befürchten. Könnte ein Deepfake eines Prominenten jemals als legitime Parodie oder Kunst gelten? Theoretisch ja – Satire und Parodie sind geschützte Ausdrucksformen, selbst wenn das Abbild von Personen des öffentlichen Lebens verwendet wird. Einige Verteidiger der KI-Technologie weisen darauf hin, dass veränderte Bilder von Prominenten schon lange Teil der Popkultur sind (z. B. bearbeitete Magazincover) und argumentieren, dass reflexhafte Kriminalisierung Kreativität ersticken könnte. Allerdings ziehen selbst die meisten Meinungsfreiheits-Experten eine Grenze bei nicht-einvernehmlichen sexuellen Darstellungen. Der Schaden für die betroffene Person ist so intensiv und persönlich, dass er jedes öffentliche Interesse überwiegt. Rechtsexperten weisen darauf hin, dass Verleumdungs- oder Belästigungsgesetze einige Fälle abdecken könnten, aber nicht alle. Es gibt einen wachsenden Konsens, dass neue rechtliche Schutzmaßnahmen notwendig sind, um Deepfake-Pornografie gezielt anzugehen, ohne legitimen Ausdruck zu untergraben apnews.com apnews.com. Solche Gesetze präzise zu formulieren – um eindeutigen Missbrauch zu bestrafen, ohne Satire oder einvernehmliche Erotik zu erfassen – ist eine Herausforderung, mit der sich die Gesetzgeber derzeit beschäftigen apnews.com apnews.com.

Aktuelle Entwicklungen (Stand August 2025): Vom Tech-Backlash zu neuen Gesetzen

Die Kontroverse um Groks „Spicy“-Modus kommt zu einem Zeitpunkt, an dem Regierungen und Plattformen weltweit endlich Maßnahmen gegen die Flut von KI-generierten intimen Bildern ergreifen. Hier einige der neuesten Entwicklungen:

  • Nationale Empörung und Aktivismus: Die viralen Vorfälle mit Taylor Swift und anderen haben die öffentliche Meinung mobilisiert. Sogar das Weiße Haus der USA äußerte sich zu den Swift-Deepfakes, wie erwähnt, und bezeichnete sie als „alarmierend“ theguardian.com. Interessenvertretungen wie das National Center on Sexual Exploitation haben sich deutlich geäußert, verurteilten Musks xAI dafür, „sexuelle Ausbeutung weiter voranzutreiben, indem KI-Videos die Erstellung von Nacktheit ermöglichen“, und forderten die Entfernung solcher Funktionen time.com. „xAI sollte Wege suchen, sexuellen Missbrauch und Ausbeutung zu verhindern“, sagte Halley McNamara von NCOSE in einer Stellungnahme und spiegelte damit einen breiteren Vorstoß der Zivilgesellschaft wider time.com.
  • Umfragen zeigen überwältigende öffentliche Unterstützung für Verbote: Aktuelle Umfragen zeigen, dass die Öffentlichkeit eindeutig strengere Regulierung befürwortet. Einer Umfrage des Artificial Intelligence Policy Institute vom Januar 2025 zufolge befürworten 84 % der Amerikaner, dass nicht-einvernehmliche Deepfake-Pornos ausdrücklich illegal werden, und wünschen sich ebenso, dass KI-Unternehmen „[KI-]Modelle einschränken, um deren Nutzung zur Erstellung von Deepfake-Pornos zu verhindern.“ time.com. Auch eine Pew-Umfrage von 2019 ergab, dass etwa drei Viertel der US-Erwachsenen Beschränkungen für digital veränderte Videos/Bilder befürworten time.com. Kurz gesagt, Wähler aus dem gesamten politischen Spektrum scheinen Maßnahmen gegen diese Form des Missbrauchs zu fordern.
  • Neue Gesetze und Gesetzesentwürfe: Gesetzgeber haben den Ruf gehört. In den USA wurde der Take It Down Act im Mai 2025 unterzeichnet und markiert damit die erste bundesweite Gesetzgebung, die sich gezielt gegen Deepfake-Pornografie richtet time.com. Dieses parteiübergreifende Gesetz macht es illegal, „wissentlich intime Bilder ohne Zustimmung zu veröffentlichen oder mit der Veröffentlichung zu drohen“ – einschließlich KI-erstellter Deepfakes – und verpflichtet Plattformen, solches Material innerhalb von 48 Stunden nach Benachrichtigung durch das Opfer zu entfernen apnews.com apnews.com. Die Strafen sind streng, und das Gesetz gibt Opfern die Möglichkeit, Inhalte schnell entfernen zu lassen apnews.com apnews.com. „Wir müssen Opfern von Online-Missbrauch den rechtlichen Schutz bieten, den sie brauchen, besonders jetzt, da Deepfakes erschreckende neue Möglichkeiten für Missbrauch schaffen“, sagte Senatorin Amy Klobuchar, eine Mitinitiatorin, und bezeichnete das Gesetz als „einen großen Sieg für die Opfer von Online-Missbrauch.“ apnews.com apnews.com Schon vor dem Bundesgesetz hatten über 15 US-Bundesstaaten die Erstellung oder Verbreitung expliziter Deepfakes verboten (oft durch Aktualisierung der „Racheporno“-Gesetze). Nun entsteht ein einheitlicher bundesweiter Standard. Auch andere Länder ziehen nach. Die britische Regierung hat beispielsweise das Teilen von Deepfake-Pornografie im Online Safety Act (in Kraft seit Anfang 2024) unter Strafe gestellt und arbeitet an Gesetzen, die sogar die Herstellung sexuell expliziter Deepfakes ohne Zustimmung kriminalisieren hsfkramer.com hsfkramer.com. Im Januar 2025 brachte das Vereinigte Königreich einen Vorschlag erneut ein, der die Erstellung von Deepfake-Nacktbildern illegal machen soll, und bezeichnete dies als „bahnbrechende Entwicklung für den Schutz von Frauen und Mädchen.“ <a href=“https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Australien hat 2024 ein Gesetz verabschiedet, das sowohl die Erstellung als auch die Verbreitung von Deepfake-Sexualmaterial verbietet, und Südkorea ist sogar so weit gegangen, den bloßen Besitz oder das Ansehen solcher Deepfake-Pornos (nicht nur deren Produktion) unter Strafe zu stellen hsfkramer.com. Der weltweite Trend ist eindeutig: nicht-einvernehmliche KI-Sexualbilder werden als Straftat angesehen. Gesetzgeber erkennen an, dass diese Bilder „Leben und Ruf ruinieren können,“ wie Klobuchar es ausdrückte apnews.com, und ergreifen Maßnahmen – obwohl Meinungsfreiheits-Wächter wie die EFF warnen, dass schlecht formulierte Gesetze zu übermäßiger Zensur führen oder missbraucht werden könnten apnews.com apnews.com.
  • Richtlinien der Tech-Plattformen: Große Tech-Plattformen haben begonnen, ihre Richtlinien (zumindest auf dem Papier) zu aktualisieren, um KI-erstellte sexuelle Inhalte anzugehen. Facebook, Instagram, Reddit und das traditionelle Twitter verbieten offiziell nicht-einvernehmliche intime Bilder, einschließlich Deepfakes theguardian.com theverge.com. Pornhub und andere Erwachsenenseiten haben ebenfalls bereits 2018 Verbote für KI-generierte Inhalte mit echten Personen ohne deren Zustimmung eingeführt theguardian.com theverge.com. In der Praxis bleibt die Durchsetzung lückenhaft – ein entschlossener Nutzer kann auf vielen Plattformen weiterhin illegale Deepfakes finden oder teilen. Es gibt jedoch Anzeichen für Fortschritte: Nach dem Swift-Vorfall reagierte X (Twitter) schließlich, indem es Suchanfragen nach ihrem Namen blockierte, um die Verbreitung zu stoppen theguardian.com theguardian.com. Reddit verbietet nicht nur Deepfake-Pornos, sondern hat ganze Communities geschlossen, die solches Material gehandelt haben. YouTube und TikTok haben ebenfalls Richtlinien, die KI-manipulierte explizite Bilder verbieten. Die Herausforderung ist der Umfang und die Erkennung – und genau hier kommt neue Technologie zum Einsatz.
  • Erkennung und Schutzmaßnahmen: Eine wachsende Nebenbranche technischer Lösungen zielt darauf ab, Deepfake-Pornografie zu erkennen und zu entfernen. KI-Unternehmen wie Sensity (ehemals Deeptrace) und Start-ups wie Ceartas entwickeln Erkennungsalgorithmen, die das Internet nach dem Gesicht einer Person in pornografischen Inhalten durchsuchen und Übereinstimmungen markieren polygon.com polygon.com. Tatsächlich ging Atrioc nach dem Twitch-Skandal eine Partnerschaft mit Ceartas ein, um den betroffenen Streamerinnen zu helfen: Das Unternehmen nutzte seine KI, um Deepfake-Inhalte dieser Frauen zu finden und DMCA-Takedown-Anträge zu stellen polygon.com polygon.com. OnlyFans, eine Plattform mit einem Eigeninteresse am Schutz der Creator, hat ebenfalls solche Tools eingesetzt, um gefälschte Inhalte seiner Models zu überwachen polygon.com. Es wird außerdem daran gearbeitet, Wasserzeichen oder Metadaten in KI-generierte Bilder einzubetten, um Fälschungen zu identifizieren, sowie Vorschläge, kryptografische Authentifizierung echter Bilder zu verlangen (sodass nicht gekennzeichnete Bilder als Fälschung gelten können). Darüber hinaus enthält das KI-Gesetz der Europäischen Union (vereinbart 2024) Bestimmungen, dass Entwickler von Deepfake-Tools sicherstellen müssen, dass Ausgaben klar als KI-generiert gekennzeichnet sind bioid.com. Mehrere US-Bundesstaaten (und die EU) erwägen Vorschriften, dass jegliche KI-veränderten Inhalte beim Veröffentlichen mit einem Hinweis versehen werden müssen cjel.law.columbia.edu bioid.com. Auch wenn solche Kennzeichnungen böswillige Akteure nicht davon abhalten werden, sie zu entfernen, stellen sie einen Versuch dar, Transparenznormen rund um synthetische Medien zu etablieren.
  • Plattform vs. Musks X: Es ist bemerkenswert, wie ungewöhnlich Musks Ansatz mit X und xAI ist. Während die meisten Plattformen die Einschränkungen verschärfen, hat Musk sie im Grunde gelockert und spricht damit eine Nutzerbasis an, die „gewagte“ KI-Fähigkeiten wünscht. X hat die Ausgaben von Grok nicht nur nicht verboten; es ist das Zuhause von Grok. Diese Abweichung hat X in Konflikt mit vielen Experten gebracht. Im August 2024 verwies eine Gruppe demokratischer Abgeordneter in einem Schreiben an Regulierungsbehörden explizit auf Musks Grok und warnte davor, dass lasche Richtlinien zu Deepfakes (einschließlich expliziter von Persönlichkeiten wie Kamala Harris oder Taylor Swift) bei Wahlen und darüber hinaus Chaos anrichten könnten time.com. Musk scheint darauf zu setzen, dass das Bedienen der Nachfrage nach KI-generierter Erotik (und sogar KI-Chat-Begleitern, die flirten oder sich ausziehen, wie die neuen Funktionen von xAI zeigen time.com) Einnahmen und Nutzer bringen wird. Doch der Gegenwind – rechtlich, gesellschaftlich und potenziell finanziell (durch Bedenken von Werbekunden) – könnte langfristig eine andere Geschichte erzählen.

Politische Vorschläge und der Weg nach vorn: Können wir Deepfake-Pornografie eindämmen?

Unter Politikern und Ethikern herrscht Einigkeit, dass mehrgleisiges Handeln nötig ist, um KI-generierte NSFW-Inhalte zu bekämpfen. Wichtige Vorschläge und Ideen sind:

  • Stärkere Gesetze und Durchsetzung: Wie erwähnt, sind Gesetze wie der Take It Down Act ein Anfang. Experten schlagen weitere Verfeinerungen vor, etwa die Erstellung eines gefälschten sexuellen Bildes einer Person ohne deren Einwilligung unter Strafe zu stellen, nicht nur die Verbreitung. (Das Vereinigte Königreich geht in diese Richtung hsfkramer.com hsfkramer.com.) Klare rechtliche Strafen für Täter – und für diejenigen, die solche Inhalte wissentlich hosten oder davon profitieren – können abschreckend wirken. Wichtig ist, dass jede Gesetzgebung sorgfältig abgegrenzt werden muss, um nicht versehentlich einvernehmliche erotische Kunst oder legitime politische Satire zu kriminalisieren apnews.com apnews.com. Zivilrechtliche Möglichkeiten sind ebenfalls entscheidend: Opfer brauchen einfache Wege, um Schadensersatz zu fordern und gerichtliche Anordnungen zur Entfernung von Inhalten zu erhalten. Viele Befürworter fordern Ausnahmen in Section 230 (dem US-Gesetz, das Plattformen vor Haftung für Nutzerinhalte schützt), damit Websites haftbar gemacht werden können, wenn sie auf Löschanfragen zu Deepfake-Pornografie nicht reagieren. Das würde den Druck auf Plattformen erhöhen, deutlich wachsamer zu sein.
  • Technologische Leitplanken: Auf der Entwicklungsseite schlagen Vorschläge vor, dass die Ersteller von KI-Modellen präventive Schutzmaßnahmen einbauen sollten. Unternehmen könnten beispielsweise Inhaltsfilter trainieren, um zu erkennen, wenn eine Benutzereingabe den Namen oder das Abbild einer realen Person enthält, und jede explizite Ausgabe zu dieser Person blockieren. (Einige KI-Bildgeneratoren verweigern bereits Eingaben, die auf Privatpersonen Bezug nehmen oder Nacktdarstellungen von Prominenten erzeugen – xAI’s Grok ist eine Ausnahme und tut dies nicht avclub.com.) Eine weitere Idee ist die Verpflichtung zur Einwilligungsüberprüfung für explizite Generierungen: Ein KI-Dienst könnte z. B. nur dann ein Nacktbild erzeugen, wenn der Nutzer nachweist, dass es sich um ihn selbst oder ein zustimmendes Modell handelt. Natürlich könnten böswillige Akteure einfach quelloffene Modelle ohne solche Filter verwenden, aber wenn die großen Plattformen strenge Leitplanken einführen, könnte dies die Verbreitung im Mainstream eindämmen. Altersüberprüfung ist ebenfalls ein Thema – Groks einzige Kontrolle war eine leicht zu umgehende Altersabfrage gizmodo.com – daher gibt es Forderungen nach robusteren Alterskontrollen, um sicherzustellen, dass Minderjährige (die oft Ziel von Mobbing durch gefälschte Nacktbilder sind) diese Tools nicht nutzen oder von ihnen dargestellt werden können.
  • Forschung und Erkennung: Regierungen finanzieren Forschung zur Deepfake-Erkennung, und Unternehmen arbeiten an Standards zur Authentifizierung von Medien zusammen. Ziel ist es, gefälschte Pornografie schnell zu identifizieren und zu entfernen, sobald sie auftaucht. Allerdings wird die Erkennung immer ein Katz-und-Maus-Spiel bleiben, da KI-Fälschungen immer ausgefeilter werden. Einige Experten sind der Meinung, der Fokus sollte sich auf die Schadensprävention (durch rechtliche Strafen und Aufklärung) verlagern, anstatt auf einen technischen „Fake-Detektor“ zu hoffen, der alles erkennt. Dennoch werden Fortschritte bei KI zum Guten – wie besseres Bild-Hashing zur Nachverfolgung bekannter Fälschungen oder Tools, mit denen Einzelpersonen herausfinden können, ob ihr Bild missbraucht wurde – eine Rolle bei der Eindämmung spielen.
  • Verantwortlichkeit der Plattformen: Interessengruppen fordern, dass soziale Netzwerke und Plattformen für Erwachsenen-Inhalte proaktiv KI-Pornografie-Inhalte kontrollieren müssen. Das könnte bedeuten, in Moderationsteams zu investieren, die Deepfakes erkennen können, mit Strafverfolgungsbehörden bei Löschanordnungen zu kooperieren und Wiederholungstäter, die nicht-einvernehmliches Material erstellen oder teilen, zu sperren. Einige fordern auch Opt-out- oder Registersysteme, bei denen Personen ihr Abbild (oder das ihrer Kinder) registrieren können und Plattformen sicherstellen müssen, dass keine KI-Inhalte mit ihnen erlaubt sind – auch wenn dies administrativ schwer durchzusetzen wäre. Mindestens sollten schnelle Reaktionsprotokolle – wie die 48-Stunden-Entfernungsanforderung im US-Gesetz apnews.com – weltweit zum Standard auf allen Plattformen werden.
  • Bildung und Normen: Schließlich liegt ein Teil der Lösung darin, gesellschaftliche Normen zu verändern. So wie die Gesellschaft begann, „Rachepornos“ weitgehend zu verurteilen und sie als Missbrauch anzuerkennen, besteht die Hoffnung, dass Deepfake-Pornos universell stigmatisiert werden. Wenn der Durchschnittsmensch den Schaden versteht und sich weigert, solche Inhalte zu teilen oder zu konsumieren, wird die Nachfrage sinken. Technikethiker betonen die Bedeutung von Medienkompetenz – Menschen beizubringen, dass Sehen nicht immer Glauben bedeutet und dass ein anzügliches Foto von Promi X gefälscht sein könnte. Die jüngeren Generationen zu befähigen, kritisch mit einer Welt voller KI-veränderter Medien umzugehen, wird entscheidend sein. Ebenso wichtig werden Kampagnen sein, um potenzielle Täter darüber aufzuklären, dass das Erstellen solcher Fakes kein Streich ist – sondern eine schwerwiegende Verletzung mit potenziell strafrechtlichen Konsequenzen.

Fazit

Das Aufkommen von Groks „Spicy Mode“ hat Öl ins Feuer einer ohnehin schon hitzigen Debatte um KI und sexuell explizite Deepfakes gegossen. Elon Musks KI-Tool hat, indem es das Erstellen von Nacktbildern prominenter Doppelgänger einfach und sogar „offiziell“ macht, eine schnelle Gegenreaktion ausgelöst – und das Scheinwerferlicht auf die breitere Deepfake-Porno-Krise gerichtet. Von den Fluren des Kongresses bis zu den Kommentarspalten in Technikforen wächst die Einigkeit, dass etwas getan werden muss, um Einzelpersonen (insbesondere Frauen) vor den dunklen Anwendungen dieser Technologie zu schützen.

Wie wir gesehen haben, ist KI-generierter NSFW-Content kein isoliertes Kuriosum – sondern eine wachsende gesellschaftliche Herausforderung. Hier stehen kreative Freiheit und technologische Innovation gegen Privatsphäre, Einwilligung und Sicherheit. Der Geist ist aus der Flasche, aber durch kluge Politik, verantwortungsvolle Technikentwicklung und kulturellen Wandel können wir hoffen, den Schaden einzudämmen. Die kommenden Monate und Jahre werden wahrscheinlich mehr Klagen, mehr Gesetze und verbesserte KI-Schutzmaßnahmen bringen. Musks Grok wird sich entweder dem Druck anpassen oder zum warnenden Beispiel eines KI-Projekts werden, das ethische Grenzen auf eigene Gefahr ignorierte.

Für den Moment ist die Botschaft von Experten und Öffentlichkeit gleichermaßen eindeutig: Deepfake-Pornos sind eine Grenze, die KI nicht überschreiten darf. Und wenn Unternehmen wie xAI diese Grenze nicht selbst ziehen, sind Regulierungsbehörden und Gesellschaft zunehmend bereit, sie für sie zu ziehen. Wie es ein Technikethik-Experte ausdrückte: „Sein Bild ohne Einwilligung in Pornografie verwandelt zu sehen, ist verheerend – es ist höchste Zeit, dass wir es als den schweren Missbrauch behandeln, der es ist, und nicht als eine Unvermeidlichkeit der Technik.“ Die Debatte dreht sich nicht mehr darum, ob gehandelt werden muss, sondern wie schnell und effektiv wir KI-gestützte sexuelle Ausbeutung eindämmen können, bevor durch die nächste „Spicy“-Innovation weitere Leben aus der Bahn geworfen werden.

Quellen:

  • Novak, Matt. „Grok’s ‘Spicy’ Mode Makes NSFW Celebrity Deepfakes of Women (But Not Men).Gizmodo, 6. Aug. 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. „Groks ‚Spicy‘-Videoeinstellung hat mir sofort Taylor Swift Nackt-Deepfakes erstellt.The Verge, 5. Aug. 2025 theverge.com.
  • Carr, Mary Kate. „Elon Musk bettelt praktisch um eine Taylor Swift-Klage mit Grok AI Nackt-Deepfakes.AV Club, 7. Aug. 2025 avclub.com avclub.com.
  • Saner, Emine. „Im Inneren des Taylor Swift Deepfake-Skandals: ‚Es sind Männer, die einer mächtigen Frau sagen, sie solle sich wieder in ihre Schranken weisen lassen‘.The Guardian, 31. Jan. 2024 theguardian.com theguardian.com.
  • Clark, Nicole. „Streamer, der den Twitch Deepfake-Porno-Skandal ausgelöst hat, kehrt zurück.Polygon, 16. März 2023 polygon.com polygon.com.
  • Patrini, Giorgio. „The State of Deepfakes.“ Deeptrace Labs Report, Okt. 2019 regmedia.co.uk.
  • Citron, Danielle. Interview in NYMag Intelligencer, Okt. 2019 nymag.com.
  • Ortutay, Barbara. „Präsident Trump unterzeichnet Take It Down Act, der nicht-einvernehmliche Deepfakes anspricht. Was ist das?AP News, Aug. 2025 apnews.com apnews.com.
  • Burga, Solcyre. „Elon Musks Grok wird es Nutzern bald ermöglichen, KI-Videos zu erstellen, auch expliziter Natur.TIME, Aug. 2025 time.com time.com.
  • Herbert Smith Freehills Law Firm. „Kriminalisierung von Deepfakes – die neuen Straftatbestände im Vereinigten Königreich…“, 21. Mai 2024 hsfkramer.com hsfkramer.com.

Tags: ,