LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

El modo de IA «picante» de Elon Musk desata un escándalo de deepfakes NSFW: por qué las mujeres son el objetivo de una nueva crisis de pornografía con IA

El modo de IA «picante» de Elon Musk desata un escándalo de deepfakes NSFW: por qué las mujeres son el objetivo de una nueva crisis de pornografía con IA

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

La nueva empresa de IA de Elon Musk está siendo criticada por generar deepfakes desnudos no consensuados de celebridades – y hacerlo de una manera preocupantemente sesgada por género. Una reciente investigación de Gizmodo revela que la herramienta Grok Imagine de Musk, con su modo “Spicy”, crea fácilmente videos NSFW de mujeres famosas (piensa en Taylor Swift o Melania Trump) pero se niega a hacer lo mismo con hombres gizmodo.com gizmodo.com. Este informe profundiza en los hallazgos de Gizmodo sobre la controvertida función de Grok, examina el rápido auge del contenido pornográfico generado por IA y los deepfakes, y explora las implicaciones éticas, legales y sociales. También analizamos los desarrollos actuales hasta agosto de 2025 – desde la indignación pública y las advertencias de expertos hasta nuevas leyes destinadas a frenar el “revenge porn” de IA. El objetivo: entender cómo el “Spicy Mode” se convirtió en el último punto crítico en la actual crisis de contenido NSFW generado por IA, y qué se puede hacer al respecto.

El “Spicy Mode” de Grok – Deepfakes NSFW y un sesgo incorporado

Grok Imagine es el generador de imágenes y videos de xAI (disponible para suscriptores de pago en la plataforma X de Musk) y notablemente permite a los usuarios crear contenido para adultos a través de un modo “Spicy” gizmodo.com. Mientras que herramientas de IA convencionales como Veo de Google y Sora de OpenAI prohíben imágenes explícitas o de celebridades, el modo Spicy de Grok lo fomenta activamente avclub.com avclub.com. Las pruebas de The Verge mostraron que la IA “no dudó en generar videos completamente sin censura de Taylor Swift en topless” en el primer intento, sin siquiera pedir desnudez theverge.com. De manera similar, Deadline descubrió que era trivialmente fácil hacer que Grok generara una imagen de Scarlett Johansson mostrando su ropa interior avclub.com. En marcado contraste, los intentos de producir desnudez masculina no llegaron a nada. Como informa Gizmodo, “solo hacía que las imágenes que representaban a mujeres fueran realmente no aptas para el trabajo. Los videos de hombres eran el tipo de cosas que realmente no llamarían mucho la atención.” gizmodo.com En la práctica, el modo Spicy de Grok podría mostrar a un hombre sin camisa como mucho, mientras que las mujeres aparecen en topless o completamente desnudas.

Este flagrante doble estándar ha generado alarmas. Grok generará un clip al estilo porno softcore de una figura pública femenina con solo hacer clic en un botón gizmodo.com, pero el mismo filtro “Spicy” aparentemente se detiene en la mera desnudez de torso para los hombres gizmodo.com. Matt Novak de Gizmodo incluso intentó dar indicaciones para un hombre genérico, no famoso, frente a una mujer genérica: el avatar masculino tiraba torpemente de sus pantalones pero seguía cubierto, mientras que el avatar femenino rápidamente mostraba sus pechos gizmodo.com. Tales resultados sugieren un sesgo de género incrustado en la moderación de contenido de la IA (ya sea intencional o como subproducto de su entrenamiento). El propio historial de Musk con comentarios misóginos – desde amplificar afirmaciones de que las mujeres son “débiles” gizmodo.com hasta bromear sobre embarazar a Taylor Swift – aumenta las sospechas de que este sesgo es más una característica que un error gizmodo.com.

Capacidades y limitaciones: Cabe señalar que los deepfakes de Grok a menudo son de mala calidad. Las semejanzas de celebridades que produce suelen ser poco convincentes o presentan fallos gizmodo.com gizmodo.com. (Por ejemplo, las imágenes que supuestamente representaban a la actriz Sydney Sweeney o al político J.D. Vance no se parecían en nada a sus verdaderos rostros gizmodo.com.) Errores de continuidad extraños – como un hombre usando pantalones con piernas que no combinan en un video – son comunes gizmodo.com. Grok también genera automáticamente música o audio de fondo genérico para cada clip, lo que añade una vibra surrealista de “valle inquietante” gizmodo.com. Estas deficiencias técnicas podrían ser una tabla de salvación para xAI en este momento, ya que falsificaciones desnudas realmente realistas de personas famosas casi con certeza provocarían demandas e interdictos gizmodo.com. Como bromeó Gizmodo, la mejor defensa de Musk contra acciones legales podría ser que “las imágenes ni siquiera se parecen” a las celebridades reales gizmodo.com. Pero la tecnología está mejorando rápidamente, e incluso estos deepfakes imperfectos son lo suficientemente reconocibles como para ser preocupantes avclub.com.

Respuesta pública: El lanzamiento de “Spicy Mode” provocó de inmediato indignación en las redes sociales y la prensa. A los pocos días del lanzamiento de Grok Imagine, X (Twitter) se vio inundado con imágenes generadas por IA de mujeres desnudas, con usuarios compartiendo entusiastamente consejos sobre cómo maximizar la desnudez en sus indicaciones gizmodo.com. Esto provocó críticas generalizadas de que Musk había abierto efectivamente las compuertas a acoso y explotación sexual impulsados por IA. “Gran parte del contenido de Grok Imagine que Musk ha compartido o republicado son clips de rubias voluptuosas de aspecto genérico o mujeres con atuendos de fantasía reveladores”, observó A.V. Club, señalando que Musk parece decidido a competir con el terreno de Pornhub avclub.com avclub.com. Blogueros y comentaristas tecnológicos han sugerido burlonamente que Musk está “prácticamente rogando por una demanda de Taylor Swift” por los desnudos autogenerados de Grok avclub.com. De hecho, algunos comentaristas han instado a objetivos de alto perfil como Swift a llevar a Musk a los tribunales y “hacer el mundo más seguro para otras mujeres y niñas” avclub.com. Hasta ahora, no hay indicios públicos de acciones legales por parte del equipo de Swift u otros, pero las exigencias de rendición de cuentas son cada vez más fuertes.

Incluso fuera de la controversia de Grok, 2024 vio una gran protesta pública por la pornografía generada por IA en X. En un incidente, imágenes pornográficas deepfake de Taylor Swift se difundieron ampliamente en la plataforma, con una foto falsa obteniendo 47 millones de visualizaciones antes de ser eliminada theguardian.com. Los fans se movilizaron en masa para reportar las imágenes, e incluso la Casa Blanca intervino, calificando la situación de “alarmante” theguardian.com. El caso de Swift es excepcional solo por la atención que recibió; innumerables mujeres (famosas o no) han visto sus imágenes convertidas en contenido explícito que las plataformas no logran eliminar rápidamente theguardian.com theguardian.com. La ira pública en torno a estos incidentes –y ahora en torno al modo NSFW integrado de Grok– refleja un consenso creciente de que las herramientas de IA que permiten deepfakes sexuales están cruzando líneas éticas.

El rápido auge del contenido NSFW y los deepfakes generados por IA

El episodio de Grok es el último capítulo de una tendencia preocupante: la pornografía generada por IA (“deepfake porn”) se ha disparado en prevalencia en los últimos años. El fenómeno ganó infamia por primera vez en 2017, cuando aficionados en Reddit comenzaron a usar algoritmos de deep learning tempranos para intercambiar los rostros de celebridades en los cuerpos de actores porno. Para 2018, los llamados videos “deepfake” de Gal Gadot, Emma Watson, Scarlett Johansson y otras proliferaban en sitios para adultos, lo que llevó a plataformas como Reddit, Twitter y Pornhub a prohibir este tipo de contenido no consensuado theguardian.com theverge.com.

A pesar de esas prohibiciones tempranas, la industria del porno deepfake se trasladó a la clandestinidad y continuó creciendo. A finales de 2019, un informe histórico de la firma de ciberseguridad Deeptrace encontró que el 96% de todos los videos deepfake que circulaban en línea eran pornográficos, intercambios de rostros no consensuados, presentando casi exclusivamente a mujeres como objetivo regmedia.co.uk. Los cuatro principales sitios web de porno deepfake estudiados habían acumulado más de 134 millones de vistas en videos dirigidos a “cientos de celebridades femeninas en todo el mundo.” regmedia.co.uk Este desequilibrio era evidente: las víctimas eran abrumadoramente mujeres, y los consumidores estaban abrumadoramente interesados en mujeres como objetos sexuales. “El 99% de los videos sexuales deepfake involucran a mujeres, usualmente celebridades femeninas,” señaló la profesora de derecho Danielle Citron, destacando cómo estas creaciones “te convierten en un objeto sexual de formas que no elegiste” nymag.com. “No hay nada de malo con la pornografía siempre y cuando la elijas tú misma,” añadió Citron; el horror de los deepfakes es que estas mujeres nunca eligieron que su imagen fuera usada en escenas explícitas nymag.com.

Al principio, los deepfakes de celebridades dominaban, pero ahora personas comunes son cada vez más objetivo. En enero de 2023, la comunidad de streaming de Twitch fue sacudida por un escándalo cuando el popular streamer Brandon “Atrioc” Ewing reveló accidentalmente que había estado viendo un sitio web de porno deepfake que vendía videos explícitos de streamers femeninas – editando sus rostros en los cuerpos de actrices porno polygon.com. Las mujeres (algunas de las cuales eran amigas personales de Atrioc) quedaron devastadas y enfrentaron oleadas de acoso una vez que los deepfakes salieron a la luz polygon.com. Una víctima, la streamer QTCinderella, dio una declaración entre lágrimas denunciando la violación y luego ayudó a organizar esfuerzos legales para que dicho contenido fuera retirado polygon.com polygon.com. El escándalo de “Twitch deepfake” subrayó que no tienes que ser una estrella de Hollywood para que esto te suceda – cualquier persona con imágenes en línea es potencialmente vulnerable a ser “desnudada” por la IA en contra de su voluntad.

El auge de herramientas de IA fáciles de usar solo ha acelerado la tendencia. En 2019, una aplicación llamada DeepNude se volvió brevemente viral por usar IA para “desvestir” fotos de mujeres con solo hacer clic en un botón, produciendo desnudos falsos onezero.medium.com. Aunque el creador de DeepNude la cerró en medio de la reacción pública, la caja de Pandora ya estaba abierta. Para 2023–2025, los generadores de imágenes de código abierto (como derivados de Stable Diffusion) y los servicios dedicados de deepfake han hecho trivial que cualquiera con unas pocas fotos y conocimientos técnicos mínimos pueda crear imágenes desnudas o sexuales de otras personas. Algunos foros comercian abiertamente con desnudos generados por IA de mujeres extraídos de redes sociales. Como lamentó una streamer de Twitch víctima tras descubrir falsificaciones pornográficas de sí misma, “Esto no tiene nada que ver conmigo. Y, sin embargo, está aquí con mi cara.” theguardian.com El sentimiento de violación e impotencia es palpable entre quienes han sido “víctimas digitales”.

En resumen, la IA ha democratizado la capacidad de crear falsificaciones pornográficas, y esa capacidad ha sido desproporcionadamente utilizada como arma contra las mujeres. No solo las celebridades son blanco fácil: es cualquiera, desde periodistas y activistas (que pueden ser atacadas para intimidar o desacreditar) hasta exparejas y personas privadas (atacadas por acosadores vengativos o para esquemas de extorsión). La llegada de funciones como el modo Spicy de Grok – que puso un sello oficial y fácil de usar a lo que antes era una práctica clandestina – señala que la IA generativa NSFW ha entrado verdaderamente en la corriente principal, arrastrando consigo toda su carga ética.

Implicaciones éticas, legales y sociales de la pornografía generada por IA

La indignación ética por la pornografía deepfake es generalizada. En el fondo, crear o compartir contenido sexual de alguien sin su consentimiento es una violación profunda de la privacidad, la dignidad y la autonomía. Como argumentan Citron y otros expertos en ética, esto es más que un abuso basado en imágenes: es una forma de explotación sexual. Las víctimas describen sentimientos de “impotencia, humillación y terror” al saber que extraños (o abusadores) están viendo videos falsos de ellas en actos sexuales que nunca realizaron. Puede equivaler a una forma virtual de agresión sexual, dejando un trauma duradero. No es de extrañar que las mujeres y niñas sean las más afectadas: “Los deepfakes íntimos no consensuados” son “una amenaza actual, grave y creciente, que afecta desproporcionadamente a las mujeres,” concluyen los investigadores sciencedirect.com.

También hay una corriente subyacente misógina en gran parte de este contenido. Los expertos señalan que la pornografía deepfake a menudo se utiliza como un arma para degradar a mujeres que están en posiciones de poder o que rechazan los avances de alguien. “La pornografía generada por IA, alimentada por la misoginia, está inundando internet,” observó The Guardian en medio del furor por el deepfake de Taylor Swift theguardian.com. El simple acto de desnudar a una mujer mediante IA puede verse como un intento de ponerla “en su lugar.” “Es como si los hombres le dijeran a una mujer poderosa que vuelva a su caja,” como describió un observador la vibra del incidente de Swift. Ya sean trolls anónimos produciendo imágenes desnudas de una política, o un fan obsesionado creando videos sexuales falsos de una estrella pop, el mensaje es similar: una forma de cosificación digital e intimidación.

Más allá del daño individual, las implicaciones sociales son preocupantes. Si cualquiera puede ser superpuesto en pornografía, los medios visuales ya no pueden ser confiables. Los deepfakes amenazan con daños reputacionales y extorsión a gran escala. Las mujeres en el ojo público pueden autocensurarse o retirarse de la participación en línea por miedo a ser blanco de ataques. También hay un efecto amedrentador sobre la libertad de expresión: imagina a una periodista crítica de un régimen encontrándose como protagonista de un video sexual falso y realista que circula para desacreditarla. En conjunto, la normalización de la “pornografía de diseño” con participantes no dispuestos plantea preguntas sobre el consentimiento, la sexplotación y la mercantilización de la imagen humana. Incluso en el entretenimiento adulto consensuado, algunos temen que los intérpretes generados por IA puedan reemplazar a modelos reales; pero cuando esos intérpretes de IA llevan los rostros reales de personas robados de Facebook o Instagram, la línea del consentimiento está claramente cruzada.

Libertad de expresión vs. privacidad: Existe una tensión entre quienes piden prohibir todos los deepfakes pornográficos y los defensores de la libertad de expresión preocupados por un posible exceso. ¿Podría considerarse alguna vez un deepfake de una celebridad como parodia legítima o arte? En teoría, sí: la sátira y la parodia son expresiones protegidas, incluso usando la imagen de figuras públicas. Algunos defensores de la tecnología de IA señalan que las imágenes modificadas de figuras públicas han sido parte de la cultura popular durante mucho tiempo (por ejemplo, portadas de revistas retocadas con Photoshop), argumentando que la criminalización impulsiva podría frenar la creatividad. Sin embargo, incluso la mayoría de los expertos en libertad de expresión trazan una línea en las representaciones sexuales no consentidas. El daño a la persona es tan intenso y personal que, en teoría, supera cualquier interés público. Los expertos legales señalan que las leyes de difamación o acoso podrían cubrir algunos casos, pero no todos. Existe un consenso creciente de que se necesitan nuevas salvaguardas legales para abordar específicamente la pornografía deepfake, sin socavar la expresión legítima apnews.com apnews.com. Redactar esas leyes de manera precisa – para castigar los abusos claros sin incluir la sátira o la erótica consensuada – es un reto con el que los legisladores están lidiando actualmente apnews.com apnews.com.

Desarrollos actuales (a agosto de 2025): De la reacción tecnológica a nuevas leyes

La controversia en torno al modo “Spicy” de Grok llega en un momento en que gobiernos y plataformas de todo el mundo finalmente están actuando para combatir la epidemia de imágenes íntimas generadas por IA. Estos son algunos de los desarrollos más recientes:

  • Indignación nacional y activismo: Los incidentes virales que involucran a Taylor Swift y otros han galvanizado la opinión pública. Incluso la Casa Blanca de EE. UU. comentó sobre los deepfakes de Swift, como se señaló, calificándolos de “alarmantes” theguardian.com. Grupos de defensa como el National Center on Sexual Exploitation han sido contundentes, condenando a xAI de Musk por “fomentar la explotación sexual al permitir que videos de IA creen desnudez” y pidiendo la eliminación de tales funciones time.com. “xAI debería buscar formas de prevenir el abuso y la explotación sexual,” dijo Haley McNamara de NCOSE en un comunicado, reflejando un impulso más amplio de la sociedad civil time.com.
  • Las encuestas muestran un abrumador apoyo público a las prohibiciones: Encuestas recientes muestran que el público está firmemente a favor de una regulación más estricta. Una encuesta de enero de 2025 del Artificial Intelligence Policy Institute encontró que el 84% de los estadounidenses apoya que la pornografía deepfake no consensuada sea explícitamente ilegal, y de manera similar quieren que las empresas de IA “restringan [los] modelos de IA para evitar su uso en la creación de pornografía deepfake.” time.com. Una encuesta de Pew Research de 2019 también encontró que alrededor de tres cuartas partes de los adultos estadounidenses favorecen límites a los videos/imágenes alterados digitalmente time.com. En resumen, los votantes de todo el espectro parecen querer acción contra esta forma de abuso.
  • Nuevas leyes y proyectos de ley: Los legisladores han escuchado el llamado. En EE. UU., la Ley Take It Down fue promulgada en mayo de 2025, marcando la primera legislación federal dirigida a la pornografía deepfake time.com. Esta ley bipartidista hace ilegal “publicar o amenazar con publicar” imágenes íntimas sin consentimiento –incluyendo deepfakes creados por IA– y exige a las plataformas eliminar dicho material en un plazo de 48 horas tras la notificación de la víctima apnews.com apnews.com. Las sanciones son severas, y la ley otorga a las víctimas el poder de lograr que el contenido sea retirado rápidamente apnews.com apnews.com. “Debemos brindar a las víctimas de abuso en línea las protecciones legales que necesitan, especialmente ahora que los deepfakes están creando nuevas y horribles oportunidades para el abuso,” dijo la senadora Amy Klobuchar, co-patrocinadora, calificando la ley como “una gran victoria para las víctimas de abuso en línea.” apnews.com apnews.com Incluso antes de la ley federal, más de 15 estados de EE. UU. ya habían prohibido la creación o distribución de deepfakes explícitos (a menudo actualizando las leyes de “porno de venganza”). Ahora, está surgiendo un estándar federal unificado. Otros países avanzan en la misma dirección. El gobierno del Reino Unido, por ejemplo, penalizó el compartir pornografía deepfake en su Ley de Seguridad en Línea (vigente a principios de 2024), y está impulsando legislación para penalizar incluso la creación de deepfakes sexualmente explícitos sin consentimiento hsfkramer.com hsfkramer.com. En enero de 2025, el Reino Unido reintrodujo una propuesta para ilegalizar la creación de desnudos deepfake, subrayándolo como “un avance histórico para la protección de mujeres y niñas.” hsfkramer.com hsfkramer.com Australia aprobó una ley en 2024 que prohíbe tanto la creación como la distribución de material sexual deepfake, y Corea del Sur ha llegado incluso a proponer la criminalización de la simple posesión o visualización de dicho porno deepfake (no solo su producción) hsfkramer.com. La tendencia global es clara: las imágenes sexuales de IA no consensuadas están siendo consideradas un delito. Los legisladores reconocen que estas imágenes “pueden arruinar vidas y reputaciones,” como dijo Klobuchar apnews.com, y están tomando medidas – aunque organizaciones defensoras de la libertad de expresión como EFF advierten que leyes mal redactadas podrían censurar en exceso o ser mal utilizadas apnews.com apnews.com.
  • Políticas de las plataformas tecnológicas: Las principales plataformas tecnológicas han comenzado a actualizar sus políticas (al menos en el papel) para abordar el contenido sexual creado por IA. Facebook, Instagram, Reddit y el antiguo Twitter prohíben oficialmente las imágenes íntimas no consensuadas, incluidos los deepfakes theguardian.com theverge.com. Pornhub y otros sitios para adultos también instituyeron prohibiciones sobre contenido generado por IA que presenta a personas reales sin su consentimiento desde 2018 theguardian.com theverge.com. En la práctica, la aplicación sigue siendo irregular: un usuario decidido aún puede encontrar o compartir deepfakes ilícitos en muchas plataformas. Sin embargo, hay señales de progreso: por ejemplo, después del incidente de Swift, X (Twitter) finalmente respondió bloqueando las búsquedas de su nombre para detener la difusión theguardian.com theguardian.com. Reddit no solo prohíbe la pornografía deepfake, sino que cerró comunidades enteras que intercambiaban ese material. YouTube y TikTok también tienen políticas que prohíben imágenes explícitas manipuladas por IA. El desafío es la escala y la detección, y es ahí donde se está aplicando nueva tecnología.
  • Detección y Salvaguardas: Una creciente industria artesanal de soluciones tecnológicas busca detectar y eliminar la pornografía deepfake. Empresas de IA como Sensity (anteriormente Deeptrace) y startups como Ceartas están desarrollando algoritmos de detección que escanean internet en busca del rostro de una persona en contenido pornográfico y señalan coincidencias polygon.com polygon.com. De hecho, tras el escándalo de Twitch, Atrioc se asoció con Ceartas para ayudar a las streamers afectadas: la empresa utilizó su IA para localizar contenido deepfake de esas mujeres y presentar solicitudes de retirada DMCA polygon.com polygon.com. OnlyFans, una plataforma con un interés particular en proteger a los creadores, también ha incorporado estas herramientas para vigilar el contenido falso de sus modelos polygon.com. También se está trabajando en la incorporación de marcas de agua o metadatos en imágenes generadas por IA para ayudar a identificar falsificaciones, así como propuestas para exigir la autenticación criptográfica de imágenes reales (de modo que las imágenes no etiquetadas puedan considerarse falsas). Además, la Ley de IA de la Unión Europea (acordada en 2024) incluye disposiciones que exigen que los desarrolladores de herramientas deepfake deben garantizar que los resultados estén claramente etiquetados como generados por IA bioid.com. Varios estados de EE. UU. (y la UE) están considerando exigir que cualquier contenido alterado por IA vaya acompañado de una divulgación al publicarse cjel.law.columbia.edu bioid.com. Si bien estas etiquetas no impedirán que actores maliciosos las eliminen, representan un intento de establecer normas de transparencia en torno a los medios sintéticos.
  • Plataforma vs. X de Musk: Vale la pena destacar lo inusual que es el enfoque de Musk con X y xAI. Mientras que la mayoría de las plataformas están endureciendo las restricciones, Musk esencialmente las ha aflojado, atrayendo a una base de usuarios que desea capacidades de IA “atrevidas”. X no solo no ha prohibido los resultados de Grok; es el hogar de Grok. Esta divergencia ha puesto a X en desacuerdo con muchos expertos. En agosto de 2024, un grupo de legisladores demócratas citó específicamente a Grok de Musk en una carta a los reguladores, advirtiendo que las políticas laxas sobre deepfakes (incluidos los explícitos de figuras como Kamala Harris o Taylor Swift) podrían causar estragos en las elecciones y más allá time.com. Musk parece estar apostando a que atender la demanda de erotismo generado por IA (e incluso compañeros de chat de IA que coquetean o se desnudan, como demuestran las nuevas funciones de xAI time.com) atraerá ingresos y usuarios. Pero la reacción – legal, social y potencialmente financiera (por preocupaciones de los anunciantes) – podría contar una historia diferente a largo plazo.

Propuestas de políticas y el camino a seguir: ¿Podemos controlar el porno deepfake?

El consenso entre los legisladores y los éticos es que se necesita una acción multifacética para abordar el contenido NSFW generado por IA. Las propuestas e ideas clave incluyen:

  • Leyes y aplicación más estrictas: Como se señaló, leyes como la Take It Down Act son un comienzo. Los expertos sugieren más ajustes, como hacer que el acto de crear una imagen sexual falsa de alguien sin consentimiento sea un delito, no solo su distribución. (El Reino Unido va en esta dirección hsfkramer.com hsfkramer.com.) Sanciones legales claras para los perpetradores – y para quienes conscientemente alojan o se benefician de dicho contenido – pueden actuar como un elemento disuasorio. Es importante que cualquier legislación esté cuidadosamente delimitada para evitar criminalizar involuntariamente el arte erótico consensuado o la sátira política legítima apnews.com apnews.com. Los recursos civiles también son vitales: las víctimas necesitan vías sencillas para demandar por daños y obtener órdenes judiciales para eliminar el contenido. Muchos defensores quieren ver excepciones en la Sección 230 (la ley estadounidense que protege a las plataformas de la responsabilidad por el contenido de los usuarios) para que los sitios web puedan ser responsables si no responden a solicitudes de eliminación de porno deepfake. Esto presionaría a las plataformas a ser mucho más vigilantes.
  • Límites tecnológicos: En el ámbito del desarrollo, las propuestas sugieren que los creadores de modelos de IA deberían incorporar salvaguardas preventivas. Por ejemplo, las empresas podrían entrenar filtros de contenido para detectar cuando una solicitud de usuario involucra el nombre o la imagen de una persona real y bloquear cualquier resultado explícito que involucre a esa persona. (Algunos generadores de imágenes por IA ya rechazan solicitudes que parecen referirse a personas privadas o producir desnudos de figuras públicas; Grok de xAI es una excepción al no hacerlo avclub.com). Otra idea es exigir verificación de consentimiento para creaciones explícitas: por ejemplo, un servicio de IA solo podría generar una imagen desnuda si el usuario demuestra que el sujeto es él mismo o un modelo que ha dado su consentimiento. Por supuesto, los actores malintencionados podrían simplemente usar modelos de código abierto sin tales filtros, pero si las principales plataformas adoptan límites estrictos, esto podría frenar la difusión generalizada. La verificación de edad también es una preocupación: la única comprobación de Grok era una solicitud de fecha de nacimiento fácilmente evitable gizmodo.com; por ello, se pide un control de edad más robusto para asegurar que los menores (que a menudo son blanco de acoso mediante falsos desnudos) no puedan usar estas herramientas ni ser representados por ellas.
  • Investigación y detección: Los gobiernos están financiando investigaciones sobre la detección de deepfakes, y las empresas están colaborando en estándares para autenticar medios. El objetivo es facilitar la identificación y eliminación rápida de pornografía falsa cuando aparezca. Sin embargo, la detección siempre será un juego del gato y el ratón a medida que las falsificaciones por IA se vuelvan más sofisticadas. Algunos expertos creen que el enfoque debería cambiar a prevenir el daño (mediante sanciones legales y educación) en lugar de esperar un “detector de falsos” técnico que lo atrape todo. Aun así, los avances en IA para el bien – como un mejor hash de imágenes para rastrear falsificaciones conocidas, o herramientas para que las personas descubran si su imagen ha sido mal utilizada – desempeñarán un papel en la mitigación.
  • Responsabilidad de las plataformas: Los grupos de defensa instan a que las plataformas de redes sociales y de contenido para adultos deben vigilar proactivamente el contenido pornográfico generado por IA. Esto podría significar invertir en equipos de moderación de contenido capacitados para detectar deepfakes, cooperar con las fuerzas del orden en órdenes de eliminación y prohibir a los reincidentes que crean o comparten material no consensuado. Algunos también piden sistemas de exclusión o registro, donde las personas puedan registrar su imagen (o la de sus hijos) y las plataformas deban asegurarse de que no se permita contenido de IA que los represente, aunque administrativamente esto sería difícil de hacer cumplir. Como mínimo, protocolos de respuesta rápida – como el requisito de eliminación en 48 horas de la ley estadounidense apnews.com – deben convertirse en una práctica estándar en todas las plataformas a nivel mundial.
  • Educación y normas: Finalmente, parte de la solución radica en cambiar las normas sociales. Así como la sociedad llegó a condenar ampliamente la “pornografía de venganza” y reconocerla como abuso, la esperanza es que la pornografía deepfake sea universalmente estigmatizada. Si la persona promedio comprende el daño y se niega a compartir o consumir dicho contenido, la demanda disminuirá. Los expertos en ética tecnológica enfatizan la importancia de la alfabetización mediática: enseñar a las personas que ver no siempre es creer, y que una foto escandalosa de la Celebridad X podría ser falsa. Empoderar a las generaciones más jóvenes para que naveguen críticamente en un mundo de medios alterados por IA será crucial. También lo serán las campañas para informar a los posibles perpetradores que crear estos falsos no es una broma: es una violación grave con posibles consecuencias penales.

Conclusión

La aparición del “Spicy Mode” de Grok ha echado gasolina a un fuego ya encendido en torno a la IA y los deepfakes sexualmente explícitos. La herramienta de IA de Elon Musk, al hacer fácil e incluso “oficial” generar imitaciones desnudas de celebridades, ha provocado una rápida reacción negativa y ha puesto el foco en la crisis más amplia de la pornografía deepfake. Desde los pasillos del Congreso hasta los hilos de comentarios en foros tecnológicos, hay un acuerdo creciente en que algo debe hacerse para proteger a las personas (especialmente a las mujeres) de las aplicaciones más oscuras de esta tecnología.

Como hemos visto, el contenido NSFW generado por IA no es una novedad aislada: es un desafío social en aumento. Enfrenta la libertad creativa y la innovación tecnológica contra la privacidad, el consentimiento y la seguridad. El genio no volverá a la botella, pero a través de políticas inteligentes, desarrollo tecnológico responsable y cambio cultural, podemos esperar contener el daño. Es probable que los próximos meses y años traigan más demandas, más leyes y mejores salvaguardas de IA. Grok de Musk puede adaptarse bajo presión o convertirse en una advertencia sobre un emprendimiento de IA que ignoró los límites éticos a su propio riesgo.

Por ahora, el mensaje de expertos y del público es contundente: la pornografía deepfake es una línea que la IA no debe cruzar. Y si empresas como xAI no trazan esa línea por sí mismas, los reguladores y la sociedad están cada vez más preparados para hacerlo por ellas. Como dijo un defensor de la ética tecnológica, “Que tu imagen sea convertida en pornografía sin consentimiento es devastador: ya es hora de que lo tratemos como el grave abuso que es, y no como una inevitabilidad tecnológica.” El debate ya no es sobre si se necesita acción, sino sobre qué tan rápido y eficazmente podemos frenar la explotación sexual impulsada por IA, antes de que más vidas sean trastocadas por la próxima innovación “Spicy”.

Fuentes:

  • Novak, Matt. “El ‘Spicy’ Mode de Grok crea deepfakes NSFW de celebridades mujeres (pero no de hombres).Gizmodo, 6 de agosto de 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. “La configuración de video ‘Spicy’ de Grok instantáneamente me hizo deepfakes desnudos de Taylor Swift.The Verge, 5 de agosto de 2025 theverge.com.
  • Carr, Mary Kate. “Elon Musk prácticamente está suplicando una demanda de Taylor Swift con los deepfakes desnudos de Grok AI.AV Club, 7 de agosto de 2025 avclub.com avclub.com.
  • Saner, Emine. “Dentro del escándalo de los deepfakes de Taylor Swift: ‘Son hombres diciéndole a una mujer poderosa que vuelva a su lugar’.The Guardian, 31 de enero de 2024 theguardian.com theguardian.com.
  • Clark, Nicole. “Streamer que incitó el escándalo de porno deepfake en Twitch regresa.Polygon, 16 de marzo de 2023 polygon.com polygon.com.
  • Patrini, Giorgio. “El estado de los deepfakes.” Informe de Deeptrace Labs, octubre de 2019 regmedia.co.uk.
  • Citron, Danielle. Entrevista en NYMag Intelligencer, octubre de 2019 nymag.com.
  • Ortutay, Barbara. “El presidente Trump firma la Ley Take It Down, abordando los deepfakes no consensuados. ¿Qué es?AP News, agosto de 2025 apnews.com apnews.com.
  • Burga, Solcyre. “El Grok de Elon Musk pronto permitirá a los usuarios crear videos de IA, incluidos de naturaleza explícita.TIME, ago. 2025 time.com time.com.
  • Herbert Smith Freehills Law Firm. “Criminalización de los deepfakes: los nuevos delitos en el Reino Unido…,” 21 de mayo de 2024 hsfkramer.com hsfkramer.com.

Tags: ,