LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Modo ‘Apimentado’ de IA de Elon Musk Gera Escândalo de Deepfake NSFW – Por Que Mulheres São Alvo de uma Nova Crise de Pornografia com IA

Modo ‘Apimentado’ de IA de Elon Musk Gera Escândalo de Deepfake NSFW – Por Que Mulheres São Alvo de uma Nova Crise de Pornografia com IA

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

A nova iniciativa de IA de Elon Musk está sob críticas por gerar deepfakes nus não consensuais de celebridades – e fazê-lo de uma forma perturbadoramente enviesada em relação ao gênero. Uma investigação recente do Gizmodo revela que a ferramenta Grok Imagine de Musk, com seu modo “Spicy”, cria facilmente vídeos NSFW de mulheres famosas (pense em Taylor Swift ou Melania Trump), mas se recusa a fazer o mesmo para homens gizmodo.com gizmodo.com. Este relatório aprofunda-se nas descobertas do Gizmodo sobre o recurso controverso do Grok, examina o rápido crescimento de conteúdo pornográfico gerado por IA e deepfakes, e explora as implicações éticas, legais e sociais. Também analisamos os desenvolvimentos atuais até agosto de 2025 – desde a indignação pública e alertas de especialistas até novas leis destinadas a conter o “revenge porn” de IA. O objetivo: entender como o “Spicy Mode” se tornou o mais recente ponto de discórdia na crise contínua de conteúdo NSFW gerado por IA, e o que pode ser feito a respeito.

O “Spicy Mode” do Grok – Deepfakes NSFW e um viés embutido

Grok Imagine é o gerador de imagens e vídeos da xAI (disponível para assinantes pagantes na plataforma X de Musk) e, notavelmente, permite que os usuários criem conteúdo adulto por meio de um modo “Spicy” gizmodo.com. Enquanto ferramentas de IA convencionais como o Veo do Google e o Sora da OpenAI proíbem imagens explícitas ou de celebridades, o modo Spicy do Grok incentiva ativamente isso avclub.com avclub.com. Testes do The Verge mostraram que a IA “não hesitou em gerar vídeos totalmente sem censura de Taylor Swift topless” logo na primeira tentativa – sem nem mesmo ser solicitado nudez theverge.com. Da mesma forma, a Deadline achou trivialmente fácil fazer com que o Grok gerasse uma imagem de Scarlett Johansson mostrando a roupa íntima avclub.com. Em forte contraste, tentativas de produzir nudez masculina não tiveram sucesso. Como relata o Gizmodo, “ele só fazia as imagens retratando mulheres realmente impróprias para o trabalho. Vídeos de homens eram do tipo que realmente não chamariam muita atenção.” gizmodo.com Na prática, o modo Spicy do Grok pode, no máximo, mostrar um homem sem camisa, enquanto mulheres são retratadas topless ou totalmente nuas.

Este flagrante duplo padrão levantou alertas. O Grok irá gerar um clipe no estilo pornô softcore de uma figura pública feminina com um clique de botão gizmodo.com, mas o mesmo filtro “Spicy” aparentemente para na mera nudez do torso masculino gizmodo.com. Matt Novak, do Gizmodo, chegou a tentar pedir um homem genérico, não famoso, versus uma mulher genérica: o avatar masculino puxou desconfortavelmente a calça, mas permaneceu coberto, enquanto o avatar feminino prontamente expôs os seios gizmodo.com. Tais resultados sugerem um viés de gênero embutido na moderação de conteúdo da IA (seja intencional ou como subproduto do seu treinamento). O próprio histórico de Musk com comentários misóginos – desde amplificar alegações de que mulheres são “fracas” gizmodo.com até fazer piadas sobre engravidar Taylor Swift – aumenta as suspeitas de que esse viés é mais uma característica do que uma falha gizmodo.com.

Capacidades e Limitações: Vale ressaltar que os deepfakes do Grok costumam ser de baixa qualidade. As semelhanças com celebridades que ele produz frequentemente não convencem ou apresentam falhas gizmodo.com gizmodo.com. (Por exemplo, imagens que deveriam ser da atriz Sydney Sweeney ou do político J.D. Vance não se pareciam em nada com suas versões reais gizmodo.com.) Erros bizarros de continuidade – como um homem usando pernas de calça diferentes em um vídeo – são comuns gizmodo.com. O Grok também gera automaticamente músicas ou áudios genéricos de fundo para cada clipe, aumentando a sensação surreal de “vale da estranheza” gizmodo.com. Essas deficiências técnicas podem ser uma salvação para a xAI no momento, já que falsificações nuas realmente realistas de pessoas famosas quase certamente desencadeariam processos judiciais e liminares gizmodo.com. Como brincou o Gizmodo, a melhor defesa de Musk contra ações legais pode ser que “as imagens nem chegam perto” das celebridades reais gizmodo.com. Mas a tecnologia está melhorando rapidamente, e mesmo esses deepfakes imperfeitos já são reconhecíveis o suficiente para serem preocupantes avclub.com.

Resposta Pública: O lançamento do “Spicy Mode” imediatamente gerou indignação nas redes sociais e na imprensa. Dias após o lançamento do Grok Imagine, o X (Twitter) foi inundado com imagens geradas por IA de mulheres nuas, com usuários compartilhando ansiosamente dicas de como maximizar a nudez em seus prompts gizmodo.com. Isso provocou críticas generalizadas de que Musk havia efetivamente aberto as comportas para assédio sexual e exploração alimentados por IA. “Grande parte do conteúdo do Grok Imagine que Musk compartilhou ou republicou são clipes de loiras genéricas de seios fartos ou mulheres com trajes de fantasia reveladores”, observou o A.V. Club, destacando que Musk parece determinado a invadir o território do Pornhub avclub.com avclub.com. Blogueiros de tecnologia e comentaristas sugeriram de forma irônica que Musk está “praticamente implorando por um processo de Taylor Swift” devido aos nus gerados automaticamente pelo Grok avclub.com. De fato, alguns comentaristas incentivaram alvos de alto perfil como Swift a levar Musk à justiça e “tornar o mundo mais seguro para outras mulheres e meninas” avclub.com. Até agora, não há indicação pública de ação legal por parte da equipe de Swift ou de outros – mas os apelos por responsabilização estão ficando mais altos.

Mesmo fora da controvérsia do Grok, 2024 viu um grande clamor público sobre pornografia gerada por IA no X. Em um incidente, imagens pornográficas deepfake de Taylor Swift se espalharam amplamente na plataforma, com uma foto falsa alcançando 47 milhões de visualizações antes de ser removida theguardian.com. Fãs se mobilizaram em massa para denunciar as imagens, e até a Casa Branca se manifestou, chamando a situação de “alarmante” theguardian.com. O caso de Swift é excepcional apenas pela atenção que recebeu; inúmeras mulheres (famosas ou não) já viram suas imagens transformadas em conteúdo explícito que as plataformas não conseguem remover rapidamente theguardian.com theguardian.com. A ira pública em torno desses incidentes – e agora em torno do modo NSFW embutido do Grok – reflete um consenso crescente de que ferramentas de IA que possibilitam deepfakes sexuais estão ultrapassando limites éticos.

A ascensão rápida do conteúdo NSFW e deepfakes gerados por IA

O episódio do Grok é o capítulo mais recente de uma tendência preocupante: a pornografia gerada por IA (“deepfake porn”) explodiu em prevalência nos últimos anos. O fenômeno ganhou notoriedade pela primeira vez em 2017, quando entusiastas no Reddit começaram a usar algoritmos iniciais de deep learning para trocar rostos de celebridades pelos de atores pornôs. Em 2018, os chamados vídeos “deepfake” de Gal Gadot, Emma Watson, Scarlett Johansson e outras começaram a proliferar em sites adultos – levando plataformas como Reddit, Twitter e Pornhub a banirem esse tipo de conteúdo não consensual theguardian.com theverge.com.

Apesar dessas proibições iniciais, a indústria de deepfake pornográfica foi para a clandestinidade e continuou a crescer. No final de 2019, um relatório histórico da empresa de cibersegurança Deeptrace constatou que 96% de todos os vídeos deepfake circulando online eram pornográficos, trocas de rosto não consensuais, quase exclusivamente com mulheres como alvo regmedia.co.uk. Os quatro maiores sites de deepfake porn analisados já somavam mais de 134 milhões de visualizações em vídeos que tinham como alvo “centenas de celebridades femininas ao redor do mundo.” regmedia.co.uk Esse desequilíbrio era gritante: as vítimas eram esmagadoramente mulheres, e os consumidores, em sua maioria, interessados em mulheres como objetos sexuais. “99% dos vídeos deepfake sexuais envolvem mulheres, geralmente celebridades femininas”, observou a professora de direito Danielle Citron, destacando como essas criações “fazem de você um objeto sexual de formas que você não escolheu” nymag.com. “Não há nada de errado com pornografia, desde que você tenha escolhido”, acrescentou Citron – o horror dos deepfakes é que essas mulheres nunca escolheram ter sua imagem usada em cenas explícitas nymag.com.

No início, os deepfakes de celebridades predominavam, mas agora pessoas comuns estão sendo cada vez mais alvo. Em janeiro de 2023, a comunidade de streaming da Twitch foi abalada por um escândalo quando o popular streamer Brandon “Atrioc” Ewing revelou acidentalmente que havia acessado um site de deepfake pornográfico que vendia vídeos explícitos de streamers mulheres – editando seus rostos nos corpos de atrizes pornôs polygon.com. As mulheres (algumas delas amigas pessoais de Atrioc) ficaram devastadas e sofreram ondas de assédio quando os deepfakes vieram à tona polygon.com. Uma das vítimas, a streamer QTCinderella, fez um depoimento emocionado condenando a violação e depois ajudou a organizar esforços legais para remover esse tipo de conteúdo polygon.com polygon.com. O escândalo “Twitch deepfake” ressaltou que você não precisa ser uma estrela de Hollywood para que isso aconteça – qualquer pessoa com imagens online está potencialmente vulnerável a ser “revistada” por IA contra a própria vontade.

A ascensão de ferramentas de IA fáceis de usar só acelerou essa tendência. Em 2019, um aplicativo chamado DeepNude viralizou brevemente por usar IA para “despir” fotos de mulheres com um clique, produzindo nudes falsos onezero.medium.com. Embora o criador do DeepNude o tenha encerrado em meio à reação pública, o gênio já havia saído da garrafa. Entre 2023 e 2025, geradores de imagens de código aberto (como derivados do Stable Diffusion) e serviços dedicados de deepfake tornaram trivial para qualquer pessoa com algumas fotos e conhecimento técnico mínimo criar imagens nuas ou sexuais de outras pessoas. Alguns fóruns trocam abertamente nudes gerados por IA de mulheres retiradas das redes sociais. Como lamentou uma vítima, streamer da Twitch, após descobrir falsificações pornográficas de si mesma, “Isso não tem nada a ver comigo. E mesmo assim está aqui com o meu rosto.” theguardian.com O sentimento de violação e impotência é palpável entre aqueles que foram “vítimas digitais”.

Em resumo, a IA democratizou a capacidade de criar falsificações pornográficas, e essa capacidade tem sido desproporcionalmente usada como arma contra mulheres. Não são apenas celebridades que estão na mira – é qualquer pessoa, de jornalistas e ativistas (que podem ser alvo para intimidar ou desacreditar) a ex-parceiros e pessoas comuns (alvo de pessoas vingativas ou para esquemas de extorsão). O surgimento de recursos como o modo Spicy do Grok – que colocou um selo oficial, fácil de usar, no que antes era uma prática underground – sinaliza que a IA generativa NSFW realmente entrou no mainstream, trazendo consigo toda a sua bagagem ética.

Implicações Éticas, Legais e Sociais da Pornografia Gerada por IA

A indignação ética sobre a pornografia deepfake é generalizada. Em sua essência, criar ou compartilhar conteúdo sexual de alguém sem o consentimento dessa pessoa é uma violação profunda da privacidade, dignidade e autonomia. Como argumentam Citron e outros especialistas em ética, isso é mais do que abuso baseado em imagens – é uma forma de exploração sexual. As vítimas descrevem sentimentos de “impotência, humilhação e terror” ao saber que desconhecidos (ou agressores) estão assistindo vídeos falsos delas em atos sexuais que nunca cometeram. Isso pode equivaler a uma forma virtual de agressão sexual, deixando traumas duradouros. Não surpreende que mulheres e meninas sejam as mais afetadas: “Deepfakes íntimos não consensuais” são “uma ameaça atual, grave e crescente, que afeta desproporcionalmente as mulheres,” concluem pesquisadores sciencedirect.com.

Há também uma corrente misógina em grande parte desse conteúdo. Especialistas observam que pornografia deepfake é frequentemente usada como arma para degradar mulheres que estão em posições de poder ou que rejeitam as investidas de alguém. “Pornografia gerada por IA, alimentada pela misoginia, está inundando a internet,” observou o The Guardian em meio à polêmica dos deepfakes de Taylor Swift theguardian.com. O próprio ato de despir uma mulher via IA pode ser visto como uma tentativa de colocá-la “em seu devido lugar.” “São homens dizendo a uma mulher poderosa para voltar ao seu lugar,” como um observador descreveu o clima do incidente com Swift. Seja trolls anônimos produzindo imagens nuas de uma política, ou um fã obcecado criando vídeos sexuais falsos de uma estrela pop, a mensagem é semelhante – uma forma de objetificação e intimidação digital.

Além do dano individual, as implicações sociais são preocupantes. Se qualquer pessoa pode ser inserida em pornografia, a mídia visual não pode mais ser confiável. Deepfakes ameaçam danos à reputação e extorsão em larga escala. Mulheres em evidência podem se autocensurar ou se afastar do engajamento online por medo de serem alvo. Há também um efeito inibidor sobre a fala: imagine uma jornalista crítica de um regime tornando-se alvo de um vídeo sexual falso realista, circulado para desmoralizá-la. No conjunto, a normalização de “pornografia sob medida” com participantes não consentidos levanta questões sobre consentimento, sexploração e a mercantilização da imagem humana. Mesmo para entretenimento adulto consensual, alguns temem que performers gerados por IA possam substituir modelos reais – mas quando esses performers de IA usam os rostos reais de pessoas roubados do Facebook ou Instagram, a linha do consentimento é claramente ultrapassada.

Liberdade de Expressão vs. Privacidade: Existe uma tensão entre aqueles que defendem a proibição total de deepfakes pornográficos e os defensores da liberdade de expressão preocupados com excessos. Um deepfake de celebridade poderia ser considerado uma paródia ou arte legítima? Em teoria, sim – sátira e paródia são formas de expressão protegidas, mesmo usando a imagem de figuras públicas. Alguns defensores da tecnologia de IA observam que imagens manipuladas de figuras públicas há muito fazem parte da cultura popular (por exemplo, capas de revistas editadas no Photoshop), argumentando que a criminalização impulsiva pode inibir a criatividade. No entanto, até mesmo a maioria dos estudiosos da liberdade de expressão traça um limite em representações sexuais não consensuais. O dano ao indivíduo é tão intenso e pessoal que, provavelmente, supera qualquer interesse público. Especialistas jurídicos apontam que leis de difamação ou assédio podem cobrir alguns casos, mas não todos. Há um consenso crescente de que novas salvaguardas legais são necessárias para abordar especificamente o deepfake pornográfico, sem prejudicar a expressão legítima apnews.com apnews.com. Elaborar essas leis de forma precisa – para punir abusos claros sem atingir sátiras ou erotismo consensual – é um desafio com o qual os legisladores estão lidando agora apnews.com apnews.com.

Desenvolvimentos Atuais (em agosto de 2025): Da Reação Tecnológica a Novas Leis

A polêmica em torno do modo “Spicy” do Grok surge em um momento em que governos e plataformas ao redor do mundo finalmente estão agindo para combater a epidemia de imagens íntimas geradas por IA. Aqui estão alguns dos desenvolvimentos mais recentes:

  • Indignação Nacional e Ativismo: Os incidentes virais envolvendo Taylor Swift e outros galvanizaram a opinião pública. Até mesmo a Casa Branca dos EUA comentou sobre os deepfakes de Swift, como mencionado, chamando-os de “alarmantes” theguardian.com. Grupos de defesa como o National Center on Sexual Exploitation têm se manifestado, condenando o xAI de Musk por “promover a exploração sexual ao permitir que vídeos de IA criem nudez” e pedindo a remoção desses recursos time.com. “O xAI deveria buscar maneiras de prevenir o abuso e a exploração sexual,” disse Haley McNamara, do NCOSE, em um comunicado, refletindo uma pressão mais ampla da sociedade civil time.com.
  • Pesquisas Mostram Apoio Público Massivo a Proibições: Pesquisas recentes mostram que o público está firmemente a favor de uma regulamentação mais rigorosa. Uma pesquisa de janeiro de 2025 do Artificial Intelligence Policy Institute constatou que 84% dos americanos apoiam tornar a pornografia deepfake não consensual explicitamente ilegal, e querem igualmente que as empresas de IA “restrinjam [os] modelos de IA para evitar seu uso na criação de pornografia deepfake.” time.com. Uma pesquisa do Pew Research de 2019 também constatou que cerca de três quartos dos adultos nos EUA são a favor de limites para vídeos/imagens digitalmente alterados time.com. Em resumo, eleitores de todo o espectro parecem querer ação contra essa forma de abuso.
  • Novas Leis e Projetos de Lei: Os legisladores ouviram o chamado. Nos EUA, o Take It Down Act foi sancionado em maio de 2025, marcando a primeira legislação federal direcionada à pornografia deepfake time.com. Esta lei bipartidária torna ilegal “publicar ou ameaçar publicar” conscientemente imagens íntimas sem consentimento – incluindo deepfakes criados por IA – e exige que as plataformas removam tal material em até 48 horas após notificação da vítima apnews.com apnews.com. As penalidades são severas, e a lei dá poder às vítimas para que o conteúdo seja retirado rapidamente apnews.com apnews.com. “Precisamos oferecer às vítimas de abuso online as proteções legais de que necessitam, especialmente agora que os deepfakes estão criando novas e horríveis oportunidades para o abuso,” disse a senadora Amy Klobuchar, coautora do projeto, chamando a lei de “uma grande vitória para as vítimas de abuso online.” apnews.com apnews.com Mesmo antes da lei federal, mais de 15 estados dos EUA já haviam proibido a criação ou distribuição de deepfakes explícitos (frequentemente atualizando estatutos de “revenge porn”). Agora, um padrão federal unificado está surgindo. Outros países estão avançando em conjunto. O governo do Reino Unido, por exemplo, criminalizou o compartilhamento de pornografia deepfake em sua Online Safety Act (em vigor no início de 2024), e está avançando com legislação para criminalizar até mesmo a criação de deepfakes sexualmente explícitos sem consentimento hsfkramer.com hsfkramer.com. Em janeiro de 2025, o Reino Unido reintroduziu uma proposta para tornar ilegal a criação de nudes deepfake, destacando isso como “um marco para a proteção de mulheres e meninas.” <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com A Austrália aprovou uma lei em 2024 proibindo tanto a criação quanto a distribuição de material sexual deepfake, e a Coreia do Sul foi ainda mais longe ao propor a criminalização até mesmo da posse ou visualização desse tipo de pornografia deepfake (não apenas sua produção) hsfkramer.com. A tendência global é clara: imagens sexuais de IA não consensuais estão sendo vistas como crime. Legisladores reconhecem que essas imagens “podem arruinar vidas e reputações,” como disse Klobuchar apnews.com, e estão tomando providências – embora organizações de defesa da liberdade de expressão como a EFF alertem que leis mal elaboradas podem censurar em excesso ou serem mal utilizadas apnews.com apnews.com.
  • Políticas das Plataformas de Tecnologia: As principais plataformas de tecnologia começaram a atualizar suas políticas (ao menos no papel) para lidar com conteúdo sexual criado por IA. Facebook, Instagram, Reddit e o antigo Twitter proíbem oficialmente imagens íntimas não consensuais, incluindo deepfakes theguardian.com theverge.com. Pornhub e outros sites adultos também instituíram proibições de conteúdo gerado por IA com pessoas reais sem consentimento já em 2018 theguardian.com theverge.com. Na prática, a aplicação continua irregular – um usuário determinado ainda pode encontrar ou compartilhar deepfakes ilícitos em muitas plataformas. No entanto, há sinais de progresso: por exemplo, após o incidente com Swift, o X (Twitter) acabou respondendo bloqueando buscas por seu nome para impedir a disseminação theguardian.com theguardian.com. O Reddit não só proíbe pornografia deepfake, como também fechou comunidades inteiras que trocavam esse tipo de material. YouTube e TikTok também possuem políticas que proíbem imagens explícitas manipuladas por IA. O desafio é a escala e a detecção – e é aí que novas tecnologias estão sendo aplicadas.
  • Detecção e Salvaguardas: Uma indústria caseira crescente de soluções tecnológicas busca detectar e remover pornografia deepfake. Empresas de IA como a Sensity (anteriormente Deeptrace) e startups como a Ceartas estão desenvolvendo algoritmos de detecção que vasculham a internet em busca do rosto de uma pessoa em conteúdo pornográfico e sinalizam correspondências polygon.com polygon.com. Na verdade, após o escândalo da Twitch, Atrioc fez parceria com a Ceartas para ajudar as streamers vítimas: a empresa usou sua IA para localizar conteúdo deepfake dessas mulheres e enviar solicitações de remoção via DMCA polygon.com polygon.com. O OnlyFans, uma plataforma com interesse direto em proteger criadores, também adotou essas ferramentas para monitorar conteúdo falso de suas modelos polygon.com. Também há trabalhos em andamento para incorporar marcas d’água ou metadados em imagens geradas por IA para ajudar a identificar falsificações, assim como propostas para exigir autenticação criptográfica de imagens reais (de modo que imagens sem rótulo possam ser consideradas falsas). Além disso, a Lei de IA da União Europeia (acordada em 2024) inclui disposições de que desenvolvedores de ferramentas de deepfake devem garantir que os resultados estejam claramente rotulados como gerados por IA bioid.com. Vários estados dos EUA (e a UE) estão considerando exigir que qualquer conteúdo alterado por IA seja acompanhado de uma divulgação ao ser publicado cjel.law.columbia.edu bioid.com. Embora tais rótulos não impeçam que agentes mal-intencionados os editem, eles representam uma tentativa de estabelecer normas de transparência em torno da mídia sintética.
  • Plataforma vs. X de Musk: Vale destacar o quão incomum é a abordagem de Musk com a X e a xAI. Enquanto a maioria das plataformas está endurecendo as restrições, Musk basicamente afrouxou, atraindo uma base de usuários que deseja capacidades de IA “ousadas”. A X não apenas não baniu as saídas do Grok; é a casa do Grok. Essa divergência colocou a X em desacordo com muitos especialistas. Em agosto de 2024, um grupo de legisladores democratas citou especificamente o Grok de Musk em uma carta a reguladores, alertando que políticas frouxas sobre deepfakes (incluindo explícitos de figuras como Kamala Harris ou Taylor Swift) poderiam causar estragos em eleições e além time.com. Musk parece apostar que atender à demanda por erotismo gerado por IA (e até companheiros de chat de IA que flertam ou se despem, como demonstram os novos recursos da xAI time.com) trará receita e usuários. Mas a reação – legal, social e potencialmente financeira (por preocupações de anunciantes) – pode contar uma história diferente a longo prazo.

Propostas de Políticas e o Caminho à Frente: Podemos Conter a Pornografia Deepfake?

O consenso entre formuladores de políticas e especialistas em ética é que ações multifacetadas são necessárias para enfrentar o conteúdo NSFW gerado por IA. As principais propostas e ideias incluem:

  • Leis e Fiscalização Mais Rígidas: Como mencionado, leis como o Take It Down Act são um começo. Especialistas sugerem refinamentos adicionais, como tornar o ato de criar uma imagem sexual falsa de alguém sem consentimento um crime, não apenas distribuí-la. (O Reino Unido está seguindo nessa direção hsfkramer.com hsfkramer.com.) Penalidades legais claras para os autores – e para quem conscientemente hospeda ou lucra com esse conteúdo – podem funcionar como um impedimento. É importante que qualquer legislação seja cuidadosamente delimitada para evitar criminalizar, sem querer, arte erótica consensual ou sátira política legítima apnews.com apnews.com. Remédios civis também são vitais: as vítimas precisam de caminhos fáceis para processar por danos e obter ordens judiciais para remoção do conteúdo. Muitos defensores querem ver exceções na Seção 230 (a lei dos EUA que protege plataformas de responsabilidade pelo conteúdo dos usuários) para que sites possam ser responsabilizados se não responderem a pedidos de remoção de pornografia deepfake. Isso pressionaria as plataformas a serem muito mais vigilantes.
  • Diretrizes Tecnológicas: Do lado do desenvolvimento, propostas sugerem que os criadores de modelos de IA devem incorporar salvaguardas preventivas. Por exemplo, as empresas poderiam treinar filtros de conteúdo para detectar quando um comando de usuário envolve o nome ou a imagem de uma pessoa real e bloquear qualquer resultado explícito envolvendo essa pessoa. (Alguns geradores de imagens por IA já recusam comandos que parecem referenciar indivíduos privados ou produzem nudez de figuras públicas – o Grok da xAI é uma exceção por não fazer isso avclub.com.) Outra ideia é exigir verificação de consentimento para gerações explícitas: por exemplo, um serviço de IA só poderia gerar uma imagem nua se o usuário provar que o sujeito é ele mesmo ou um modelo consentido. Claro, pessoas mal-intencionadas poderiam simplesmente usar modelos de código aberto sem esses filtros, mas se as principais plataformas adotarem diretrizes rigorosas, isso pode conter a disseminação em massa. Verificação de idade também é uma preocupação – a única checagem do Grok era um prompt de data de nascimento facilmente burlável gizmodo.com – então há pedidos por barreiras de idade mais robustas para garantir que menores de idade (que frequentemente são alvos de bullying via nudes falsos) não possam usar essas ferramentas ou serem retratados por elas.
  • Pesquisa e Detecção: Governos estão financiando pesquisas em detecção de deepfakes, e empresas estão colaborando em padrões para autenticação de mídia. O objetivo é facilitar a identificação e remoção rápida de pornografia falsa quando ela surgir. No entanto, a detecção sempre será um jogo de gato e rato à medida que as falsificações por IA se tornam mais sofisticadas. Alguns especialistas acreditam que o foco deve mudar para prevenção de danos (por meio de penalidades legais e educação) em vez de esperar por um “detector de falsos” técnico que pegue tudo. Ainda assim, avanços em IA para o bem – como melhor hash de imagens para rastrear falsificações conhecidas, ou ferramentas para indivíduos descobrirem se sua imagem foi usada indevidamente – terão um papel na mitigação.
  • Responsabilidade das Plataformas: Grupos de defesa argumentam que plataformas de redes sociais e de conteúdo adulto devem policiar proativamente o conteúdo pornográfico gerado por IA. Isso pode significar investir em equipes de moderação de conteúdo capacitadas para identificar deepfakes, cooperar com autoridades em ordens de remoção e banir reincidentes que criam ou compartilham material não consensual. Alguns também defendem sistemas de exclusão ou registro, onde indivíduos podem registrar sua imagem (ou de seus filhos) e as plataformas devem garantir que nenhum conteúdo de IA os retratando seja permitido – embora, administrativamente, isso seja difícil de aplicar. No mínimo, protocolos de resposta rápida – como o requisito de remoção em 48 horas na lei dos EUA apnews.com – precisam se tornar prática padrão em todas as plataformas globalmente.
  • Educação e Normas: Por fim, parte da solução está em mudar as normas sociais. Assim como a sociedade passou a condenar amplamente a “pornografia de vingança” e reconhecê-la como abuso, a esperança é que a pornografia deepfake se torne universalmente estigmatizada. Se a pessoa comum entender o dano e se recusar a compartilhar ou consumir esse tipo de conteúdo, a demanda diminuirá. Especialistas em ética tecnológica enfatizam a importância da alfabetização midiática – ensinar às pessoas que ver nem sempre é acreditar, e que uma foto escandalosa da Celebridade X pode ser falsa. Capacitar as gerações mais jovens a navegar criticamente em um mundo de mídia alterada por IA será crucial. Também serão importantes campanhas para informar possíveis autores de que criar esses fakes não é uma brincadeira – é uma violação séria com possíveis consequências criminais.

Conclusão

O surgimento do “Spicy Mode” do Grok jogou gasolina em um incêndio já em curso em torno de IA e deepfakes sexualmente explícitos. A ferramenta de IA de Elon Musk, ao tornar fácil e até “oficial” gerar sósias nus de celebridades, provocou uma reação rápida – e lançou luz sobre a crise mais ampla da pornografia deepfake. Dos corredores do Congresso aos comentários em fóruns de tecnologia, cresce o consenso de que algo precisa ser feito para proteger indivíduos (especialmente mulheres) das aplicações mais sombrias dessa tecnologia.

Como vimos, conteúdo NSFW gerado por IA não é uma novidade isolada – é um desafio social em escalada. Ele coloca a liberdade criativa e a inovação tecnológica contra a privacidade, o consentimento e a segurança. O gênio não voltará para a garrafa, mas por meio de políticas inteligentes, desenvolvimento tecnológico responsável e mudança cultural, podemos esperar conter os danos. Os próximos meses e anos provavelmente trarão mais processos judiciais, mais leis e salvaguardas aprimoradas de IA. O Grok de Musk pode tanto se adaptar sob pressão quanto se tornar um exemplo de advertência de um empreendimento de IA que ignorou limites éticos por sua conta e risco.

Por enquanto, a mensagem de especialistas e do público é clara: pornografia deepfake é um limite que a IA não deve ultrapassar. E se empresas como a xAI não traçarem esse limite por conta própria, reguladores e a sociedade estão cada vez mais preparados para traçá-lo por elas. Como disse um defensor da ética em tecnologia, “Ter sua imagem transformada em pornografia sem consentimento é devastador – já passou da hora de tratarmos isso como o abuso sério que é, e não como uma inevitabilidade da tecnologia.” O debate já não é mais sobre se é preciso agir, mas sobre quão rápido e eficazmente podemos conter a exploração sexual alimentada por IA, antes que mais vidas sejam devastadas pela próxima inovação “Spicy”.

Fontes:

  • Novak, Matt. “O ‘Spicy’ Mode do Grok cria deepfakes NSFW de celebridades mulheres (mas não de homens).Gizmodo, 6 de agosto de 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. “A configuração de vídeo ‘Spicy’ do Grok instantaneamente me fez deepfakes nus de Taylor Swift.The Verge, 5 de agosto de 2025 theverge.com.
  • Carr, Mary Kate. “Elon Musk está praticamente implorando por um processo de Taylor Swift com deepfakes nus da Grok AI.AV Club, 7 de agosto de 2025 avclub.com avclub.com.
  • Saner, Emine. “Por dentro do escândalo de deepfake de Taylor Swift: ‘São homens dizendo a uma mulher poderosa para voltar ao seu lugar’.The Guardian, 31 de janeiro de 2024 theguardian.com theguardian.com.
  • Clark, Nicole. “Streamer que incitou escândalo de pornografia deepfake na Twitch retorna.Polygon, 16 de março de 2023 polygon.com polygon.com.
  • Patrini, Giorgio. “O Estado dos Deepfakes.” Relatório Deeptrace Labs, outubro de 2019 regmedia.co.uk.
  • Citron, Danielle. Entrevista em NYMag Intelligencer, outubro de 2019 nymag.com.
  • Ortutay, Barbara. “Presidente Trump assina a Lei Take It Down, abordando deepfakes não consensuais. O que é isso?AP News, agosto de 2025 apnews.com apnews.com.
  • Burga, Solcyre. “Elon Musk’s Grok em breve permitirá que usuários criem vídeos de IA, inclusive de natureza explícita.TIME, ago. 2025 time.com time.com.
  • Herbert Smith Freehills Law Firm. “Criminalizando deepfakes – os novos delitos do Reino Unido…,” 21 de maio de 2024 hsfkramer.com hsfkramer.com.

Tags: ,