LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

埃隆·马斯克“辣味”AI模式引发不雅深度伪造丑闻——为何女性成为新一轮AI色情危机的目标

埃隆·马斯克“辣味”AI模式引发不雅深度伪造丑闻——为何女性成为新一轮AI色情危机的目标

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

埃隆·马斯克的新AI项目因生成未经同意的名人裸照深度伪造内容而受到抨击——而且这种做法还存在令人不安的性别偏见。Gizmodo最近的一项调查显示,马斯克的Grok Imagine工具在“Spicy”模式下,会轻易生成女性名人的不适宜观看(NSFW)视频(比如泰勒·斯威夫特梅拉尼娅·特朗普),但却拒绝为男性生成同类内容gizmodo.com gizmodo.com。本报道深入探讨了Gizmodo关于Grok争议性功能的发现,审视了AI生成色情内容和深度伪造的迅速崛起,并探讨了伦理、法律与社会影响。我们还梳理了截至2025年8月的最新进展——从公众愤怒、专家警告到旨在遏制AI“复仇色情”的新法律。目标:理解“Spicy Mode”如何成为当前NSFW AI内容危机的最新焦点,以及应对之道。

Grok的“Spicy Mode”——NSFW深度伪造与内置偏见

Grok Imagine 是 xAI 的图像和视频生成器(在马斯克的 X 平台上向付费订阅用户开放),值得注意的是,允许用户通过“Spicy”模式创作成人内容 gizmodo.com。与 Google 的 Veo 和 OpenAI 的 Sora 等主流 AI 工具禁止生成露骨或名人图像不同,Grok 的 Spicy 模式积极鼓励此类内容 avclub.com avclub.com。《The Verge》的测试显示,该 AI “在第一次尝试时就毫不犹豫地生成了泰勒·斯威夫特完全无遮掩的上空视频”——甚至没有被要求生成裸露内容 theverge.com。同样,Deadline 发现让 Grok 生成斯嘉丽·约翰逊掀起内衣的图片也极其容易avclub.com。形成鲜明对比的是,尝试生成男性裸露内容则毫无结果。正如 Gizmodo 报道,“它只会让描绘女性的内容真正达到不适合在工作场合观看的程度。男性的视频则基本不会引起太多关注。” gizmodo.com。实际上,Grok 的 Spicy 模式下,男性最多只会被生成成赤裸上身,而女性则会被生成成上空甚至全裸。

这种公然的双重标准引发了警觉。Grok 只需点击一下按钮,就会生成一段女性公众人物的软色情风格视频片段gizmodo.com,但同样的“Spicy”过滤器显然对男性最多只到裸上身为止gizmodo.com。Gizmodo 的 Matt Novak 甚至尝试用提示词生成一个普通、非知名男性和一个普通女性:男性虚拟形象尴尬地拉扯裤子但始终没有暴露,而女性虚拟形象则直接裸露了胸部gizmodo.com。这样的结果表明,AI 的内容审核中存在性别偏见(无论是有意为之还是训练过程中的副产品)。马斯克本人发表过厌女言论——从放大“女性很弱”的说法gizmodo.com到拿让泰勒·斯威夫特怀孕开玩笑——这进一步让人怀疑这种偏见是“特性”而非“漏洞”gizmodo.com

功能与局限性:值得注意的是,Grok 生成的深度伪造内容往往质量较差。它生成的名人肖像经常不逼真或出现故障gizmodo.comgizmodo.com。(例如,原本应该是女演员 Sydney Sweeney 或政客 J.D. Vance 的图像,看起来与他们本人毫无相似之处gizmodo.com。)奇怪的连续性错误——比如某个视频中一名男子穿着不匹配的裤腿——很常见gizmodo.com。Grok 还会为每个片段自动生成通用的背景音乐或音效,进一步增加了那种超现实的“恐怖谷”氛围gizmodo.com。这些技术缺陷目前可能是 xAI 的救命稻草,因为如果真的能生成栩栩如生的名人裸体伪造图像,几乎肯定会引发诉讼和禁令gizmodo.com。正如 Gizmodo 打趣道,马斯克对法律诉讼的最佳防御可能就是“这些图像根本不像”真实的名人gizmodo.com。但这项技术正在迅速进步,即使这些不完美的深度伪造内容也足够有辨识度,令人担忧avclub.com

公众反应: “Spicy Mode”的推出立即在社交媒体和新闻界引发了愤怒。Grok Imagine上线仅几天,X(推特)就被充斥着AI生成的裸体女性图片,用户们热衷于分享如何在提示词中最大化裸露度的技巧gizmodo.com。这引发了广泛批评,认为马斯克实际上已经为AI驱动的性骚扰和剥削打开了闸门。“马斯克分享或转发的大部分Grok Imagine内容,都是一些长相普通、身材丰满的金发女郎,或穿着暴露奇幻服饰的女性片段,”A.V. Club指出,并称马斯克似乎有意染指Pornhub的地盘avclub.com avclub.com。科技博主和评论者们嘲讽地表示,马斯克“简直是在求泰勒·斯威夫特起诉”Grok自动生成的裸照avclub.com。确实,一些评论人士呼吁像斯威夫特这样的高知名度目标将马斯克告上法庭,以“让世界对其他女性和女孩更安全”avclub.com。到目前为止,尚无斯威夫特团队或其他人采取法律行动的公开迹象——但要求追责的呼声正变得越来越高

即使在Grok争议之外,2024年X平台上也爆发了关于AI生成色情内容的重大公众抗议。在一起事件中,泰勒·斯威夫特的深度伪造色情图片在平台上疯狂传播,其中一张伪造照片在被删除前获得了4700万次浏览theguardian.com。粉丝们大规模动员举报这些图片,甚至白宫也发表了意见,称这一情况“令人震惊”theguardian.com。斯威夫特的案例之所以特殊,仅仅在于它获得了更多关注;无数女性(无论是否知名)都曾看到自己的肖像被制作成露骨内容,而平台未能及时删除这些内容theguardian.comtheguardian.com。围绕这些事件的公众愤怒——以及现在围绕Grok内置NSFW模式的愤怒——反映出一个日益增长的共识:允许性深度伪造的AI工具正在越过道德底线

AI生成NSFW内容与深度伪造的迅速崛起

Grok事件是这一令人担忧趋势的最新篇章:AI生成色情内容(“深度伪造色情”)在过去几年激增。这一现象最早在2017年声名狼藉,当时Reddit上的爱好者开始使用早期深度学习算法,将名人面孔换到色情演员身上。到2018年,加尔·加朵、艾玛·沃森、斯嘉丽·约翰逊等人的所谓“深度伪造”视频在成人网站上大量出现——促使Reddit、Twitter和Pornhub等平台禁止此类未经同意的内容theguardian.comtheverge.com

尽管早期有这些禁令,深度伪造色情产业转入地下并持续增长。到2019年底,网络安全公司Deeptrace发布的一份里程碑式报告发现,网络上流传的所有深度伪造视频中有96%是色情的、未经同意的人脸替换,几乎全部以女性为目标regmedia.co.uk。研究的前四大深度伪造色情网站,其针对“全球数百位女性名人”的视频总浏览量已超过1.34亿次regmedia.co.uk。这种不平衡非常明显:受害者绝大多数是女性,而消费者则几乎都对女性作为性对象感兴趣。法学教授Danielle Citron指出:“99%的深度伪造性爱视频涉及女性,通常是女性名人”,她强调这些作品“让你在你未曾选择的情况下成为性对象”nymag.com。Citron补充道:“只要是你自己选择的色情内容就没问题”,而深度伪造的可怕之处在于,这些女性从未选择过让自己的肖像出现在露骨场景中nymag.com

最初,深度伪造多以名人为主,但现在普通人也越来越成为目标。2023年1月,Twitch直播社区爆发丑闻,知名主播Brandon “Atrioc” Ewing意外曝光自己曾浏览一个出售女性主播色情深度伪造视频的网站——将她们的脸编辑到色情演员身上polygon.com。这些女性(其中一些还是Atrioc的私人朋友)在深度伪造曝光后感到极度痛苦,并且遭遇了大量骚扰polygon.com。受害者之一、主播QTCinderella发表了泪流满面的声明谴责这种侵犯,后来还协助组织法律行动以下架此类内容polygon.compolygon.com。这起“Twitch深度伪造”丑闻凸显了你不必是好莱坞明星也可能遭遇此事——任何在网上有照片的人都可能被AI“强行脱衣”而违背其意愿。

用户友好型AI工具的兴起只加速了这一趋势。2019年,一款名为DeepNude的应用因使用AI“一键脱衣”女性照片、生成假裸照而短暂走红onezero.medium.com。尽管DeepNude的开发者在公众强烈反对下关闭了该应用,但魔盒已经被打开。到2023–2025年,开源图像生成器(如Stable Diffusion的衍生产品)和专门的深度伪造服务让任何拥有几张照片且技术门槛极低的人都能轻松制作他人的裸照或色情图片。一些论坛甚至公开交易从社交媒体上获取的女性AI生成裸照。一位Twitch主播受害者在发现自己被伪造的色情图片后哀叹,“这和我本人毫无关系。但它却带着我的脸出现在这里。”theguardian.com。那些被“数字化受害”的人中,侵犯和无力感显而易见。

简而言之,AI已经让制作色情伪造变得大众化,而这种能力被极大地用来针对女性。这不仅仅是名人会成为目标——任何人,从记者和活动人士(可能被用来恐吓或抹黑)到前伴侣和普通个人(被恶意骚扰者或勒索者盯上),都可能成为受害者。像Grok的Spicy模式这样的功能的出现——为此前地下的做法盖上了官方、用户友好的印记——标志着NSFW生成式AI真正进入主流,并带来了所有相关的伦理包袱

AI生成色情内容的伦理、法律与社会影响

对于深度伪造色情的伦理愤慨是广泛存在的。本质上,在未经同意的情况下制作或传播某人的性内容,是对隐私、尊严和自主权的严重侵犯。正如Citron和其他伦理学家所言,这不仅仅是基于图像的虐待——它是一种性剥削。受害者描述了“无助、羞辱和恐惧”的感受,因为他们知道陌生人(或施害者)正在观看他们从未做过的性行为的伪造视频。这可以构成一种虚拟形式的性侵犯,并留下持久的创伤。不出所料,女性和女孩首当其冲:“非自愿的亲密深度伪造”“是一个当前、严重且日益增长的威胁,女性受到的影响尤为严重,”研究人员总结道sciencedirect.com

许多这类内容中也存在着厌女情绪的暗流。专家指出,深度伪造色情内容常被用作武器,侮辱那些身居高位或拒绝他人追求的女性。“由厌女情绪驱动的AI生成色情内容,正在充斥互联网,”《卫报》在泰勒·斯威夫特深度伪造事件风波中评论道theguardian.com。用AI让女性裸体的行为,本身就可以被视为试图让她“回到她的位置”。“这就像是男人在告诉一位有权势的女性回到她的盒子里,”有观察者这样形容斯威夫特事件的氛围。无论是匿名喷子制造女性政治家的裸照,还是痴迷粉丝伪造流行歌星的假性爱录像,传递的信息都是类似的——一种数字化的物化和恐吓形式。

除了对个人的伤害,其社会影响也令人警醒。如果任何人都可以被合成进色情内容,视觉媒体将不再值得信任。深度伪造带来了大规模的名誉损害和敲诈勒索风险。公众女性可能会因担心被针对而自我审查或退出网络交流。言论也会受到寒蝉效应:想象一位批评政权的记者,发现自己成为逼真假性爱视频的主角,被传播以羞辱她。总体而言,“定制色情”将不情愿者作为主角的常态化,引发了关于同意、性剥削和人像商品化的问题。即使是自愿的成人娱乐,有些人也担心AI生成的表演者会取代真人模特——但当这些AI表演者戴着真实人物从Facebook或Instagram窃取的面孔时,同意的界限显然已经被跨越。

言论自由 vs. 隐私权:在呼吁全面禁止所有色情深度伪造内容的人与担心过度打压的言论自由倡导者之间,存在着一种紧张关系。名人深度伪造内容是否有可能被视为合法的讽刺或艺术?理论上是可以的——讽刺和模仿属于受保护的表达,即使使用了公众人物的肖像。一些AI技术的支持者指出,公众人物的合成图像早已是流行文化的一部分(如杂志封面的PS图),他们认为,一刀切的刑事定罪可能会扼杀创造力。然而,即便是大多数言论自由学者也会在非自愿的性描绘上划出界限。对个人造成的伤害极为强烈且具有私密性,可以说远远超过任何公共利益。法律专家指出,诽谤或骚扰法可能涵盖部分案例,但并非全部。越来越多的人认为,需要新的法律保障,以专门应对深度伪造色情内容,同时不损害合法表达apnews.com apnews.com。如何精准制定这些法律——既能惩治明显的滥用行为,又不波及讽刺或自愿的情色内容——正是政策制定者当前面临的挑战apnews.com apnews.com

最新进展(截至2025年8月):从科技反弹到新法律

围绕Grok“Spicy”模式的争议,正值全球各国政府和平台终于开始应对AI生成私密影像泛滥之际。以下是一些最新进展:

  • 全国愤慨与行动主义:涉及泰勒·斯威夫特等人的病毒式事件激发了公众舆论。正如所述,甚至美国白宫也对斯威夫特的深度伪造事件发表评论,称其为“令人震惊”theguardian.com。像美国国家性剥削中心这样的倡导组织也公开发声,谴责马斯克的xAI“通过让AI视频生成裸照,进一步助长了性剥削”,并敦促移除此类功能time.com“xAI应当寻求防止性虐待和剥削的方法,”NCOSE的海莉·麦克纳马拉在一份声明中表示,反映了更广泛的公民社会呼声time.com
  • 民调显示公众压倒性支持禁令:最新调查显示,公众坚定支持更严格的监管。人工智能政策研究所2025年1月的一项民调发现,84%的美国人支持将非自愿深度伪造色情明确定为非法,同样希望AI公司“限制[AI]模型,防止其被用于制作深度伪造色情内容。”time.com。皮尤研究中心2019年的一项民调同样发现,大约四分之三的美国成年人支持对数字篡改视频/图像进行限制time.com。简而言之,来自各个阵营的选民似乎都希望对此类滥用采取行动。
  • 新法律和法案:立法者已经听到了呼声。在美国,《Take It Down法案》于2025年5月签署成为法律,标志着首部针对深度伪造色情的联邦立法time.com。这项两党支持的法律规定,“明知而发布或威胁发布”未经同意的私密影像(包括AI生成的深度伪造)为非法,并要求平台在受害者通知后48小时内移除相关内容apnews.comapnews.com。处罚严厉,法律赋予受害者迅速下架内容的权利apnews.comapnews.com“我们必须为网络受害者提供他们所需的法律保护,尤其是在深度伪造带来可怕新型滥用机会的当下,”共同提案人参议员Amy Klobuchar表示,并称该法案是“网络受害者的一项重大胜利。”apnews.comapnews.com。在联邦法出台前,已有15个以上美国州通过更新“复仇色情”法规等方式,禁止制作或传播露骨深度伪造内容。如今,统一的联邦标准正在形成。其他国家也在同步推进。英国政府,例如,在其《网络安全法案》(2024年初生效)中将深度伪造色情的分享定为犯罪,并正推动立法,将未经同意制作性露骨深度伪造也定为犯罪hsfkramer.comhsfkramer.com。2025年1月,英国再次提出将制作深度伪造裸照定为非法,强调这是“保护女性和女孩的里程碑式进展。” <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com 澳大利亚于2024年通过了一项法律,禁止制作和传播深度伪造的色情材料,而韩国甚至提议将此类深度伪造色情内容的持有或观看(不仅仅是制作)定为犯罪hsfkramer.com。全球趋势十分明显:非自愿的AI色情图像正被视为犯罪。立法者承认这些图像“会毁掉人生和名誉,”正如Klobuchar所说apnews.com,并正在采取行动——尽管像EFF这样的言论自由监督组织警告说,措辞不当的法律可能导致过度审查或被滥用apnews.com apnews.com
  • 科技平台政策:主要科技平台已经开始(至少在纸面上)更新其政策,以应对AI生成的性内容。Facebook、Instagram、Reddit和传统Twitter都正式禁止非自愿的亲密影像,包括深度伪造内容theguardian.com theverge.com。Pornhub和其他成人网站也早在2018年就对未经同意、涉及真实个人的AI生成内容实施了禁令theguardian.com theverge.com但在实际操作中,执法仍然不严——有心人仍然可以在许多平台上找到或分享非法深度伪造内容。不过,也有一些进展的迹象:例如,在斯威夫特事件后,X(Twitter)最终通过屏蔽对她名字的搜索来阻止传播theguardian.com theguardian.com。Reddit不仅禁止深度伪造色情内容,还关闭了整个交易此类内容的社区。YouTube和TikTok也有禁止AI操控的露骨影像的政策。挑战在于规模和检测——这正是新技术被应用的地方。
  • 检测与防护措施: 一个不断增长的小型科技行业正致力于检测和移除深度伪造色情内容。像 Sensity(前身为 Deeptrace)这样的人工智能公司以及 Ceartas 等初创企业正在开发检测算法,扫描互联网上色情内容中的人脸并标记匹配项polygon.compolygon.com。事实上,在 Twitch 丑闻发生后,Atrioc 与Ceartas合作帮助受害主播:该公司利用其人工智能定位这些女性的深度伪造内容并提交 DMCA 删除请求polygon.compolygon.com。OnlyFans 作为一个有保护创作者利益诉求的平台,也已引入此类工具来打击其模特的虚假内容polygon.com。此外,还有在 AI 生成图像中嵌入水印或元数据以帮助识别伪造内容的相关工作,以及要求真实图像的加密认证(以便未标记的图像可被视为伪造)的提案。此外,欧盟于 2024 年达成的《人工智能法案》规定,深度伪造工具的开发者必须确保输出内容被明确标注为 AI 生成bioid.com。美国几个州(以及欧盟)也在考虑强制要求任何经过 AI 修改的内容在发布时附带披露声明cjel.law.columbia.edubioid.com。虽然这些标签无法阻止恶意分子将其移除,但它们代表了在合成媒体领域建立透明规范的尝试。
  • 平台 vs. 马斯克的 X:值得强调的是,马斯克在 X 和 xAI 上的做法有多么不同寻常。当大多数平台都在收紧限制时,马斯克实际上放宽了这些限制,吸引了渴望“前卫”AI能力的用户群。X 不仅没有禁止 Grok 的输出;它还是 Grok 的大本营。这种分歧让 X 与许多专家产生了分歧。2024年8月,一群民主党议员在致监管机构的信中,专门提到了马斯克的 Grok,警告说对深度伪造(包括像卡马拉·哈里斯泰勒·斯威夫特等人物的露骨内容)政策宽松,可能会在选举及其他领域造成严重破坏time.com。马斯克似乎押注于迎合对AI生成色情内容(甚至是会调情或脱衣的AI聊天伴侣,正如xAI新功能所展示的time.com)的需求,将带来收入和用户。但这种反弹——法律、社会,甚至可能是财务上的(通过广告商的担忧)——从长远来看可能会讲述一个不同的故事。

政策建议与前路:我们能遏制深度伪造色情吗?

政策制定者和伦理学家的共识是,多管齐下的行动是应对AI生成NSFW内容的必要手段。主要的提案和想法包括:

  • 更强有力的法律与执法:如前所述,《Take It Down Act》等法律是一个起点。专家建议进一步完善,比如将在未经同意的情况下制作他人虚假性影像的行为定为犯罪,而不仅仅是传播。(英国正朝这个方向前进hsfkramer.com hsfkramer.com。)对肇事者——以及那些明知托管或从此类内容中获利的人——设立明确的法律惩罚,可以起到威慑作用。重要的是,任何立法都必须仔细界定范围,避免无意中将自愿的情色艺术或合法的政治讽刺定为犯罪apnews.com apnews.com。民事救济也至关重要:受害者需要便捷的途径起诉索赔并获得法院命令删除内容。许多倡导者希望看到对第230条款的豁免(美国法律,保护平台不对用户内容承担责任),这样如果网站未对深度伪造色情的下架请求作出回应,就可以追究其责任。这将促使平台更加警惕。
  • 技术护栏: 在开发方面,提案建议AI模型创建者应内置预防性安全措施。例如,公司可以训练内容过滤器,以检测用户提示是否涉及真实人物的姓名或肖像,并阻止任何涉及该人的露骨输出。(一些AI图像生成器已经会拒绝看似涉及私人个体或生成公众人物裸照的提示——xAI的Grok是个例外,并未这样做avclub.com。)另一个想法是要求同意验证以生成露骨内容:例如,AI服务可能只在用户证明主体是其本人或同意的模特时才生成裸照。当然,恶意分子可以直接使用没有这些过滤器的开源模型,但如果主流平台都采用严格的护栏,仍能遏制其在主流中的传播。年龄验证也是一个关注点——Grok唯一的检查只是一个很容易绕过的出生日期提示gizmodo.com——因此有人呼吁采取更强有力的年龄门槛,以确保未成年人(他们经常成为假裸照欺凌的目标)无法使用这些工具或被其描绘。
  • 研究与检测: 各国政府正在资助深度伪造检测的研究,公司也在合作制定媒体认证标准。目标是让人们更容易在假色情内容出现时快速识别并移除它。然而,随着AI伪造技术日益复杂,检测始终是一场猫鼠游戏。一些专家认为,重点应转向防止伤害(通过法律惩罚和教育),而不是寄希望于能捕捉一切的技术“假货检测器”。尽管如此,AI向善的进步——如更好的图像哈希技术以追踪已知伪造,或帮助个人查找自己图像是否被滥用的工具——将在缓解问题中发挥作用。
  • 平台责任: 倡导团体呼吁社交媒体和成人内容平台必须主动监管AI色情内容。这可能意味着投资于擅长识别深度伪造的内容审核团队,与执法部门合作执行下架命令,并封禁反复创建或分享非自愿内容的违规者。还有人呼吁建立选择退出或登记系统,让个人可以登记自己的肖像(或其子女的),平台必须确保不允许出现描绘他们的AI内容——尽管在行政上这将很难执行。至少,快速响应机制——如美国法律中要求48小时内移除的规定apnews.com——需要成为全球所有平台的标准做法。
  • 教育与规范: 最后,部分解决方案在于转变社会规范。正如社会已经普遍谴责“复仇色情”并将其视为虐待一样,希望深度伪造色情内容能被普遍污名化。如果普通人了解其危害,并拒绝分享或消费此类内容,需求就会减少。科技伦理学家强调媒体素养的重要性——教导人们“眼见不一定为实”,某位名人的淫秽照片可能是伪造的。赋予年轻一代批判性地应对AI篡改媒体的能力至关重要。同样重要的还有宣传活动,让潜在的施害者明白,制作这些伪造内容不是恶作剧——而是严重的侵犯行为,可能会带来刑事后果。

结论

Grok的“Spicy模式”的出现无异于在AI与色情深度伪造的激烈争议中火上浇油。埃隆·马斯克的AI工具通过让生成名人裸照变得“简单甚至官方化”,引发了迅速的反弹——并将聚光灯投向了更广泛的深度伪造色情危机。从国会大厅到科技论坛的评论区,越来越多的人达成共识,必须采取行动来保护个人(尤其是女性)免受这项技术的黑暗用途侵害。

正如我们所见,AI生成的不适内容并非孤立的新奇事物——而是日益严重的社会挑战。它让创意自由和技术创新与隐私、同意和安全产生冲突。魔鬼已经出瓶,但通过明智的政策、负责任的技术开发和文化变革,我们有望遏制危害。未来几个月和几年,可能会有更多诉讼、更多法律和更完善的AI安全措施。马斯克的Grok要么在压力下调整,要么成为无视伦理界限而自食其果的AI项目的警示案例。

目前,专家和公众的呼声一致:深度伪造色情内容是AI绝不能跨越的红线。如果像xAI这样的公司不主动划定界限,监管者和社会也会越来越有准备为他们划定界限。正如一位科技伦理倡导者所说,“未经同意将你的形象变成色情内容是毁灭性的——我们早该把它当作严重的虐待对待,而不是科技不可避免的产物。” 争论已不再是是否需要行动,而是我们能多快、多有效地遏制AI驱动的性剥削,以免更多生命被下一个“Spicy”创新颠覆。

来源:

  • Novak, Matt. “Grok的‘Spicy’模式制造女性(而非男性)名人不适深度伪造内容。Gizmodo, 2025年8月6日 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. “Grok 的‘Spicy’视频设置立刻为我生成了泰勒·斯威夫特的裸照深度伪造。The Verge, 2025年8月5日 theverge.com.
  • Carr, Mary Kate. “埃隆·马斯克几乎是在乞求泰勒·斯威夫特因 Grok AI 裸照深度伪造起诉他。AV Club, 2025年8月7日 avclub.com avclub.com.
  • Saner, Emine. “泰勒·斯威夫特深度伪造丑闻内幕:‘这是男人在告诉一位有权势的女性回到她的框框里’。The Guardian, 2024年1月31日 theguardian.com theguardian.com.
  • Clark, Nicole. “引发 Twitch 深度伪造色情丑闻的主播回归。Polygon, 2023年3月16日 polygon.com polygon.com.
  • Patrini, Giorgio. “深度伪造现状。” Deeptrace Labs 报告, 2019年10月 regmedia.co.uk.
  • Citron, Danielle. 采访发表于 NYMag Intelligencer, 2019年10月 nymag.com.
  • Ortutay, Barbara. “特朗普总统签署《Take It Down 法案》,应对非自愿深度伪造。这是什么?AP News, 2025年8月 apnews.com apnews.com.
  • Burga, Solcyre. “埃隆·马斯克的Grok很快将允许用户制作AI视频,包括露骨内容。时代周刊, 2025年8月 time.com time.com.
  • Herbert Smith Freehills律师事务所. “将深度伪造定为犯罪——英国的新罪名…,” 2024年5月21日 hsfkramer.com hsfkramer.com.

Tags: ,