LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

你绝对想不到OpenAI在2025年7月做了什么:生成式AI的未来从此彻底改变

你绝对想不到OpenAI在2025年7月做了什么:生成式AI的未来从此彻底改变

You Won’t Believe What OpenAI Did in July 2025: The Future of Generative AI Just Changed Forever

2025年7月对于OpenAI的生成式AI事业来说是风起云涌的一个月。从改变游戏规则的产品发布和大胆的合作,到严肃的安全举措和政策行动,OpenAI一直在推动AI的前沿——同时也引发了大量专家评论。下面我们汇总了所有重大新闻和进展,并带来业界领袖对这些事件对AI未来意义的见解。

ChatGPT获得代理式升级——就像拥有一个无所不能的AI助手

OpenAI以重大产品发布拉开了7月的序幕:7月17日推出了ChatGPT“Agent”。这次升级将ChatGPT从一个静态聊天机器人转变为主动型AI助手,能够代表用户思考和行动openai.comopenai.com。在实际应用中,用户现在可以让ChatGPT自主完成复杂的多步骤任务——从进行研究、撰写报告,到浏览网站、管理日历,甚至在线购物——所有操作都在一个安全的虚拟计算机环境中自动完成openai.comopenai.com。OpenAI将这个新代理描述为“统一的代理系统”,它结合了早期实验性工具(可与网络交互的Operator和专注分析的Deep Research)与ChatGPT的对话智能openai.comopenai.com

ChatGPT Agent 能做什么: 启用“Agent”模式后(现已向 ChatGPT Plus、Pro 和 Team 订阅用户开放),AI 可以灵活切换网页浏览、运行代码、使用插件以及访问已连接的应用来完成任务 openai.com openai.com。例如,用户只需描述一个目标,ChatGPT 就会将其分解并逐步执行——在屏幕上讲述其操作过程——直到完成 openai.com cybernews.com。OpenAI 和测试者强调的一些功能包括:

  • 网页自动化: 可视化浏览网站、点击按钮、填写表单和抓取信息,甚至可以安全处理登录 openai.com openai.com
  • 编程与分析: 使用内置终端运行代码、分析数据,或根据指令生成图表和幻灯片 openai.com openai.com
  • 集成应用: 通过新的Connectors,Agent 可以接入 Gmail 或 GitHub 等服务,获取与查询相关的邮件、文件和其他数据 openai.com openai.com
  • 端到端任务执行: 规划工作流程并执行多步骤计划(例如“调研我的竞争对手并起草一份关于他们优势的幻灯片演示”),无需用户微观管理 openai.com cybernews.com

OpenAI 宣称 ChatGPT Agent 代表了 “AI 系统能力的新高度”,能够自主产出以往需要串联多种工具才能实现的结果 cybernews.com。值得注意的是,早期基准测试显示它在广泛的推理测试中取得了最先进的表现(例如在极具挑战性的“人类最后考试”基准测试中获得了 41.6% 的分数,超越了以往的模型)cybernews.com“我认为 2025 年将是 ChatGPT 从一个能回答问题的超级智能体,变成能在现实世界中事情的一年,”一位科技高管如此评价,表达了业界的兴奋之情em360tech.com

安全第一,即使在前沿领域:在热烈关注的同时,OpenAI 也坦率承认,这一强大的新代理带来了新的风险。赋予 ChatGPT 执行动作(如编写代码或浏览网页)的能力,系统可能被滥用,或因失误带来现实世界的后果。“我们无法预见一切,”CEO Sam Altman 承认,并强调该功能“处于前沿且实验性阶段”“我还不会用它来处理高风险[任务]或涉及大量个人信息的场景”cybernews.com。OpenAI 发布了详细的“ChatGPT Agent 系统卡”,列出了已采取的安全措施。这些措施包括对危险提示(尤其涉及化学或生物武器)自动拒绝或二次审核、对代理行为的实时监控,以及在执行任何高影响步骤前要求用户确认inkl.cominkl.com内部安全研究人员甚至决定将该代理在生物/化学领域归类为“高风险”模型,这是 OpenAI 风险框架下首次有模型获得此类评级openai.cominkl.com

为什么要如此谨慎?早期测试显示,该代理可能会降低新手获取有害信息的门槛(例如,弥合普通网络信息与生物学“可操作”专家指导之间的差距inkl.com“有些人可能认为生物风险并不真实,模型只会提供你通过搜索就能找到的信息。这在2024年也许是对的,但现在绝对不是这样,”OpenAI的技术人员Boaz Barak警告说,并强调新代理的能力大大提升了inkl.com。作为回应,OpenAI与生物安全专家和红队成员合作,对系统进行了压力测试,在发布前inkl.com,并内置了多重安全防护:该代理会主动屏蔽与生物武器或非法行为相关的任何提示,限制潜在风险请求的频率,甚至在必要时允许人工审核员“接管”代理inkl.cominkl.com“多层防御是唯一能在这个层面上平衡创新与安全的方法,”OpenAI发言人表示,并指出公司致力于负责任地部署inkl.com

业内专家们迅速对这一里程碑发表了看法。许多人认为 ChatGPT Agent 预示着 AI“副驾驶”新时代的到来,这些 AI 不再只是提供建议,而是真正能够执行任务。“看着人们使用 ChatGPT……想到即将到来的变化,真是疯狂,”一位 OpenAI 内部人士暗示,未来还有更大的突破在等待着我们medium.com。与此同时,AI 安全研究人员指出,OpenAI 以坦率的态度——将他们的新 Agent 视为“高风险”,并内置了前所未有的安全措施——可能会为行业树立透明和谨慎的新标准inkl.cominkl.com。总的来说,ChatGPT Agent 于 2025 年 7 月的发布标志着一个决定性时刻:AI 系统不再只是回答我们的问题,它们开始代表我们采取行动——全世界都在密切关注这一进展。

DALL·E 及更进一步:OpenAI 的生成式 AI 迈向多模态(迎来Sora

OpenAI 的生成式 AI 推进不仅限于文本和图像——现在正大胆进军视频领域。Sora,OpenAI 期待已久的文本生成视频模型,今年夏天作为 ChatGPT 高级套餐的一部分,已广泛向用户开放techfundingnews.comtechfundingnews.com。Sora 允许用户输入文本描述(也可选上传图片或视频片段),并获得高清短视频片段作为输出techfundingnews.com。创作者可以,例如,输入“一名牛仔宇航员探索变成月球的丛林”,然后观看 Sora 将该场景生成动态视频。该工具还可以无缝融合两个不同的视频场景,填补镜头间的缺失帧,并应用风格化变换(如让画面看起来像纸艺动画)——所有这些都由先进的生成式 AI 驱动techfundingnews.comtechfundingnews.com

尽管OpenAI去年底正式“发布”了Sora,但2025年7月才首次作为ChatGPT Plus和Pro的内置功能向公众广泛开放(无需额外付费)techfundingnews.comtechfundingnews.com“Sora允许用户输入场景描述并获得高清晰度视频片段,”一份报道指出,并称其为“尖端的AI视频生成工具”,有可能重新定义创意内容创作techfundingnews.comPlus用户现在可以生成最长10秒、720p的视频,而Pro订阅者则可获得最长20秒、1080p的视频片段,生成速度更快,甚至可用于专业用途的无水印下载openai.comopenai.com。通过集成Sora,OpenAI表明多模态AI——不仅能理解和生成文本,还能处理图像、音频和视频的AI——现在已成为其核心战略的一部分。“Sora的首次亮相建立在OpenAI掌握多模态能力的雄心之上,”CEO Sam Altman在一次直播演示中表示,并重点介绍了“Blend”模式(用于合并场景)和“Loop”模式(用于创建无限循环视频)等功能techfundingnews.com。这使OpenAI从ChatGPT的聊天框和DALL·E的图像扩展到完整视频创作领域,在许多人看来,这正是生成式AI的下一个前沿

竞争格局:OpenAI并不是唯一追逐AI驱动视频生成的公司。事实上,Sora的发布正值来自其他AI实验室的激烈竞争——这是一场不仅限于文本和图像、现在还包括视频的AI军备竞赛。例如,谷歌一直在开发一个名为“Lumiere”的AI视频内部工具,而像Stability AI(以Stable Diffusion闻名)这样的初创公司也已预览了“Stable Video Diffusion”模型techfundingnews.com。Meta等公司也在投资多模态AI。通过通过ChatGPT向公众发布Sora,OpenAI可以说在这场视频生成竞赛中领先一步,为数百万用户提供了一个成熟的产品。“视频生成正成为AI的下一个前沿领域,”Tech Funding News指出,并提到OpenAI的竞争对手(谷歌、Meta、Stability)正紧随其后techfundingnews.com。目前,OpenAI的优势在于将Sora直接集成到用户和开发者已经在使用的生态系统(ChatGPT)中——降低了AI生成视频广泛采用的门槛。

挑战与争议: 推出过程中并非一帆风顺。值得注意的是,截至七月,Sora在欧洲和英国仍未上线,OpenAI表示在解决“法律和安全标准”问题时,尚无欧盟/英国的发布时间表techfundingnews.com。许多人认为这是OpenAI在欧洲即将实施的AI法规(欧盟AI法案,预计2025年对生成式AI实施严格规定)背景下谨慎行事。此外,Sora的开发阶段也遭遇了来自创意社区的反对声音。2024年末,抗议者泄露了早期Sora模型,一些参与测试的艺术家还发表公开信,指责OpenAI“剥削无偿劳动”,并且对测试者缺乏透明度techfundingnews.com“亲爱的企业AI霸主们,”这封愤怒的信开头写道,突显了科技公司与担心被AI边缘化的艺术家之间的紧张关系techfundingnews.com。OpenAI回应称,Sora内置了防止滥用的安全措施(以防止深度伪造冒充或虚假信息视频等情况techfundingnews.com),并强调他们与创作者的互动(公司展示了艺术家和电影制作人使用Sora进行创意创作的案例openai.com)。尽管如此,这一事件凸显了OpenAI在推出这些强大生成工具时,需要与艺术社区建立信任。

总体而言,Sora在ChatGPT平台的公开亮相是生成式AI的一大飞跃——将媒介从文本和图像扩展到全动态视频。它让用户能够以全新方式“让想象变为现实”,无论你是为电影制作原型的导演,还是只是想让创意动起来的爱好者。正如一位创意总监所说,“这就像拥有一个微型电影工作室——你描述它,它就能可视化出来”。随着OpenAI不断完善Sora(并承诺未来支持更长、更高分辨率的视频),人类创意与AI辅助之间在视频制作领域的界限正迅速模糊。

65亿美元AI硬件豪赌——OpenAI与Jony Ive团队合并

七月最受关注的动态之一是OpenAI大胆进军硬件领域,与传奇苹果设计师Jony Ive合作。7月9日,OpenAI官方确认已收购Ive的初创公司“io Products, Inc.”——一家专注于AI设备的两年设计公司——据报道,这笔交易价值近65亿美元(以股票形式)theverge.comappleinsider.com。这笔令人瞩目的交易将Ive(iPhone、iMac及其他标志性设备的创意主脑)和他亲自挑选的前苹果工程师团队直接带入OpenAI。据OpenAI公告,“Jony Ive及其设计公司LoveFrom保持独立,但已承担OpenAI的深度设计和创意责任”theverge.com。换句话说,Jony Ive现在正引领OpenAI产品和未来AI界面的设计愿景。

为什么这很重要:OpenAI首席执行官Sam Altman经常强调,AI需要与出色的用户体验和物理形态相结合。“AI是一项令人难以置信的技术,但伟大的工具需要在技术、设计以及对人和世界的理解的交汇处进行打磨。没有人能像Jony和他的团队那样做到这一点;他们在每一个细节上投入的关心……令人惊叹,”Altman在解释此次合作的理由时表示openai.com。目标无异于彻底改变我们与AI互动的方式。Altman和Ive曾暗示计划打造一款全新的消费级设备,将OpenAI的生成式AI(比如ChatGPT的智能)与创新硬件设计深度融合theverge.comappleinsider.com。虽然他们对细节守口如瓶,但一些线索已经泄露:The Verge报道称该项目“旨在将ChatGPT的AI技术与新硬件设备融合”,而其他业内人士则猜测,这可能会是对智能手机或可穿戴设备的突破性创新theverge.comappleinsider.com。一个流行的传闻是,他们正在探索一款以语音为主的AI助手设备——本质上是“没有屏幕的手机”,依靠语音和环境AI来协助用户日常生活appleinsider.com。这将与当今的触屏设备截然不同,可能旨在让AI在日常生活中更加无缝地可用。两人相信他们将改变人类与技术的交互方式,正如AppleInsider的一篇报道指出,这凸显了他们的雄心appleinsider.com

交易内幕:这次合并的旅程实际上早在两年前就悄然开始了。Ive的LoveFrom团队于2023年开始与OpenAI合作,进行AI硬件的实验性设计openai.com。到2024年,Ive与几位前苹果核心同事(包括Jony爵士的长期联合设计师Evans Hankey和Tang Tan)专门成立了“io Products”,以原型开发“激发、赋能并实现”新AI体验的新产品openai.com。最初有报道称OpenAI可能投资约5亿美元,但事情迅速升级——软银和其他投资者也加入进来,最终OpenAI选择以65亿美元全资收购io Productsappleinsider.com。该交易曾因商标纠纷(另一家公司Iyo因“io”名称获得了禁令)而短暂受阻,这甚至导致OpenAI在6月临时下架了其公告网页theverge.com。但到了7月,相关问题已基本解决,公告得以推进——不过为了避免混淆,公告中始终小心地全称“io Products, Inc.”theverge.com

从行业的角度来看,顶级AI公司与顶级设计 visionary 的结合是前所未有的。这表明 OpenAI 并不打算仅仅作为一家软件/API公司,而是希望直接塑造AI的消费者体验“最终成交价接近65亿美元——以股票形式支付,”一份报道强调了赌注之高,appleinsider.com。相比之下,这一价格超过了谷歌当年收购Nest或摩托罗拉的金额——凸显了OpenAI坚信未来AI的突破需要新的硬件载体。Jony Ive本人也表达了兴奋和责任感。“我越来越觉得,过去30年我所学到的一切都把我带到了这一刻……我非常感激能有机会参与这样一个重要的合作,”Ive说,他称Sam Altman和OpenAI团队的愿景为“罕见的灵感”openai.com。观察人士预计,这一合作的首批成果将在一两年内问世——尽管细节尚不明朗,很可能会是一款重新定义我们日常使用AI方式的消费级设备,可能会比手机应用更广泛地利用语音、传感器和ChatGPT式的智能。正如一位科技评论员调侃道,“希望他们比上一个尝试AI硬件的初创公司运气更好”appleinsider.com——指的是初创公司Humane推出的命运多舛的AI Pin设备。凭借Ive的履历和OpenAI的技术,无论他们发布什么,外界的期待都将极高。

OpenAI在公众视野中:对社区的投资、监管难题与专家反应

并非全是产品发布和合作——2025年7月,OpenAI也在应对围绕AI的复杂社会和监管环境。以下是这方面的主要进展:

1. 投资于“AI向善”项目:OpenAI宣布设立一项新的5000万美元基金,用于支持利用AI应对社会挑战的非营利和社区项目openai.com。该基金于7月18日启动,是对年初召集的独立OpenAI非营利委员会调研结果的直接回应。该委员会收集了来自500多家非营利组织和社区领袖(代表700多万人)的意见,探讨AI如何帮助解决教育、医疗和经济不平等等领域的问题openai.com。信息很明确:一线组织需要资源和支持,才能利用AI造福公众。OpenAI的回应就是这项5000万美元基金,将为“一线和以使命为导向的组织”提供资助和支持,帮助他们解决改善教育、扩大经济机会、社区组织和医疗服务等问题openai.comopenai.com“AI应该帮助人类解决最艰难的问题,这也包括赋能一线组织,”公司写道,并强调许多AI最佳应用方式的答案将来自社区自身openai.comopenai.com。此举被专家广泛称赞为积极的一步——显示OpenAI将其使命(确保AGI造福全人类)与具体行动相结合。这也是OpenAI首次推出的大型慈善举措之一。(作为背景,OpenAI最初是非营利组织,后转为有限盈利模式,并仍保留专注于长期有益影响的非营利部门openai.comopenai.com。)通过现在投入5000万美元,并承诺这是“迈向更广泛努力的早期一步”,OpenAI似乎希望在AI竞赛中展现社会责任感openai.com

2. 推迟“开源”AI的发布: 在一个有些出人意料的转折中,OpenAI 暂停了发布一个新的开放权重AI模型的计划,而这个模型是许多社区成员热切期待的。Sam Altman(通过7月12日的推文)透露,OpenAI “原计划下周发布[我们的]开放权重模型……[但]我们决定推迟”,以便进行额外的安全测试并审查高风险领域 techcrunch.com。据认为,该模型是OpenAI打算开源(或至少公开权重)的一个小规模语言模型——这与其以往的封闭模型策略有所不同。该模型在夏初已经被推迟过一次,如今发布又被无限期搁置,等待进一步审查 techcrunch.com“我们还不确定需要多长时间,”Altman坦言,并强调虽然OpenAI“相信社区会用开放模型创造出伟大的东西”,但他们希望确保发布能够负责任地进行 techcrunch.com。这种谨慎的态度引发了不同的反应。许多开源AI爱好者对推迟感到失望,因为他们渴望获得一个可以折腾的新强大模型。但也有其他人——包括一些AI伦理专家——对OpenAI将安全置于速度之上表示赞赏,尤其是在对AI模型被滥用(如垃圾信息、深度伪造等)担忧日益增加的情况下。这清楚地表明,监管机构和公众的审查正在影响OpenAI的决策:公司非常清楚,问题模型的发布可能会引发监管反弹。(值得注意的是,美国联邦贸易委员会早在2023年就因隐私和虚假信息问题对OpenAI展开了调查foley.com,而相关审查仍在持续。)Altman在这里的透明表态——实际上是在说“我们现在可以发布,但可能有风险,所以暂时不会”——与早期更激进的发布相比,标志着OpenAI在策略上的成熟。

3. AI政策与透明度举措:OpenAI 也采取了措施,以应对即将到来的关于 AI 生成内容的监管要求。其中一个低调但重要的更新是:所有由 DALL·E 3(OpenAI 的图像生成器)生成的图像现在都通过 C2PA 元数据进行加密标记,表明它们是 AI 生成的 openai.com。OpenAI 在过去一年开始推出这一溯源功能,并承诺也会将其扩展到 Sora 的视频输出openai.com。这种元数据(基于内容溯源与真实性联盟的开放标准)让出版商和平台能够自动检测一张图片是否由 AI 创建或编辑,这被认为对于打击深度伪造和虚假信息至关重要openai.com openai.com“今年早些时候,我们开始为所有由 DALL·E 3 创建和编辑的图像添加 C2PA 元数据……当 Sora 模型广泛发布时,我们也将为其集成 C2PA,”OpenAI 在一篇博客更新中指出openai.com openai.com。政策制定者对这些举措表示欢迎——事实上,欧盟即将出台的《人工智能法案》很可能会强制要求 AI 输出的透明度措施,已经实施内容凭证的公司将处于领先地位。此外,OpenAI 加入了C2PA 指导委员会,并一直在研究 AI 文本的水印方法,显示其有意引领并遵守 AI 透明度的行业标准openai.com openai.com

在监管方面,欧盟的《人工智能法案》对OpenAI的运营产生了重大影响。该法案关于“基础模型”(如GPT-4)的条款将于2025年开始生效,届时公司将被要求披露更多关于训练数据的信息,确保有强有力的风险控制,并对AI生成的内容进行标注。OpenAI尚未在欧盟推出Sora等服务绝非巧合techfundingnews.com——他们很可能在等待确保合规(或至少获得明确指引)后才会行动。OpenAI的CEO已与欧洲监管机构进行过接触,甚至在2023年曾短暂威胁称如果规则过于苛刻就退出欧洲(后来收回了这一立场)。如今到了2025年,OpenAI似乎采取了更为合作的态度:遵守标准(如C2PA)、资助社区对AI影响的研究,并公开承诺进行安全测试。正如一位欧洲AI政策专家所说,“这凸显了与欧盟框架高度一致的必要性……以确保生成式AI符合我们的价值观”,而OpenAI似乎正在倾听dataprotectionlawhub.com

4. 专家评论——热潮与警示:本月OpenAI的快速发展引发了科技界各方的评论。许多行业领袖感到兴奋:微软CEO萨提亚·纳德拉称ChatGPT Agent为“计算的新范式”(微软当然是OpenAI的重要合作伙伴和投资者),风险投资家们则认为OpenAI的举措是对智能体和多模态AI将成为下一个大市场的验证。与此同时,一些批评者呼吁保持谨慎。著名AI怀疑论者Gary Marcus认为,尽管OpenAI取得了进展,“我们仍然缺乏这些系统在所有场景下都值得信赖的明确验证”,他重申了对强大AI模型进行第三方审计的呼吁garymarcus.substack.com。在OpenAI经历了如此高速发展的一年后,关于其内部文化也有一些议论——一份六月的报告称,一些OpenAI员工认为公司对利润的追求正在掩盖其安全理想crescendo.ai。OpenAI的领导层也承认了这种压力。“2025年将是智能体真正加入劳动力大军的一年,”Sam Altman不久前曾这样预测fortune.com——随着七月的发布,这一预测正在成为现实——但他也警告社会需要适应。在一次公开论坛上,Altman谈及对就业的影响,他表示预计AI将“实质性地改变公司的产出”,因为它会自动化例行任务fortune.com,并敦促政策制定者开始重新思考AI辅助世界下的教育和就业问题。


从开创性的产品发布(如 ChatGPT Agent)和 Sora 的扩展,到重大战略投入和更严格的安全措施,OpenAI 无疑在 2025 年 7 月为生成式 AI 的未来定下了基调。公司正在创新与责任之间寻求平衡:一方面推出能够“完成卓越且复杂任务”的新型强大工具(cybernews.com),另一方面也在安全研究、政策参与和社区合作上投入大量资源。随着我们步入 2025 年下半年,所有目光都聚焦在 OpenAI——乃至整个行业——身上,看看这些进展是否真的能改变游戏规则,带来积极影响。“AI 的未来已经近在咫尺,”一位专家评论道,“而 OpenAI 正在推动这一进程,同时也在努力让其负起责任。”在科技巨头、初创公司、监管机构和社会的密切关注下,有一点是明确的:OpenAI 在 2025 年 7 月的所作所为,已经永远改变了生成式 AI 的发展轨迹——而这个故事才刚刚开始。

来源:

Tags: , ,