Nvidia砸260亿自建模型,卖铲子的开始自己挖金矿

01Nvidia投260亿美元自建AI模型,GPU供应商开始跟客户抢生意

Nvidia提交给美国证监会的文件显示,公司计划拿出260亿美元构建开放权重模型。这笔投入直接瞄准OpenAI们所在的赛道。Wired率先报道了这份文件,金额接近几家顶级AI实验室迄今融资额的总和。

不止模型。同一周,这家公司开始为年度技术大会拉拢企业合作伙伴,推一个叫NemoClaw的开源机器人抓取项目。Nvidia同时踏进了模型层和应用层。

机器人抓取不是未经检验的方向。《MIT科技评论》本周报道了中国围绕类似开源工具爆发的创业潮。这个市场的需求,已经有人验证过了。

把三条消息放在一起看,方向很清楚。上周这家公司才宣布退出对AI实验室的股权投资,转身就自己下场做模型和应用。退出不是收缩,是清理利益冲突,好亲自上阵。

头部模型公司的处境因此变得微妙。以往它们只需要担心彼此竞争,现在供应商也站到了对面。训练集群跑在Nvidia的芯片上,而这个供应商拿出260亿来做同类产品。开放权重不是慷慨,是策略:模型被采用得越广,推理需求越大,芯片就卖得越多。对Nvidia来说,模型不是产品,是拉动硬件销售的渠道。

NemoClaw的逻辑一模一样。机器人公司一旦采用这套开源框架,推理负载就落在Nvidia的芯片上。该项目正在GTC大会前招募首批企业用户。

供应商变对手,模型公司议价权削弱开放权重本质是芯片销售策略机器人应用层开辟又一条硬件需求管道

02Hacker News封杀AI评论的同一周,AI面试官正在给求职者打分

一个AI头像坐在屏幕对面,提出行为面试问题,分析你的回答,决定你能不能进下一轮。The Verge记者亲身体验了这种AI视频面试,整个过程没有真人参与,而数百万求职者已经在面对同样的场景。

同一周,Hacker News更新社区守则,明确禁止AI生成或编辑的评论,核心一句话:「HN is for conversation between humans」。这条更新拿到2278票赞同、851条评论,共识的规模在这个以冷静著称的社区里极为罕见。

封杀AI评论的用户,很多人自己每天都在用AI写代码、做产品。他们并不反对AI,反对的是AI冒充人类参与对话。但企业算的是另一笔账:每个岗位收到上万份简历,人力筛选成本已经不可承受,AI面试是规模化的必然选项。

求职者没得选。要这份工作,就得坐在AI头像对面回答问题,整个流程里见不到一个真人。

技术社区首次为人机对话画硬线AI面试已触达数百万求职者当事人对此没有选择权

03OpenAI给Responses API配上计算机环境,Agent运行时平台成型

Responses API更新了,开发者现在能给agent分配一台真正的计算机。

这不是比喻。新版接口配备了shell工具和托管容器,agent调用后可以在隔离沙盒里执行系统命令:装依赖包、跑处理脚本、把结果写进容器自带的数据库。GPT-5.2及之后的模型为此专门训练过,提出命令,容器执行,输出实时流回,模型检查后再决定下一步。多条命令还能并发跑,同时搜文件、拉数据、验证中间结果。

但光有执行能力不够,还得解决安全问题。同一周OpenAI发了一篇防御prompt injection的技术说明:沙盒隔离代码执行,敏感操作暂停等用户确认,敏感网站启用「观察模式」要求用户全程在场。团队还用强化学习训练了自动化红队,持续攻击自家agent来发现漏洞。

两篇同周落地的逻辑很清楚:没有安全层,执行环境不敢开放;没有执行环境,安全层没有用武之地。OpenAI在博客中建议开发者把资源放进容器文件系统,「让模型自己决定打开、解析和转换什么」。

从卖模型接口转向提供agent运行时沙盒加确认机制是开放执行环境的安全前提第三方agent开发者多了一个平台级选项
04

Anthropic成立Anthropic Institute Anthropic发布新研究机构Anthropic Institute。 anthropic.com

05

Rakuten部署OpenAI Codex,故障修复时间缩短一半 Rakuten在软件开发流程中全面接入Codex,平均故障修复时间(MTTR)降低50%,CI/CD审查实现自动化,全栈项目交付周期从数月缩短至数周。 openai.com

06

Google用AI改善澳大利亚偏远社区心脏健康筛查 Google发起新项目,用AI辅助澳大利亚偏远地区的心脏健康检测。 blog.google

07

Wayfair用OpenAI模型自动化客服分单和商品属性标注 Wayfair将OpenAI模型接入客服工单分流和产品目录管理,数百万条商品属性的标注实现规模化自动处理。 openai.com

08

研究发现:启用推理帮助LLM「回忆」本来答不出的知识 新论文发现,即使面对不需要逐步推导的简单事实问题,开启推理模式也能大幅扩展模型参数知识的召回边界,解锁原本无法给出的正确答案。 huggingface.co

09

LLM写长篇故事会「忘记自己说过什么」 研究者系统分析了LLM在长篇叙事生成中的一致性缺陷:模型在数万词的故事中会自相矛盾,违反自己设定的角色特征和世界规则。团队发布了首个专门评估叙事一致性的benchmark ConStory。 huggingface.co

10

MM-Zero:视觉语言模型从零数据实现自我进化 研究者提出MM-Zero框架,让多模态视觉语言模型在没有任何种子数据(包括图像)的情况下自我进化,突破了此前VLM自我改进至少需要部分标注数据的限制。 huggingface.co

11

CoCo用代码替代自然语言做思维链,提升文生图精度 研究者提出CoCo框架,在文生图任务中用代码而非自然语言做思维链推理,对复杂空间布局、结构化视觉元素和密集文字内容的生成精度显著提升。 huggingface.co

12

LoGeR将密集3D重建扩展到分钟级长视频 LoGeR通过分块处理和混合记忆机制,在不做后处理优化的前提下实现超长视频序列的密集3D几何重建,绕过了注意力机制的二次方复杂度瓶颈。 huggingface.co