开篇 (The Lede)
今日的技术图景呈现出一种极度扩张与深度防御并存的张力。一方面,OpenAI 以前所未有的融资规模再次推高了通用人工智能(AGI)的资本门槛,试图通过极端的资源集中来实现物理与智能的跨越。另一方面,Anthropic 正在经历一场“实验室安全”的压力测试:对内面临五角大楼的供应链风险定性,对外指控来自跨境对手的大规模蒸馏攻击。这种动荡预示着,AI 的竞争已不再局限于算法效率,而是演变为一场关于资本储备、模型主权与架构控制权的全面战争。
核心信号 (The Signals)
资本的奇点
OpenAI 以 7300 亿美元估值融资 1100 亿美元
OpenAI 宣布完成这一历史性融资,由 Amazon 领投(500 亿),Nvidia 和 SoftBank 跟投(各 300 亿)。这是私有科技公司史上规模最大的融资之一,旨在支撑其日益增长的计算成本及电力基础设施建设。 点评:资本正在完成最后的“投票”。在 AGI 的赛道上,不仅存在 Scaling Laws(尺度定律),更存在资本的“逃逸速度”。这种量级的资金注入,实际上宣告了中型实验室在原始算力竞赛中的出局,将战场锁定在极少数拥有主权级资本支持的实体之间。
主权与防御的冲突
五角大楼将 Anthropic 列为供应链风险
继昨日 Anthropic 拒绝国防部特定指令后,五角大楼正式开启将其列为“供应链风险”的程序。与此同时,Anthropic 指控包括 DeepSeek 在内的数个实验室利用超过 24,000 个违规账户进行“工业规模”的蒸馏攻击,提取 Claude 的核心能力。 点评:Anthropic 正处于风暴中心。国内的监管压力与国外的技术渗透共同构成了一个“生存悖论”。指控 distillation(蒸馏)攻击标志着 AI 界的竞争正式进入“情报战”阶段,API 不再仅仅是服务接口,而是模型权重的泄露边界。
从“对话框”到“计算机”
Perplexity 发布 Computer 编排平台 / OpenAI 推出有状态环境
Perplexity 推出名为“Computer”的多模型路由编排平台;OpenAI 则发布了其 stateful(有状态)环境,允许 AI 模型维持持久的记忆与身份,像“AI 同事”一样处理长期项目。 点评:交互范式的底层漂移正在发生。我们正在告别“一次性提问”的时代。无论是 Perplexity 的多模型编排,还是 OpenAI 的持久化内存,核心目标都是将 AI 从一个“智能黑盒”转变为一个“具备执行力的系统环境”。
监管与操作系统的边界
加州新法案要求操作系统实施年龄验证
加利福尼亚州通过新法案,强制要求包括 Linux 在内的所有操作系统在账户设置阶段集成年龄验证机制。 点评:监管的触角已触及内核级。这一法律如果实施,将彻底打破操作系统的“匿名”与“中立”传统,尤其对开源系统构成了极大的合规挑战。这不仅是隐私问题,更是操作系统作为公共基础设施自主权的丧失。
商业航天的“基本功”回归
NASA 新任局长 Jared Isaacman 宣布 Artemis 计划大改
由 SpaceX 资深背景的 Isaacman 领导的 NASA 承认 2028 年登月目标不切实际,转而增加 2027 年的近地轨道测试飞行,重点解决导航、推进和对接等“基础风险”。 点评:这是实用主义对官僚乐观主义的纠偏。引入商业航天的迭代逻辑(以步骤换成功率,而不是以愿景换预算)预示着 NASA 正在转变为一个更像 SpaceX 的执行机构。
边缘信号 (Edge Signals)
- GitHub: AdderBoard 最小加法 Transformer:证明了极小参数量也能完成精确逻辑运算,提示了模型专用化的潜力。
- Web Streams API 的重构提案:Cloudflare 工程师指出当前标准在处理大规模数据流时的性能陷阱,JavaScript 底层基础设施仍有巨大优化空间。
- OPCD 训练法:消除冗长的 System Prompts:微软通过将系统提示内化到权重中,减少了推理成本。
- Claude-File-Recovery:针对开发者的新型工具,反映出 AI Agent 深度参与编码后的本地资产恢复需求。
Signal amidst the Noise.