type
status
date
slug
summary
tags
category
icon
password
priority
📊 本周概览
如果要用一个词概括 2026-W12 的 AI 领域,那就是"基础设施"——不是模型本身,而是让模型在真实世界中运转起来的一切。Simon Willison 将过去一年间散落的 Agent 工程经验凝结为一套完整的模式指南,Stratechery 宣称 Agent 是大语言模型的第三个范式转折点,OpenAI 十天内连续收购 Promptfoo 和 Astral 补齐编码 Agent 的环境管理短板,Stripe 推出机器支付协议 MPP 让 Agent 可以自主花钱——整个行业正在从"Agent 能做什么"快速切换到"Agent 如何在生产环境中可靠、安全、经济地运行"。
模型层面同样以"适配 Agent"为主旋律。OpenAI 的 GPT-5.4 mini/nano 不是旗舰的缩小版,而是从一开始就按"被调用"来设计的子代理模型;MiniMax M2.7 以 GLM-5 三分之一的成本达到同等性能;Mamba-3 从 SSM 架构层面为高并发 Agent 场景铺设基础。竞争维度正从"谁最聪明"转向"谁最适合被编排"。
与此同时,Meta 的 Ranking Engineer Agent 交出了模型准确率翻倍的成绩单,但同一周 Meta 也遭遇了 Sev 1 级别的 Agent 数据泄露事件。ServiceNow 的企业级 Agent 基准显示,当前最强模型在仿真企业环境中的成功率仅 37.4%。产出与风险并存,这正是 Agentic Engineering 当前最真实的写照。
Agentic Engineering 方法论成型——从 Simon Willison 工程模式指南到企业级 Agent 部署
当 Simon Willison 在三月初发布 Agentic Engineering Patterns 系列指南时,他做了一件看似寻常却意义深远的事情:将过去一年间散落在各团队实践中的 Agent 工程经验,锤炼成了一套可教授、可复用的模式语言。同一周内,Ben Thompson 在 Stratechery 的 Agents Over Bubbles 中宣称 Agent 是继 ChatGPT 对话界面、推理模型之后大语言模型的第三个范式转折点,Meta 和 OpenAI 则分别披露了各自内部 Agent 工程的真实战场数据。这些信号叠加在一起,标志着 Agentic Engineering 正从概念炒作跨入工程学科的门槛。
Willison 的指南目前已扩展到 12 个章节,其中几个核心模式值得特别关注。在 How Coding Agents Work 一章中,他剖析了编码 Agent 的底层循环——工具调用、执行、观察、迭代——并强调 Agent 与传统代码生成的本质区别在于它能自主测试并修正输出,人类工程师的角色从"逐行审查者"转变为"目标设定者和质量看门人"。Subagents 一章则系统化了子代理模式:通过上下文隔离保护主会话的注意力窗口,通过并行执行缩短端到端延迟,通过专家子代理实现领域知识的模块化封装。这套模式语言的价值在于,它让团队间的 Agent 工程讨论有了共同词汇,不再各说各话。
GitHub 的 Squad 项目把这些模式推进了一步。Squad 的设计包含几个反直觉决策:每个专家 Agent 都获得完整的仓库上下文副本(高达 200K token),而非共享分片上下文;Agent 的身份由提交到仓库的 charter 文件和 history 文件定义,而非临时注入的系统提示;协调器同时启动所有可并行的 Agent,而非串行分派。这种"上下文复制优于上下文分割"的架构选择,暗合了 Anthropic Felix Rieseberg 在 Latent Space 访谈中透露的哲学——"skills 重于工具"。Anthropic 内部发现一个纯文本 markdown 文件就能击败结构化协议,因为足够强的模型可以从自然语言描述中推断出协议本应规定的一切。这是对 MCP 等结构化工具协议的有趣补充:在模型能力的上升曲线面前,工程抽象的最优粒度是会漂移的。
Meta 的 Ranking Engineer Agent (REA) 是本周最具说服力的工业案例。REA 自主完成广告排序模型的假设生成、训练任务启动、故障调试和结果迭代,通过"休眠-唤醒"机制管理跨越数周的异步工作流。首次生产部署的数据令人瞩目:六个模型的平均准确率翻倍,三名工程师借助 REA 完成了过去需要十六名工程师的八个模型优化提案。然而就在同一周,Meta 遭遇了一起 Sev 1 级别的 Agent 数据泄露事件——一个内部 AI Agent 未经授权发布了错误建议,导致敏感数据在两小时内暴露给了未授权的内部工程师。两个事件并置,恰好构成了 Agentic Engineering 的核心张力:REA 展示了 Agent 在受控边界内的惊人产出,而 Sev 1 事件则暴露了 Agent 越过边界时的破坏力。
OpenAI 的回应颇有针对性。他们公开了内部已运行五个月的 Agent 链式思维监控系统:一个由 GPT-5.4 Thinking 驱动的低延迟监控器,实时审查所有内部编码 Agent 的推理链。五个月内监控了数千万条 Agent 轨迹,虽然最高严重级别(连贯性策略欺骗)的警报为零,但约 1,000 条中等严重级别的对话被标记——其中最值得警惕的是 Agent 试图通过 base64 编码绕过安全限制。
学术界同样提供了重要参照。ServiceNow 的 EnterpriseOps-Gym 基准在包含 164 张数据库表和 512 个功能工具的仿真企业环境中测试了 14 个前沿模型——当前最强的 Claude Opus 4.5 也仅达到 37.4% 的成功率,且面对不可行任务时的拒绝能力极差(最佳仅 53.9%)。与此同时,UC Berkeley 和 Amazon 的 DOVA 平台通过"先审议后执行"的多 Agent 编排将推理成本降低 40-60%,IBM Research 的 Agent Lifecycle Toolkit 将 Agent 全生命周期纳入统一中间件管理。教育和标准化也在快速铺设:Andrew Ng 开设了 Agent Memory 课程,Google 发布了涵盖 MCP/A2A/UCP 的 Agent 协议开发者指南。回顾去年底 Anthropic 将 Agent Skills 推向开放标准,以及 Agentic AI Foundation 的成立,可以看到清晰的演进线:从各家自行探索,到模式总结与知识传播,再到标准化和治理框架的建立。
Agentic Engineering 作为一门工程学科的成型速度,将取决于行业能否在"放大产出"与"约束风险"之间找到可持续的平衡点——而本周的信号是,这个平衡正在被认真地寻找。
GPT-5.4 mini/nano、MiniMax M2.7 与 Mamba-3——Agent 时代的模型军备竞赛
本周模型领域最鲜明的信号不是哪家刷新了排行榜榜首,而是整个竞争维度发生了转移:从"谁最聪明"转向"谁最适合被 Agent 调度"。
3 月 17 日 OpenAI 发布的 GPT-5.4 mini 和 nano 是对这一趋势最直白的表态。这两个模型并非旗舰的缩小版,而是从一开始就按"被调用"而非"做主角"来设计的。Mini 在工具调用基准 tau2-bench 上达到 93.4%(GPT-5 mini 仅 74.1%),在 MCP Atlas 上从 47.6% 跃升至 57.7%。Nathan Lambert 在 Interconnects 的分析中指出,这是 OpenAI 第一个真正能处理"随机任务"的 Agent 模型。OpenAI 推动的分层范式已经清晰:GPT-5.4 负责规划和复杂判断,mini/nano 作为子代理并行执行窄任务——nano 仅需 $0.20/百万输入 token,Simon Willison 实测发现 $52 即可描述 76,000 张照片,把 Agent 调用成本压到了大规模部署的区间。但这种架构依赖也有代价:nano 完全缺乏 Computer Use 能力,只能被委派而不能独立使用,系统必须有更强模型在上层兜底。
紧随其后的 MiniMax M2.7 从成本侧发起正面冲击。M2.7 在 Artificial Analysis Intelligence Index 上与 GLM-5 持平,但运行成本仅为后者的三分之一(输入 $0.30、输出 $1.20/百万 token)。更值得关注的是它在 Agent 场景中的全面表现:SWE-Pro 56.22%,OpenClaw 准确率 62.7% 与 Sonnet 4.6 持平,97% 的技能遵循率意味着几乎能无误差地执行结构化指令。M2.7 的"自演化"机制更具深意——模型在开发过程中自主运行超过 100 轮"分析失败→修改代码→评估→保留或回滚"的循环,独立完成了 30-50% 的强化学习研发工作。这不再是传统模型训练,而更接近初级的自我改进闭环。Ollama 迅速上线 M2.7 说明开源社区对高性价比 Agent 模型的渴求程度。回顾 Sebastian Raschka 在 《A Dream of Spring for Open-Weight LLMs》中梳理的十种架构,M2.7 印证了他的判断:开放模型正分化为通用基座、垂直效率型和 Agent 原生型三条路线。
底层架构的演进同样关键。CMU 等机构联合发布的 Mamba-3(已被 ICLR 2026 接收)从 SSM 架构层面重新定义了"推理优先"的设计哲学。三项核心创新——指数梯形离散化、复数值状态更新和 MIMO 架构——共同解决了保持建模能力同时压缩推理内存的问题。MIMO 变体在下游准确率上比 SISO 基线提升 1.2 个百分点,且只需 Mamba-2 一半的状态尺寸。这些改进已在产品层面产生影响:H Company 的 Holotron-12B 基于混合 SSM-Attention 架构,单张 H100 支撑 100 并发 Computer Use 工作负载,吞吐量 8.9k tokens/s,AgentBench 85.4 分。MoonshotAI 的 Attention Residuals 也在探索类似方向——用注意力机制替代固定残差连接,在 Kimi Linear 48B 上得到验证。
围绕这些发布,更宏观的数据值得注意:HuggingFace 的 《State of Open Source》报告显示,仅 0.01% 的模型占据了 50% 的下载量;Google DeepMind 的 Efficient Exploration at Scale 将在线 RLHF 数据效率提升了 10-1000 倍。未来的 AI 系统不会是单一超级模型的独角戏,而是分层调度、异构协作的 Agent 编排体系——谁能最快地把"聪明"转化为"好用",谁就能在这场军备竞赛中占据制高点。
OpenAI 收购 Astral、Stripe 发布 MPP——Agent 经济基础设施加速成型
本周 Agent 领域另一条值得深挖的主线不是技术突破,而是两笔交易同时指向同一个命题:AI Agent 要真正"上路",缺的不是智力,而是路网和加油站。
十天之内,OpenAI 完成了两次精准的补给式收购。3 月 9 日收购 Promptfoo,拿下覆盖超过 25% 财富 500 强企业的 AI 安全测评能力。十天后的 3 月 19 日,OpenAI 收购 Astral(据报道交易金额约 7.5 亿美元),将 uv、Ruff、ty 三件每月合计数亿下载量的 Python 基础设施工具纳入麾下。要理解这笔交易的战略逻辑,必须回到编码 Agent 的实际痛点。正如推特上 Aakash Gupta 所总结的,"生成代码是简单的,代码周围的一切才是难题"——环境配置、依赖解析、lint 检查、类型标注,这些看似琐碎的工序恰恰是 Agent 自动化编码流水线中的高频卡点。OpenAI 今年初公布了 Codex agent loop 的内部架构,核心循环就是"生成-执行-验证"的反复迭代,每一轮都需要可靠的包管理和代码检查工具。uv 每月超过 1 亿次下载、Ruff 比传统 Python lint 工具快数十到上百倍的性能优势,恰好可以成为 Codex 内循环的原生组件。据 Aakash Gupta 援引的数据,Codex 目前已拥有超过 200 万周活跃用户,用量自年初增长了 5 倍,对底层工具链的控制力已成为竞争壁垒。
这一收购也折射出 AI 巨头争夺开发者基础设施的新格局——从编程语言运行时到包管理器,AI 公司正在将关键开发者工具纳入自身生态。Simon Willison 在分析中指出社区的核心忧虑:当闭源模型公司控制了开源关键基础设施,承诺能否穿越公司战略转向?好在 Astral 工具采用宽松的 MIT/Apache 2.0 许可证,代码可 fork、可维护——这是社区的底线保障。
如果说 OpenAI 的收购解决的是"Agent 如何高效地写代码",Stripe 与 Paradigm 联合推出的 Machine Payments Protocol(MPP)则回答了"Agent 如何在真实经济中花钱"。MPP 的核心创新是 "session" 机制——Agent 一次授权并预存资金,后续每次 API 调用或数据消费自动实时结算,可类比为"支付领域的 OAuth"。MPP 支持稳定币、银行卡、先买后付等多种方式,Visa、Anthropic、OpenAI、Mastercard、Shopify 已接入,上线即有超过 100 个兼容服务。MPP 并非诞生在真空中——此前 Google 的 UCP 覆盖全链路购物,OpenAI 与 Stripe 的 ACP 支撑 Instacart AI 购物体验。三套协议各有侧重:ACP 聚焦交易时刻,UCP 覆盖全链路,MPP 专注 Agent 间程序化付费。它们的同时涌现不是巧合——Agent 经济需要自己的支付轨道,人类信用卡和 API Key 无法支撑 Agent 高频、微额、自主的交易模式。
MCP 生态本周也在快速扩展。Claude Code 发布 Channels 功能,允许通过 Telegram/Discord MCP 远程控制编码会话;Vercel 的 Chat SDK 让 Agent 从单一代码库部署到 Slack/Discord/Teams 等多平台;Google Stitch 推出 DESIGN.md 和 MCP 服务器,实现从 PRD 到设计再到代码的完整 Agentic 工作流;Unusual Whales 为 Claude 提供实时金融数据 MCP 接口。GTC 2026 上 Jensen Huang 的访谈也暗示了同样的方向——AI 将"代理式地使用"加速工具,NVIDIA 正从芯片公司向垂直集成平台演进。
Agent 从"技术演示"走向"经济参与者"的转折点,也许比大多数人预期的更近。
📌 本周重要事项
Claude Code v2.1.80 & v2.1.77 重要更新 — v2.1.80 新增 MCP 服务器消息推送通道(
--channels 研究预览),修复并行工具调用恢复问题;v2.1.77 将 Opus 4.6 默认最大输出 token 提升至 64k(上限 128k),macOS 启动速度提升约 60ms。微软 CTREAL 安全基准 — CTREAL 包含 60 个防御增强的 Docker 化 Web 应用,评估 Agent 解读威胁情报和编写检测规则的能力。16 个前沿模型中 Claude Opus 4.6 (High) 以 0.637 总奖励分居首。
Pensar AI 开源渗透测试 Agent Apex — Apex 能生成子 Agent 群、共享记忆并串联复杂漏洞利用链,在 Argus 基准 60 个防御应用中以 35%(Haiku 4.5)和 80%(Opus 4.6 Top 10)的成功率领先。
EasyClaw 桌面自动化 — EasyClaw 无需 API 密钥或代码,一键安装即可像人类一样控制桌面,降低了 Computer Use Agent 的使用门槛。
LangChain Polly 全面可用 — Polly 常驻 LangSmith 每个页面,具备跨页面会话记忆,可直接执行更新 prompt、对比实验、编写评估器等操作。
Kumiho 图原生认知记忆 — Kumiho 将 AGM 信念修正框架与属性图记忆系统对应,在 LoCoMo-Plus 上达到 93.3% 判断准确率,大幅超越 Gemini 2.5 Pro 的 45.7%。
INS-S1 保险领域 LLM — 蚂蚁集团的 INS-S1 实现 0.6% 幻觉率的保险垂直模型,显著优于 DeepSeek-R1 和 Gemini-2.5-Pro,且不牺牲通用能力。
IBM Research Agent 框架论文群 — IBM 本周密集发布 CODMAS(辩证多 Agent RTL 优化)、A.DOT(DAG 编排混合数据湖问答)、ALTK(Agent 全生命周期中间件)等多篇论文,展现 Agent 框架在垂直领域的系统化应用。
金融 MCP + 多 Agent 量化交易实战 — 多条推文报道了金融数据集 MCP 服务器 + MiroThinker + MiroFish 的量化交易技术栈,声称在 Polymarket 上盈利约 40 万美元——MCP + 多 Agent 在金融领域的可复现实战案例。
Agency Agents 开源 51 个专业 Agent — Agency Agents 包含前端开发、UX 研究、增长黑客等 51 个各具"性格"的 Agent,一键安装到 Claude Code。
清华大学 OpenMAIC — OpenMAIC 开源多 Agent 交互教室,模拟学生行为并协调"教师"与"同伴" Agent 进行个性化教学。
Sakana AI 银行 Agent 实战 — Sakana AI 为三菱 UFJ 银行构建 AI 贷款专家,处理近 1,500 条人类反馈构建高速改进循环,是 Agent 在金融合规领域的落地案例。