王艺辉 ·
痛定思痛,AI Agent 给我的教训
从赔付率异动分析项目中总结AI Agent在企业落地的教训:规划阶段LLM不可控、执行阶段数据模拟、表达阶段事实丢失,以及prompt二义性和小概率表现的深层反思。
从赔付率异动分析项目中总结AI Agent在企业落地的教训:规划阶段LLM不可控、执行阶段数据模拟、表达阶段事实丢失,以及prompt二义性和小概率表现的深层反思。
从单一LLM调用到多智能体系统的演进,提出OneAgent + MCPs范式:基于强大基础Agent结合领域MCP,替代为每个场景搭建烟囱式多智能体系统的传统方式。
过去一年,我们在 Agent 管理学论坛里和上百位开发者一起踩坑、复盘、迭代。这篇文章是阶段性总结:AI Coding 不是一个技术问题,而是一个管理问题。从需求端、执行端到验收端,在每一段建立明确的契约,就是 AI Coding 的确定性边界。
Agents 特区社区邀请19位AI编程先行者参与线上圆桌研讨。与会者来自券商、医疗器械、K12教培、支付宝、开源基础设施等背景迥异的领域。本文探讨概率性系统如何通过确定性约束和独立性验证确保AI代码品质。
本文回应黄东旭最近关于"Vibe Engineering 2026.1"的文章。黄东旭用AI重写TiDB的PostgreSQL兼容层,代码品质已接近生产水平。但他90%时间花在评估AI工作成果。我们如何在普通团队中复制这种成果?
AI写的代码不行?问题在于没有正确采用迭代方法论。迭代是通过多次尝试,不断逼近一个固定的目标。在软件开发领域,迭代可以用于所有环节——从需求澄清到实现测试。