2026年,AI写了95%的代码,那你干什么?

AI提示词1个月前更新 jinlian
3 0

我们以前总觉得,给AI的上下文越多,它就越聪明。这个想法其实不对。字节的TRAE团队做了一个测试,结果很清楚。他们找了32个业务上的Bug让AI去修复。

2026年,AI写了95%的代码,那你干什么?

一、Context Engineering:被误读的”护城河”

第一种情况,他们把业务知识和代码逻辑封装成一个个独立的“Skills”。然后告诉AI用哪个Skill去解决问题。结果,AI成功修复了全部32个Bug,成功率是100%。

第二种情况,他们不做封装。他们把所有相关的代码、文档、信息一股脑全丢给AI。结果,AI只成功修复了其中的59%。这个差距很说明问题。

所以,Context Engineering的关键不是信息多,而是信息精准。你得把知识处理成AI能直接用的格式。

它的工作原理是这样的。

想象一下,你们公司有一个处理用户地址的通用函数。这个函数有很多坑,比如不同国家的地址格式不一样,有些地址有两行,有些有三行。一个新来的同事不熟悉,每次调用都可能出错。

传统的做法是写一份很长的文档。新人要花半天时间去读,还不一定能完全理解。

而Context Engineering的做法不一样。

  • 第一步:封装知识。 找一个熟悉这个函数的资深工程师。让他把这个函数的正确用法、常见错误、注意事项,都写成一段清晰的说明。然后,再配上几个正确的调用示例代码,和几个错误的调用示例代码。把这些东西(说明+正确示例+错误示例)打包在一起,存成一个文件,就叫“用户地址处理Skill”。
  • 第二步:AI调用Skill。 现在,一个新任务来了,需要处理用户地址。你不用再对AI说一长串模糊的要求。你直接告诉它:“请使用‘用户地址处理Skill’来完成这个新地址的解析功能。”

AI拿到指令后,它会去读取这个Skill文件。它能看到清晰的说明和代码示例。它就知道这个函数的边界在哪里,正确的用法是什么。这样,它写出来的代码质量就高得多。

这个过程,就是把一个资深工程师脑子里的隐性知识,变成了一个AI可以随时调用的显性工具。

而且,这种做法还能省钱。因为你喂给AI的信息是高度浓缩的,每次交互用的token就少了。更重要的是,AI给出的方案能直接用,减少了来回修改的次数。这样帮你更快完成开发。

所以,别再把AI当成一个需要海量信息才能工作的机器了。把它当成一个需要精准工具的工匠。你给它的工具越好用,它做出来的活儿就越漂亮。企业的代码库、内部文档、甚至是优秀工程师的经验,都可以做成这样的工具。这就是真正的价值所在。

二、从”人用AI”到”系统自循环”

当AI编程用的越来越熟练,你会发现一个变化。开发者的角色变了。以前,我们是代码的主要生产者。现在,我们更像是“架构师”和“代码审查员”。

这是什么意思呢?

意思就是,具体的代码编写工作,大部分可以交给AI来做。而人的主要工作,变成了两件:

  1. 定义需求:在动手之前,把要做什么、要达到什么标准,想得清清楚楚,写得明明白白。
  2. 审查结果:AI生成代码之后,由人来审查。检查代码逻辑对不对、性能好不好、有没有潜在的风险。

TRAE团队的TRAE Loop项目就体现了这个思想。他们建立了一套机制,让AI在开发过程中能够自我学习和改进。

这个机制叫Session-Learning。

它的工作原理是这样的:

  • 第一步:AI尝试解决问题。 比如,你让AI修复一个Bug。AI会分析问题,然后给出一套解决方案和代码。
  • 第二步:人类审查和修正。 开发者来审查AI的方案。他可能会发现,AI的代码虽然解决了表面问题,但没有考虑到一个边界情况。于是,开发者会修改AI的代码,并告诉AI:“你这里漏了一种可能性,正确的处理方式应该是这样……”
  • 第三步:沉淀为新资产。 系统会把这次的整个交互过程,包括最初的问题、AI的错误方案、人类的修正意见、以及最终的正确代码,全部记录下来。然后,它会把这次经验提炼成一个新的、可复用的知识。

下次再遇到类似的问题,AI就不会再犯同样的错误了。它会直接参考上次沉淀下来的正确经验,给出一个更高质量的方案。

这个过程就像是在给整个团队建立一个共享的“大脑”。任何一个人解决问题的经验,都能变成整个团队的财富。新来的员工,或者其他业务线的同事,都能从这个“大脑”里受益。

但是,要让这个系统顺畅运转,需要几个前提。手册里提到了规则(Rules)、规格(Spec)和模型上下文协议(MCP)。

  • 规则(Rules):就是你给AI设定的行为准则。比如,“代码风格必须遵守团队规范”,“不允许直接操作数据库,必须调用封装好的服务”。
  • 规格(Spec):就是对需求的精确描述。这个我们下面会详细说。
  • 模型上下文协议(MCP):这是一个技术约定,定义了AI和人类、AI和工具之间如何交换信息。比如,设计稿里的一个按钮,在代码里对应哪个组件,这个对应关系就是通过MCP来建立的。

当这几样东西都准备好,并且能互相配合时,AI就不再只是一个被动执行命令的工具了。它开始能够主动地、在一个有约束的框架内,完成一个完整的开发闭环。这就是从“人用AI”到“系统自循环”的转变。

三、Spec先行:把不确定性逼到墙角

我们做项目,最怕的就是需求不明确。一句话的需求,背后可能有十种理解。最后做出来的东西,往往不是业务方想要的。这个问题在AI编程时代被放大了。因为AI不会“猜”你的心思。你给它的指令越模糊,它产出的结果就越离谱。

所以,TRAE手册里强调,一定要“Spec先行”。Spec就是“规格说明书”。意思是在写代码之前,先把需求的每一个细节都定义清楚。

这么做的好处是,把所有不确定的东西,都消灭在项目最早的阶段。

举个前端开发的例子。

一个常见的模糊需求是:“帮我做一个用户登录页面。”

如果你把这句话直接丢给AI,它可能会用最基础的<div>和<input>标签,给你拼凑出一个简陋的页面。这个页面能用,但完全不符合你们公司的设计规范和技术架构。你还得花大量时间去修改。

一个好的Spec应该是什么样的?

它应该包含清晰、无歧义的信息。比如,你可以用一个表格来定义:

元素描述对应组件库交互行为
页面标题“欢迎登录”Typography.Title level={2}
用户名输入框提示文字为”请输入手机号”Input.Text输入内容变化时,进行手机号格式校验
密码输入框提示文字为”请输入密码”Input.Password输入内容为密码格式
登录按钮“登录”Button type=”primary”点击后,调用 authApi.login 方法,并显示加载状态
忘记密码链接“忘记密码?”Typography.Link点击后,跳转到 /reset-password 页面

你看,当Spec写到这个程度,就没有模糊空间了。

TRAE团队的实践也证明了这一点。他们发现,用Figma官方的MCP(模型上下文协议)加上Code Connect方案,效果很好。因为这个方案能把Figma设计稿里的每一个元素,都和代码库里的真实组件精确地对应起来。

设计师在Figma里用的就是一个“主按钮”组件,这个组件通过MCP和代码库里的Button type=”primary”组件是绑定的。当这个设计稿交给AI时,AI能准确地知道应该使用哪个代码组件,而不是去自己生成一堆div。

这说明了一个事实:AI生成代码的质量,很大程度上不取决于模型,而取决于你给它的输入质量。你的Spec写得越好,AI产出的代码就越符合你的预期。这个工作,必须由人来主导。

四、AI原生时代的人才悖论

AI能做很多以前需要初级工程师做的事情。比如,写一些重复的样板代码、根据文档说明调用API、定位一些明显的空指针错误、甚至是写代码提交信息(commit message)。

这就带来一个问题:如果这些活儿AI都能干了,那人类工程师的价值在哪里?

答案是,我们的工作重心需要转移。从“怎么写代码”,转移到“要解决什么问题”。

手册里用了一个“AI实习生团队”的比喻。你可以把AI当成一个能力很强、但需要明确指令的实习生团队。而你,就是这个团队的负责人(Tech Lead)。

你的工作不再是亲手砌每一块砖。你的工作是:

  • 设计蓝图:规划整个系统应该是什么样子。
  • 分配任务:把大任务拆解成一个个清晰的小任务,然后分配给AI去完成。
  • 制定标准:定义好代码规范、接口标准、测试要求。
  • 验收成果:审查AI提交的代码,确保质量达标。

TRAE团队就把他们的社区运营工作交给了AI代理(Agent)。他们没让工程师去写具体的运营脚本。而是让工程师去定义规则(Rules)。

举个例子,一个社区用户提了个问题。

  • 过去的做法:一个运营人员看到问题,手动去知识库里搜索答案,然后复制粘贴回复给用户。
  • 现在的做法:工程师先设定好规则。
    • 规则1:当收到新问题时,AI首先要在知识库(FAQ文档)里进行关键词匹配。
    • 规则2:如果匹配度高于90%,直接用知识库里的标准答案回复。
    • 规则3:如果匹配度在50%-90%之间,把问题和知识库里的相似答案一起发给一个真人运营,由人来做最终判断和回复。
    • 规则4:如果匹配度低于50%,直接标记为“疑难问题”,并转交给技术支持工程师。

你看,在这个流程里,工程师没有写具体的回复内容。他在设计一个自动化的“系统”。这个系统能处理掉大部分重复性的问答工作。人类只需要处理那些AI搞不定的、更复杂的情况。

这就要求未来的工程师,不仅要懂技术,还要懂业务。你要能把模糊的业务需求,翻译成AI能理解的、精确的、结构化的规则和指令。这种“与AI对话”的能力,会变得很重要。

五、2026年的软件工程,正在告别”手工作坊”

有一组数据很关键:在TRAE的一个SOLO Agent开发实验里,AI贡献了95.47%的代码。这说明,AI独立完成一个复杂需求的开发,在技术上已经走通了。

这不是说工程师要失业了。而是说,我们开发软件的方式,正在发生根本性的变化。

过去,软件开发很像一个“手工作坊”。项目的成败,很依赖少数几个核心工程师的个人能力和经验。他们的经验很难被快速复制。团队扩大了,人均效率反而可能下降。

但是,AI的出现,正在把软件开发推向“工业化”。

一个现代化的工厂,有几个特点:

  • 标准化的零件:在AI编程里,就是我们前面说的“Skills”。把业务知识封装成标准化的、可复用的模块。
  • 自动化的流水线:就是“系统自循环”。建立一套机制,让AI能自动完成编码、测试、修复的大部分工作。
  • 严格的质检流程:就是人类主导的“Spec定义”和“Code Review”。确保每一个环节的产出都符合质量标准。

当这些东西组合在一起,软件开发就变得更可预测、更稳定了。项目的进度不再完全取决于某个“大神”的状态。我们可以像管理工厂一样,去管理软件的生产过程。

所以,到了2026年,一个团队会不会用AI,差别会很大。

不会用AI的团队,可能还在用手工作坊的方式,效率低,质量不稳定。

而懂得怎么用AI的团队,他们讨论的重点已经不是怎么写一个函数了。他们会花更多时间去讨论:

  • 如何把我们公司的核心业务逻辑,更好地封装成AI能用的Skills?
  • 如何定义一个更清晰的Spec,让AI一次就能拿出符合要求的代码?
  • 我们的团队流程应该怎么调整,才能更好地发挥“人+AI”的协作优势?

这才是未来的核心竞争力。最大的风险,不是AI技术本身。而是我们还在用过去的思维方式,去应对一个已经完全不同的新世界。

© 版权声明

相关文章

暂无评论

暂无评论...