您可以捐助,支持我们的公益事业。

1元 10元 50元





认证码:  验证码,看不清楚?请点击刷新验证码 必填



  求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center 汽车系统工程   模型库  
会员   
   
基于AI的性能测试工程
3月9-10日 北京+线上
需求分析与管理
3月18-19日 北京+线上
嵌入式C高质量编程
3月25-26日 北京+线上
     
   
 订阅
从传统编程转向大模型编程
 
作者:无岳
  204   次浏览      7
 2026-2-4
 
编辑推荐:
本文主要首先介绍为什么要用大模型编程,人与AI编程的好处,然后介绍了模型、工具与技巧,大模型完全基于文档,最近列出了常见陷阱与对应策略,希望对你的学习有帮助。
本文来自于阿里云开发者,由火龙果软件Alice编辑,推荐。

0. 核心目标:从“代码产出者”变成“文档定义者”

这篇文档不是教你怎么把 Ctrl+C / Ctrl+V 换成“让 AI 写代码”,而是希望帮你完成一次根本性的角色转换: Code is generated, Document is the Source of Truth(代码是生成的,文档才是真理之源)。

  • 以前 : 你亲自写代码,文档只是代码的“解释说明”(经常过期)。
  • 以后 : 你负责 定义核心意图 并 监管 AI 生成的文档 (需求、架构、约束),AI 负责把文档“编译”成代码。

你不再是砌砖的工匠,而是画图纸的建筑师。你的核心产出不再是 FunctionImpl ,而是 RequirementSpec 和 ArchitectureDesign 。

最终目标是:在安全合规前提下,把“写代码”变成一种“自动化生成”过程,人力主要花在:

  • 需求澄清与拆解 (把模糊的想法变成清晰的文档);
  • 架构与边界设计 (定义 AI 的活动范围);
  • 文档对齐与验收 (检查代码是否忠实实现了文档)。

如果我们真的把这些事情做扎实,大概会发生几件很具体的变化:

  • 文档即代码 : 只要文档改了,代码就能跟着变。修改功能不再是“改代码 -> 改文档”,而是“改文档 -> AI 重写代码”。
  • 模型无关性 : 只要文档写得够细,用 GPT 还是用Qwen,区别只在于生成的快慢,而不会偏离核心逻辑。
  • 知识资产化 : 团队沉淀下来的不再是一堆只有原作者能看懂的代码,而是一套套清晰的、可复用的业务逻辑文档。

不管你是程序员、测试还是产品、设计师,今天都应该 大用特用大模型写代码和文档 ——越早把它融进日常工作,越不容易被“会用 AI 的人”替代。年纪大也不一定会被“优化”,只要你会用模型,完全可以带着一堆 AI 再干几十年。

这不是“立刻变成科幻世界”,而是一个可以在几个月内逐步感受到的现实改进。

1. 为什么要用大模型编程?

大模型编程(LLM‑based Programming)的核心变化,是从关注 “怎么做(How)” 转向 “需要什么(What)” 。

1.1 一个真实的转变经历

2023 年我还在微软时,GPT 刚刚兴起,大家已经开始尝试用大模型辅助处理一些代码问题。当时微软也在开发基于大模型的 Copilot,但受限于模型能力,功能还比较基础——只能帮忙添加注释、生成简单的单元测试,离真正“会写代码”还有很大差距。

然而短短一年多后,到了 2024 年底,我已经能用 Cursor 完成几乎所有的编码任务。过去一年多,我几乎没有真正“手写”过代码。不仅是我,我认识的很多程序员也是如此:日常工作的重心转向了系统设计、任务拆解和代码 Review,具体的实现则交给 AI 模型。

加入钉钉后,尽管我没有任何 Java 工程经验,依然能快速完成开发需求,产出的代码质量较高,也能很好地与团队现有的代码风格保持一致,全倚仗大模型的帮忙。

所以我非常确信:未来一定是大模型编码的世界, 学习大模型编程会像学习使用 IDE 一样,成为一项最基本的工程师技能 。

1.2 AI 编程带来的典型变化

注意 : 以上场景的效率提升因人而异,关键是找到适合你的使用方式。

2. 人 + AI 结对编程:角色与好处

在传统软件工程里,“结对编程”是指两名开发者在同一台机器上协作:一人写代码(Driver),另一人盯整体设计和问题(Navigator),两人定期互换角色。收益主要在于:更早发现问题、更高代码质量、更快知识传递。

在大模型时代,可以把日常开发理解为一种“人 + AI 的新型结对编程”,只是角色从“人 + 人”变成了“人 + 模型”:

在这个模式下,"写代码"不再是你的唯一核心技能,你更多要擅长:

  • 把需求翻译成清晰的 Prompt 和约束条件;
  • 设计合理的步骤(先测试、再改代码、再回归);
  • 识别模型输出中的风险和幻觉,进行二次校对。

2.1 会后可以立即尝试的三件事

如果你还没有开始用 AI 编程,建议从以下低风险任务开始:

第一次尝试:给现有函数补充单元测试

  • 选一个你熟悉的、逻辑相对简单的函数
  • 复制函数代码,对 AI 说:"帮我为这个函数写 5 个覆盖边界情况的单元测试"
  • Review 生成的测试,修改不合理的 case
  • 运行测试,根据失败情况调整
  • 关键点 :明确说"只写测试,不改实现"

第二次尝试:理解陌生代码模块

  • 找一个你不熟悉但需要了解的模块
  • 把核心类/函数代码给 AI,问:"这个模块的主要职责是什么?关键流程是怎样的?"
  • 对比 AI 的回答和你自己的理解
  • 关键点 :把 AI 当成"导游",帮你快速建立宏观认知

第三次尝试:编写技术方案文档

  • 准备好需求描述和关键技术点
  • 让 AI 生成文档骨架:"帮我写一份技术方案,包括背景、方案设计、风险和时间规划"
  • 补充业务细节和决策背景
  • 关键点 : AI 负责结构化,你负责业务内容

预期时间 : 每次 10-20 分钟,完成后你会对 AI 的能力边界有基本认知。

2.2 新的工作节奏:利用“认知缓冲”对抗“代码催眠”

在使用 AI 编程时,你会发现一个显著的变化: 键盘敲击声变少了,屏幕前的“等待”时间变多了( 我称之为“受迫性摸鱼” )。

  • 以前(手写代码) : 大脑与手指同步高速运转,处于持续的“输出模式”。
  • 现在(AI 生成) : 输入 Prompt 后,需要等待模型生成 30–60 秒,这期间你无法进行任何操作。

请注意: 这段“空窗期”不是在浪费时间,而是必要的“认知缓冲(Cognitive Buffer)”。

在大模型高速生成大量代码时,人类很容易陷入 “ 代码催眠 ” (Code Hypnosis)状态——即看着代码流淌觉得都对,实则大脑已经麻木,失去了批判性思维。

因此,强烈建议大家 “ 合法化 ” 这段等待时间:

  1. 强制抽离 : 在 AI 生成的几十秒内,允许视线短暂离开屏幕,或者清空大脑。这能让你在下一秒 Review 代码时,保持“像看陌生人代码一样”的敏锐度。
  2. 思维预演 : 利用这段间隙,跳出具体语法,在脑中预演逻辑的边界情况,而不是盯着光标发呆。
  3. 节奏切换 : 从“连续的高频输出”转变为“脉冲式的决策—休息—决策”。

给团队的共识 : 在 AI 时代, 不要用“是否一直在敲键盘”来衡量工作饱和度 。一个对着屏幕静默思考、正在进行“认知重组”的工程师,往往比一个被 AI 带着跑的工程师,更能守住系统的安全底线。

3. 模型、工具与技巧

3.1 模型选择决策树

不要死记某个具体版本"最强",模型迭代很快。

更实用的方式是按决策流程选择:

使用口诀 : 安全第一,复杂度第二,成本第三

常见模型类型参考 :

常用模型价格:

使用原则 :

  • 先看安全等级,再选模型 : 代码/数据越敏感,越应优先选内部合规模型;
  • 不要依赖单一模型的"个人口碑",要结合 当前任务 + 实测效果 来选择;

3.2 常见工具形态

实际使用时,建议团队内统一几种“推荐组合”,例如:

  • 非敏感仓库:VSCode + 外部高性能模型;
  • C3 仓库:内部 CLI + 内部模型,不允许外发代码片段。

当然在安全可控和你舍得花钱的情况下,你可以使用中转站来使用世界上所有的大模型:

https://openrouter.ai/

https://zenmux.ai/

3.3 提示词工程:个人 Prompt 模板

大模型的“聪明程度”一半来自模型本身,另一半来自你给的提示词(Prompt)。对于经常使用的模型,建议为每个模型准备一份 固定提示词文件 ,例如 claude.md 、 gpt.md 、 gemini.md ,并在会话开始时整体贴入。

一个实用的个人 Prompt 模板通常包含这些部分:

  • 引用文档 : 不要在 Prompt 里口述复杂逻辑,请直接引用 URL 或文件路径( @docs/spec.md ),让 AI 以文档为准。
  • 角色定义 : 你希望模型扮演什么角色(结对工程师 / 架构师 / 文档助手等)
  • 目标与范围 : 这次对话主要解决什么问题,允许/不允许碰哪些模块
  • 工作方式 : 先问再改、先给方案再写代码、必须生成测试等
  • 禁止事项 : 不允许拍脑袋造接口、不允许一次改太多文件、不允许忽略安全规则等
  • 输出格式 : 需要列表、代码块、Diff、还是分步骤说明
  • 项目特定习惯 : 日志前缀风格、错误码规范、测试框架等

现在因为大模型能力的增强,已经不需要再写以前那种很长的,人设般的提示词了,但是约束型和步骤型的提示词仍然很好用。

网上也有很多很优秀的模版,比如:

https://cursor.directory/

https://github.com/f/awesome-chatgpt-prompts

3.4 进阶技巧:

构建“会自我进化”的 SOP (Real-Time RL Lite)

在深入这个技巧之前,我们需要先对齐一个工程概念, 这不仅关乎提示词,更关乎工具链的集成 :

💡 核心概念补齐:什么是 Claude Skill?

Claude Skill 是一个将“大模型的思考逻辑”(Prompt/SKILL.md)与“传统代码的执行能力”(Scripts)打包在一起的“能力插件”,旨在让通用的 AI 瞬间变成能精准执行特定复杂任务的垂直专家。

在高阶 AI 编程中,一个成熟的 Skill 通常不止是提示词,而是一个 “ 能力包 ” ,包含两个核心部分:

1. 大脑 ( SKILL.md )

  • 这是 AI 的决策指南。它定义了“什么时候用这个技能”以及“怎么分析结果”。
  • _例如_:“当用户要求代码审查时,请先运行下方的 Python 脚本,然后根据输出结果给出建议。”

2. 手脚 (Scripts/Tools)

  • 这是具体的执行脚本(Python/Bash/Node.js 等)。
  • _例如_: check_coverage.py (查覆盖率)、 format_json.py (格式化数据)。

结构示例:

my-code-review-skill/
├── SKILL.md          # 告诉 AI:先跑脚本,再根据日志写评语
└── run_linter.py     # 实际干脏活累活的传统代码

这种模式的威力在于: 你把确定性的逻辑写成脚本(传统编程),把不确定性的逻辑写成 Prompt(大模型编程),然后让 AI 自动调度。

让 Skill 自我进化 (RL Lite)

在 3.3 节中我们提到了静态模板的局限性。 “青春版强化学习” 的核心逻辑是: 每次任务结束后,不只验收代码,还要验收 Skill 包本身。

操作流程:

1. 执行 (Execute): 让 AI 读取 SKILL.md 并调用配套脚本执行任务。

2. 复盘 (Review): 如果任务失败(例如脚本报错、或者 AI 对脚本输出的理解有误)。

3. 进化 (Evolve):

  • 修大脑 : 让 AI 修改 SKILL.md 里的判断逻辑(“下次遇到这个报错,不要重试,直接报错”)。
  • 修手脚 : 甚至让 AI 直接优化 run_linter.py 脚本本身(“这个脚本处理大文件太慢了,请帮我重构一下脚本的性能”)。

通过这种方式,你的 “ 资产库 ” 里不仅有越来越聪明的 Prompt,还有一套越来越好用的自动化脚本库。

实战案例: 我在使用 Claude Code 时,第一次它生成了不带中文注释的代码。我没有只让它重写,而是让它更新了自己的 Skill 文件。现在的 SKILL.md 里自动多了一行:

Rule 5: All strictly business logic must have simplified Chinese comments explain the 'Why', not just the 'How'.

从此以后,我再也不用在这个问题上浪费口舌。即使哪天换了模型,换了新人,只要这份 SOP 还在,团队的战斗力就能在几分钟内恢复 80%。

我的极速版 Gemini.md

Protocol Selection Rules

From now on, please adhere to the following protocols based on the task type:

  • Medium/Large Code Tasks : Refer to @/Users/wuyue/Documents/RIPER-5.md
  • Small Code Tasks : Refer to @/Users/wuyue/Documents/RIPER-LITE.md
  • Documentation Tasks : Refer to @/Users/wuyue/Documents/RIPER-DOC.md

Please try to communicate with me in Chinese as much as possible.

而且你也可以在和大模型的对话和工作的过程中,根据自己的习惯和喜好,命令大模型帮你更新对应的claude skill,这样也可以满足懒人的需求,比如这一版Gemini.md就是我让gemini写的。

这里还有一些claude skill的例子,大家熟练了之后可以作为参考。

https://github.com/ComposioHQ/awesome-claude-skills

4. 基于文档的开发流程 (Spec-Driven Development)

什么是 Spec-Driven Development (SDD)?

Spec-Driven Development (SDD) 是一种软件开发方法论,强调在编码开始之前编写详细、结构化的规格说明书(Specifications),通常用于指导 AI 编程代理。

它采用分阶段的方法:首先明确用户需求和意图,接着创建技术方案,将工作拆解为微小的、可审查的任务,最后逐一实施这些任务。

这一过程旨在通过提供清晰的开发蓝图,减少猜测和返工,从而显著提高代码质量、可控性和可预测性。

这是本指南推荐的标准作业流程。它的核心在于: 严禁在没有文档支撑的情况下直接修改代码。 让大模型完全基于文档,以文档为唯一核心,这样程序员只需要控制文档,就可以约束大模型,就可以控制代码的质量,保证下限。

4.1 核心理念:文档即源码 (Doc as Code)

在 AI 编程时代,自然语言文档就是你的“源代码”,而 Java/Python 代码只是某种“编译产物”。

  • Source Code : requirements.md , api_spec.md , architecture_decision.md
  • Compiled Binary : UserService.java , main.py
  • Compiler : LLM (Claude, GPT, Qwen)

4.2 标准工作流 (The SDD Workflow)

Phase 1: 意图定义与文档生成 (Intent & Spec Generation)

  • Step 1 (Human) : 提供简要的意图 (Intent) 和上下文 (Context)。
  • Prompt: "我想给结算流程增加 VIP 折扣,参考现有的 Coupon 逻辑。"
  • Step 2 (AI - Architect Agent) : 让 AI 草拟详细的技术文档 (Spec)。
  • Result: AI 生成了 docs/tasks/vip-discount.md ,包含修改步骤、接口定义和数据流。
  • Step 3 (Human - Sign-off) : 核心环节!
  • 你必须阅读并修改这份文档,确保 AI 理解了你的真实意图。
  • 只有当你“锁定” (Sign-off) 这份文档后,才能进入下一阶段。 这里的文档就是你对 AI 下达的“法律指令”。

Phase 2: AI 编译 (AI Implementation)

  • 动作 : 将上述文档喂给 AI。
  • Prompt : "请阅读 feature-xxx.md ,并严格按照其中的 Steps 生成代码。"
  • 结果 : AI 生成代码 Diff 或直接修改文件。

Phase 3: 文档验收 (Verification & Alignment)

  • 动作 : 检查 AI 生成的代码。
  • 关键点 : 如果发现代码逻辑不对, 不要直接动手改代码,也不要只在对话框里骂 AI 。
  • 正确做法 : 回到 feature-xxx.md ,修改描述得不清楚的地方(比如增加一个约束条件),然后让 AI “ 重新编译 ” (Re-generate)。
  • 原因 : 这样能确保你的文档永远是最新的,且下一次(或换一个模型)还能生成正确的结果。

4.3 Demo 示例一:用日志 + AI 做 Debug

(内部项目只能使用内部工具 iflow+Qwen3 coder)

1. 先用大模型添加全流程日志:

2. 推送代码并且部署

让大模型提交代码的好处就是可以帮你自动生成commit和自动解决一些落后和冲突的问题,比如

3. 运行测试然后获得日志,再把日志喂给大模型

4.4 Demo 示例二:从开源项目到“文档 + 小改动”

(开源项目可以使用任何工具,例如claude code+claude4.5, codex + gpt 5.1, kilo code+gemini3等)

1. 使用大模型A(codex+gpt5.1)来生成文档

花费了大约八分钟(注意token消耗,这都是钱)

2. 提出修改需求,让大模型输出详细的修改文档

3. 让大模型B(claude code + claude 4.5)阅读文档和项目,让他说明这份文档是否足够帮助修改代码,以及有什么可能的问题。

4. 让大模型A根据意见修改文档

如果你有耐心,可以反复让多个大模型互相review,直到他们都不再有意见。

5. 让大模型B开始实施代码

6. 让大模型A和大模型B分别review,最好再加上一个新的大模型C一起review,然后根据意见修改文档和代码。这样反复直到你和大模型都没有更多意见。

7. 让大模型补充大量的日志,并且使用专用的日志管理器,来方便进行debug。

8. 推送和测试。

让大模型提交和推送,再也不用担心推错文件、用错git命令、或者编不好commit了。

最后参考demo示例一,在pre环境进行全流程/回归测试,捕捉对应日志再喂给大模型。

4.5 进阶图景:文档是 AI 智能体之间的“通信协议”

(Protocol of Agents)

我们常把文档看作是“给人看的”,但在大模型时代,文档有了全新的身份: 不同 AI 智能体之间的 API 。

这开启了一种全新的团队协作模式: 以后不再是你和我沟通,而是你的大模型和我的大模型进行沟通,人类只需要做 Review 和信息确认。

这种“Agent-to-Agent”的协作可以覆盖软件工程的全链路:

1. 产品 <-> 开发 (PM AI 🤝 Dev AI):

  • 产品经理口述需求,让“产品 AI”生成一份结构化极强、无歧义的 Requirement_Spec.md 。
  • 开发人员不需人工翻译需求,而是直接把这份文档喂给“架构师 AI”,自动生成 API_Design.yaml 和 DB_Schema.sql 。

2. 开发 <-> 开发 (Backend AI 🤝 Frontend AI):

  • 后端开发定义好接口文档 API_Spec.md 。
  • 前端开发的 AI 读取该文档,自动生成 TypeScript 类型定义、Mock 数据和 API 调用代码。
  • 后端改了接口?更新文档,前端 AI 自动感知并重构调用逻辑。

3. 开发 <-> 测试 (Dev AI 🤝 QA AI):

  • 开发提供 Design_Spec.md 和 API_Spec.md 。
  • 测试人员的 AI 读取文档,自动生成 Test_Cases.json 和自动化测试脚本。
  • 人类只做验收: 人类不再去写每一行测试代码,而是审核测试用例覆盖了哪些业务场景。

这一模式的核心价值:

  • 消除“翻译损耗” : 传统模式下(人脑 -> 口述 -> 人脑),信息层层衰减。新模式下(AI -> 标准文档 -> AI),信息以数字精度无损传递。
  • 各司其职的维护 : 每个人只负责维护自己领域的文档。当需求变更时,上游更新文档,下游让 AI 重新跑一遍 Diff,立刻就能完成全链路的对齐。
  • 文档活化 : 文档不再是躺在 Wiki 里的死尸,它是连接产品思维、代码实现与测试验证的 活性媒介 。

5. 常见陷阱与对应策略

陷阱 ❌ 错误做法 ✅ 正确做法
上下文腐烂 持续保持在一个对话(session)中很久,导致上下文太长太宽泛,模型注意力丢失。 尝试多使用compact指令,并且在解决完一个问题后就使用clear指令清理上下文。
目标漂移 "帮我优化这个函数"(结果 AI 重构了整个类) "只优化函数 calculateTotal ,不做任何其他的变更,集中于此函数一点。"
幻觉/瞎编接口 直接使用 AI 提到的 StringUtils.sanitize() 方法 先用 IDE 搜索确认项目里是否真有这个方法,不存在就反馈给大模型,要求它重新给方案。
过度信任 只看 AI 的文字解释:"我已经修复了空指针问题" 每次都亲自看 Diff,检查是否真的加了空值判断,并运行相关测试验证。每次都让执行大模型和其他大模型进行汇总回报和review。
一次要求太多 "帮我实现用户注册、登录、权限管理和日志记录" 拆成多个小任务,每次只做一个功能模块,尤其是qwen3和GLM4.6等能力稍弱的模型。
规则过拟合 因为一次特殊情况骂了 AI,导致它在 SOP 里写死了一条极其严苛的规则(如“禁止使用任何第三方库”),导致后续任务卡死。 定期 Review 你的 Prompt/SOP 文件 *。像重构代码一样重构 Prompt,删除过时或太死板的规则,保持指令的通用性。

核心原则 : AI 是很厉害的实习生,不是无需审核的高级工程师。

5. 进阶防守:对抗“复杂度熵增”与“最后 10% 陷阱”

很多新手在使用 AI 编程时容易陷入一种线性的乐观:“既然 10 分钟能写完前 50%,那剩下 50% 肯定也很快。”

但 真实的大模型开发曲线是非线性的 。 为了避免项目在收尾阶段崩盘,我们需要引入一套**“防守型开发策略”**。

5.1 认清“倒 J 型”曲线

在传统编程中,难度通常是渐进的。但在 AI 编程中,存在一个显著的**“最后 10% 陷阱”**:

  • 0% → 90%(蜜月期) : 从零开始生成新功能非常快,AI 对全新的、独立的逻辑处理得极其完美。
  • 90% → 100%(深水区) : 当功能需要收尾,涉及到复杂的上下文、边缘 Case 修复、以及与旧逻辑的耦合时,AI 的表现会断崖式下跌。

警惕 :往往最后的 10% 的功能完善,很有可能需要占用整个开发周期 20% 至 30% 的时间。

在这个阶段,代码的 复杂度熵增 极快。一个微小的改动(比如修个 UI)可能导致后端核心逻辑崩塌(Regression)。如果你此时还在盲目追求速度,大概率会陷入“修一个 Bug,生出三个新 Bug”的死循环。

5.2 核心策略:建立“文档-代码同步记录仪” (ChangeLog)

为了对抗混乱,我们不能只依赖 Git 的 commit,而需要建立一份 由 AI 自动维护的 ChangeLog 。更重要的是,这份日志必须追踪 文档与代码的一致性 。

它的核心价值在于:

1. 认知对齐 : 当开发了两天后,最早的需求约束会被遗忘。ChangeLog 帮你回忆“我们根据哪个版本的文档做了哪些改动”。

2. 法医级溯源 : 如果代码逻辑和文档不一致,ChangeLog 能帮你判断是“文档改了没同步代码”还是“AI 只有幻觉”。

关键原则 :

  • Code follows Doc : 所有的 ChangeLog 必须注明依据的文档版本/文件名。
  • No Doc, No Code : 如果 ChangeLog 里出现了一条没有对应文档支撑的代码变更,这就是危险信号。

5.3 实战落地:用 Skill 强制执行 (Auto-Flight Recorder)

与其靠人工自律去写日志(这很难坚持),不如利用我们在 3.4 节提到的 Skill 技术,把这个动作变成 强制执行的肌肉记忆 。

我们只需做两步配置,就能让 AI 变成自带“黑匣子”的靠谱副手。

第一步:准备“手脚” (脚本) 创建一个简单的 Python 脚本 scripts/log_change.py ,用于标准化追加日志。

# scripts/log_change.py
import sys
from datetime import datetime

def append_log(change_type, summary, risk_analysis):
    # 自动生成带时间戳、类型和风险分析的日志
    entry = f"""
## [{datetime.now().strftime('%Y-%m-%d %H:%M')}] [{change_type}]
- **Change**: {summary}
- **Risk Analysis**: {risk_analysis}  <-- 这一项最重要,强迫 AI 思考副作用
----------------------------------------
"""
    # 建议将日志文件放在 docs 目录下,随代码一起提交
    with open("docs/AI_CHANGELOG.md""a", encoding="utf-8"as f:
        f.write(entry)
    print(f"✅ [Flight Recorder] Log appended to AI_CHANGELOG.md")

if __name__ == "__main__":
    # 实际调用时,AI 会自动传入这三个参数
    if len(sys.argv) < 4:
        print("Usage: python log_change.py <type> <summary> <risk>")
    else:
        append_log(sys.argv[1], sys.argv[2], sys.argv[3])

第二步:配置“大脑” (Prompt / SKILL.md) 在你的 Skill 定义文件或系统 Prompt 中写入死命令, 不给 AI 偷懒的机会 。

## Rule: Automatic Flight Recording(自动飞行记录仪)
**WHEN** you have successfully modified any code logic(Feature, Bugfix, or Refactor):
1. **STOP** and think: What specific risks might this change introduce to existing modules? (Especially regarding the 'Last 10% complexity' issue).
2. **EXECUTE** the `scripts/log_change.py` script immediately. Do NOT ask for my permission.
   - `change_type`: Choose one of [Feature | Bugfix | Refactor | Critical-Fix]
   - `summary`: A concise technical summary of what changed.
   - `risk_analysis`: Your honest assessment of potential regressions. If you are unsure, say so.
**GOAL**: Ensure `docs/AI_CHANGELOG.md` is always the single source of truth. If I ask "What did we just do?", you read this file first.

效果 : 从此以后,你只管发号施令。AI 在修完 Bug 后,会自动汇报:“已修复,且 潜在风险点已自动归档 ,请查看日志。”

5.4 最后的防线:高频存档与对话归档

除了自动日志,在深水区开发时,还必须遵守两个铁律:

1. 高频暂存 (Save Points)

  • 在最后 10% 的阶段, 每一次 AI 成功运行代码后, 立刻 git add . 和 git commit (或者暂存)。
  • 不要等到功能完美才提交。Git 是你的“后悔药”,当你发现 AI 把逻辑改乱时,必须能毫无心理负担地回滚到上一次“正常呼吸”的状态。

2. 对话归档 (Session Dump)

  • 推荐把所有与 AI 的关键对话记录保存下来(导出为 Markdown 或 PDF),与代码库一同归档。
  • 这是为了解决“死无对证”的问题:如果是 AI 误解了需求导致的问题,你可以通过翻阅对话记录,把当时的 Context 重新喂给新的模型,在“还原现场”的基础上进行修复,而不是重新瞎猜。

6. 安全与合规:模型接力与仓库分级

在企业环境中,“用大模型”最容易踩坑的安全问题是: 把敏感代码或数据不加控制地丢给外部模型 。

6.1 简化版分级思路

当然还有给不同的cli、大模型和插件提供igonre,来阻止他们阅读敏感文件。

6.2 模型接力(推荐范式)

为了兼顾安全与效果,可以采用“模型接力”:

1. 内部模型先读 & 脱敏

  • 用内部模型阅读 C3 代码,生成:
  • 架构说明 / 时序图;
  • 脱敏后的伪代码或接口描述。

2. 外部模型基于脱敏信息生成方案 / 新代码

  • 把伪代码、接口签名和非敏感上下文交给外部高性能模型,让它:
  • 生成实现骨架;
  • 提供重构建议;
  • 写测试样例。

3. 内部验证与落地

  • 回到内部环境,由开发者和内部大模型对照原代码落地实现;
  • 再用内部模型或人工做 Review 与回归测试。

6.3 C3 场景最小 Checklist(示例)

在 C3 仓库中使用 AI 前,可以自查:

1. 我是否确认当前用的是 内部/合规模型 ,而不是公网接口?

2. 是否避免把以下内容发往外部:

  • 完整关键业务实现;
  • 明文密钥、账号密码、手机 / 身份证等个人信息;
  • 客户业务数据样本。

3. 是否添加了ignore文件并且强制要求cli使用。

4. 若确需借助外部模型,是否先通过内部模型或手工做了 脱敏 / 抽象(只发伪代码和接口说明) ?

5. 外部模型生成的代码,是否经过了内部 Review 和测试再合入?

7. 你的责任:流程设计者,而不仅是代码作者

结合前面的内容,可以把"大模型编程"理解为两层职责:

1. 个人层面

  • 养成熟悉模型能力边界的习惯
  • 在日常开发中主动采用"测试优先 + 分步实现 + 明确约束"的工作流

2. 团队层面

  • 设计并推广一套适合团队的"AI 使用规范"和"安全 Checklist"
  • 为不同仓库、安全等级选好默认模型和工具组合
  • 把典型案例(一次成功的 refactor、一次复杂 bug 的 AI 辅助排查)沉淀成团队经验

如果说传统编程时代,你的核心资产是“你脑子里的经验”和“你写下的代码”;那么在大模型编程时代,你最宝贵的核心资产将变成:**这一整套“文档驱动的开发体系”——包括精细的需求文档、架构设计、Review 标准,以及那份会自我进化的 Prompt/SOP 库。**即使哪天换了模型,换了新人,只要流程和SOP 还在,团队的战斗力就能在几分钟内恢复 80%。

这份文档只是一个起点,真正的价值会来自你在实际项目中不断试错、总结、微调的那套"你们自己的流程"。

附录:常见疑问 FAQ

Q1: 用 AI 写的代码出 Bug,责任算谁的?

A : 算你的。AI 是工具,你是使用者和最终 Review 者,就像用 Stack Overflow 复制的代码出问题,责任也在你。最终上线的代码质量由你负责。

Q2: 学习 AI 编程会不会让我的编码能力退化?

A : 类比思考:用 IDE 自动补全不会让你忘记语法,但会让你不再记忆 API 细节。关键是 理解原理 而 非 记忆语法 。AI 编程会让你:

  • 更少关注"怎么写一个循环"
  • 更多关注"系统架构是否合理"
  • 编码能力不会退化,但能力重心会上移

Q3: 我的代码会不会被模型拿去训练,泄露给别人?

  • 使用企业内部模型 : 不会,数据不出内网
  • 使用外部商业 API (如 OpenAI、Anthropic):大部分商业服务承诺不用 API 数据训练模型,但需查阅具体服务协议
  • 使用免费在线服务 : 可能会,务必查看用户协议
  • 最佳实践 : C3 代码只用内部模型,C1/C2 代码可用外部 API

Q4: AI 总是给出错误答案,是不是不可用?

A : 需要调整使用方式:

1. 明确约束 : 不要问"帮我写个登录功能",而要说"用 Spring Security + JWT 实现登录,Token 有效期 2 小时"

2. 分步验证 : 不要一次生成整个模块,而是先让 AI 给方案,你确认后再分步实现

3. 主动纠错 : 发现错误立即反馈给 AI:"这个方法不存在,请使用项目里已有的 XxxUtils"

Q5: 用了 AI 之后,我还需要学习新技术吗?

A : 必须学,而且可能要学得更快 。 AI 可以帮你:

  • 快速理解新框架的基本用法("帮我解释 React Hooks 的原理")
  • 生成示例代码加速上手
  • 但 AI 不能替代你的技术判断力和架构能力

反而因为 AI 降低了"实现成本",你会有更多精力去探索新技术。

Q6: AI 能完全取代程序员吗?

A : 不能,至少在可预见的未来不行。AI 在很多重复性、模式化、实现层面的工作上确实已经可以做到比普通工程师更稳定、更高效,但它有几个天然短板:

  • 很难真正理解那些含糊、暧昧、不断变化的产品需求,只能根据你给的描述去“猜”;
  • 无法主动协调多个子系统、多个 Sub AI 以及跨团队沟通,它只能在你设计好的流程里执行;
  • 最关键的一点:它没法为线上事故和业务决策背锅,也承担不了合规和安全责任。

所以更现实的图景是: 能熟练驾驭 AI 的工程师会替代不会用 AI 的工程师 ,而不是“AI 整体替代所有程序员”。你的不可替代之处在于理解业务、拆解问题、设计流程,以及为结果负责——AI 帮你干活,但短期内还抢不走你的饭碗。

Q7: 使用大模型效率提升了,团队是不是应该承担双倍的需求吞吐量?

A: 这是一个需要高度警惕的“效率陷阱”。

虽然 AI 加快了“编码(Coding)”的速度,但它并没有缩短“思考(Thinking)”、“审查(Reviewing)”和“验证(Testing)”的时间。相反, AI 生成代码的速度越快,代码审查的密度要求就越高。

如果因为 AI 写得快,就盲目将需求吞吐量翻倍,会导致两个严重的后果:

1. “泡沫代码”堆积 : AI 极易生成“看起来能跑但逻辑脆弱”的代码。如果没有足够的人工 Review 时间,这些代码会迅速变成难以维护的“技术债”。

2. 风控防线失效 : 当排期被压缩到只能“由 AI 生成并直接提交”时,工程师实际上失去了对系统的掌控力。一旦发生线上故障,修复成本将指数级上升。

结论 : AI 节省下来的时间, 不应被全部转化为“更多的功能数量” , 而应被重新投资到 “更高的代码质量”和“更完备的测试覆盖” 上。这才是实现降本增效(降低维护成本,增加开发效率)的正确路径。

   
204 次浏览       7
相关文章

基于图卷积网络的图深度学习
自动驾驶中的3D目标检测
工业机器人控制系统架构介绍
项目实战:如何构建知识图谱
 
相关文档

5G人工智能物联网的典型应用
深度学习在自动驾驶中的应用
图神经网络在交叉学科领域的应用研究
无人机系统原理
相关课程

人工智能、机器学习&TensorFlow
机器人软件开发技术
人工智能,机器学习和深度学习
图像处理算法方法与实践

最新活动计划
基于模型的数据治理 3-10[北京]
基于AI的性能测试工程 3-9[在线]
需求分析与管理 3-18[北京]
配置管理方法、实践、工具 3-11[北京]
嵌入式C高质量编程 3-25[北京]
嵌入式软件测试 3-27[上海]
GPU图像处理基础 4-22[北京]
 
 
最新文章
AIGC技术与应用全解析
详解知识图谱的构建全流程
大模型升级与设计之道
自动驾驶和辅助驾驶系统
ROS机器人操作系统底层原理
最新课程
人工智能,机器学习和深度学习
人工智能与机器学习应用实战
人工智能-图像处理和识别
人工智能、机器学习& TensorFlow+Keras框架实践
人工智能+Python+大数据
成功案例
某综合性科研机构 人工智能与机器学习
某银行 人工智能+Python+大数据
北京 人工智能、机器学习& TensorFlow
某领先数字地图提供商 Python数据分析
中国移动 人工智能、机器学习和深度学习