⚠️ Alpha内测版本警告:此为早期内部构建版本,尚不完整且可能存在错误,欢迎大家提Issue反馈问题或建议
Skip to content

GenAI 时代领导高效工程团队

摘要

面向软件工程领导者的实用指南


本文基于"领导高效工程团队"中的理念进行扩展

总结 / tl;dr

在软件开发中使用 AI 不是为了更快地编写更多代码;而是为了构建更好的软件。作为领导者,你需要定义"更好"的含义,并帮助团队实现这一目标。将 AI 视为需要指导的初级团队成员。培训团队成员不要过度依赖 AI;这可能导致技能退化。强调"信任但验证"作为 AI 生成代码的准则。领导者应该提升自己团队的技能以应对这一时刻

虽然 AI 提供了前所未有的机会来提高生产力和简化工作流程,但认识到其局限性和人类专业知识不断演变的角色至关重要。软件开发的困难部分——理解需求、设计可维护的系统、处理边缘情况、确保安全性和性能——仍然牢牢掌握在人类判断的领域。

技术领导力的演变角色

与软件工程的其他部分类似,技术领导力正在经历转型。领导者必须定义"为什么",而 AI 可以协助(更多的)"如何做"。这需要:

  • 提升团队技能: 指导工程师有效使用 GenAI(提示工程、输出验证)现在是核心领导责任。明确 AI 在代码生成和工作流程中的使用位置、方式和时机。

  • 战略指导: 领导者必须制定 AI 集成的愿景,使其与业务目标保持一致,并确保伦理和价值考虑至关重要。

  • 伦理与监督: 建立护栏以确保 AI 驱动的代码安全、无偏见并遵守最佳实践。在审查中保持人类参与。

在我的团队中,我们让各级管理者/总监/副总裁和技术负责人在理解、应用和构建方面提升技能,并指导 IC(个人贡献者)做同样的事情。我倾向于建议只有在实际构建 AI 功能或直接与模型团队合作时,才需要了解训练/模型专业化。

"70% 问题"的现实

AI 工具通常在任务的初始阶段表现出色,有效处理大约 70%(例如,生成样板代码)。然而,剩余的 30% ——处理边缘情况、优化性能和整合特定领域逻辑——仍然需要人类专业知识。这突出了以下重要性:

  • 以成长心态对待 AI 编码(保持怀疑是可以的): 将 AI 作为生产力放大器,同时积极学习其解决方案的基本原理和权衡。将 AI 视为合作伙伴而非拐杖,并定期挑战自己独立解决问题。

  • 投资核心技能: 磨练系统设计、边缘情况思考、测试和调试等基本技能对于长期职业发展仍然至关重要。代码质量和清晰度应该是个人使命。

  • 利用经验(高级开发者): 用有效的提示引导 AI,并仔细审查其输出。在负责任的 AI 集成中发挥带头作用,设定标准并促进知识共享。利用节省的时间处理更雄心勃勃的项目并指导初级同事。

  • 专注于理解(初级开发者): 努力理解和改进 AI 生成的代码。通过严格的测试和反复检查建立彻底性的声誉。从每个错误和反馈中学习,发展 AI 无法复制的技能。

  • 保持适应性: 持续更新你的技能集和工具集,以跟上不断发展的 AI 格局。扎实的基础和协作态度将确保你保持适应性。

对领导者的启示: 避免过度炒作 AI——它不会突然取代 90% 的工程工作。 相反,专注于培训团队通过批判性思维和软件开发原则的坚实基础来弥合"70% 差距"。

知识悖论

有趣的是,AI 目前对有经验的开发者比初学者更有益。这是因为 AI 通常表现得像一个热情但缺乏经验的初级开发者——能够快速生成代码,但需要持续的监督和纠正。

  • 高级开发者: 利用 AI 加速现有知识,快速原型化想法,生成基本实现以供改进,探索替代方法,并自动化日常任务。

  • 初级开发者: 面临接受错误解决方案、忽视关键考虑因素、难以调试 AI 生成的代码以及构建他们不完全理解的脆弱系统的风险。

领导者的关键要点

  1. 拥抱"信任但验证": 对所有 AI 生成的代码实施强有力的审查流程,确保人类监督和理解。

  2. 专注于技能提升: 投资培训计划,使工程师具备有效使用和验证 AI 输出的技能。

  3. 保持核心技能: 强调基本软件开发原则的持久重要性,并鼓励持续学习。

  4. 调整领导实践: 从直接代码监控转向战略指导,专注于确保正确的 AI 使用和输出质量。

  5. 解决"70% 问题": 培训团队识别和解决需要人类专业知识的最后关键 30% 的任务。

  6. 认识"知识悖论": 根据初级和高级工程师的不同需求定制 AI 采用策略和指导方法。

  7. 培养负责任的 AI 使用文化: 建立明确的指导方针,说明何时以及如何使用 AI,强调伦理考虑和代码质量。

  8. 衡量超越速度的影响: 跟踪反映长期代码质量、可维护性和知识保留的指标,而不仅仅是交付速度。

  9. 以身作则: 领导者也必须使用 AI 工具,以亲身了解其能力和局限性。

AI 是软件开发中的变革力量,为生产力和创新带来显著收益的潜力。但这其中有很多细微差别,我们将在本书的其余部分深入探讨,从适当的介绍开始。

引言

生成式 AI 已经迅速从新奇事物变成软件工程的主流。最近的调查显示,超过四分之三的开发者现在正在使用或计划在日常工作中使用基于 AI 的编码助手(Google 调查称超过 75% 的开发者依赖 AI。但有一个问题 | ZDNET)——当然,这在个人项目与工作项目、新项目与现有项目之间可能有所不同。

像 OpenAI 的 ChatGPT 和 GitHub Copilot 这样的工具在 2021-2023 年左右突然出现,到 2024 年,许多工程师已经将 AI 集成到他们的工作流程中,用于代码建议、文档编写,甚至设计头脑风暴。这一巨大转变迫使工程领导者改变他们的方法。技术领导力不再仅仅关于架构专业知识或调试能力——现在同样关于 AI 的战略集成、AI 驱动流程的监督以及引导人们穿越这一新格局

在本文中,我们探讨 工程领导力 在 AI 时代如何变化,并提供成功的实用策略。我们将研究当团队与生成式 AI 一起工作时领导者承担的新责任,以及 Cursor、Windsurf、Cline 和 Copilot 等工具如何重塑日常开发生活。我们将分析新兴趋势(从 Anthropic 的 Sonnet 到 Google 的 Gemini 等高级代码模型),并借鉴 2024 年和 2025 年的最新研究,将炒作与现实分开。本指南还解决了采用 AI 的挑战和陷阱——从过度依赖机器生成的代码到技能退化的风险——并提供经过验证的解决方案。

至关重要的是,我们将讨论如何在 AI 可以编写代码的时代保留和提升人才,通过具体的领导行动来解决工作替代的恐惧。来自已将 AI 集成到工程中的领先科技组织的真实案例研究将说明成功是什么样子(以及吸取的教训)。我们还将专门讨论 AI 辅助开发的伦理和治理,以便你可以确保团队负责任地使用 AI 并符合组织价值观。最后,我们将展望工程领导力本身的未来:如何保持领先于 AI 进步,并培养 AI 无法替代的人类品质——创造力、远见和判断力。

最后,你将拥有一个在生成式 AI 时代领导高效工程团队的框架——平衡创新与监督、生产力与伦理、速度与质量。让我们开始吧。

AI 时代的领导力演变

生成式 AI 的兴起正在从根本上改变工程领导者的角色。随着 AI 能够处理一部分编码任务,领导者正在缓慢地将重点从动手解决问题转向更高层次的战略、监督和人员管理。在实践中,这意味着更少的时间担心特定函数如何实现,更多的时间定义为什么什么团队应该构建。AI 可以生成样板代码或建议解决方案,但领导者需要设定方向、确保质量并发展他们的人员。

一个关键的演变是从战术执行到战略指导的焦点转移。 有效的工程经理现在不再微观管理代码,而是指导 AI 集成到工作流程中,并为 AI 如何增强团队设定愿景。例如,凯捷研究所的一项调查发现,超过一半(54%)的技术领导者认为,随着他们指导 AI 驱动的变革并确保团队的问责制,管理角色变得更加重要(领导力中的生成式 AI - Capgemini UK)。领导者协调 AI 在开发过程中的位置——例如,决定 AI 非常适合生成单元测试或脚手架,但人类工程师必须审查关键的安全敏感代码。他们还需要更新团队流程:代码审查实践现在必须捕获 AI 生成的错误或偏见,设计审查可能包括检查 AI 生成的设计是否满足要求。

领导者还承担着AI 特有的新监督责任。 AI 功能强大但并非万无一失——它可能产生不安全的代码、细微的错误或不合规的解决方案。值得注意的是,39% 的开发者报告对 AI 生成的代码"几乎没有或完全没有信任"(Google 调查称超过 75% 的开发者依赖 AI。但有一个问题 | ZDNET),这反映出 AI 的建议虽然有帮助,但必须谨慎对待。有效的领导者将 AI 视为团队中的初级开发者:在狭窄的任务中极快且有能力,但需要监督。这涉及围绕 AI 建立**"信任但验证"**的文化。鼓励工程师使用 AI 进行解决方案的第一遍,但在任何内容投入生产之前,人工审查和测试是强制性的。在领导会议中,AI 可能生成状态摘要或风险评估,但工程总监会根据他们的经验和背景仔细检查结论并进行合理性检查。

至关重要的是,工程领导者正在成为使用 AI 的教练和导师,这与十年前有很大不同。正如早期的领导者必须指导团队采用敏捷实践或云采用一样,今天的领导者必须指导他们的团队有效利用生成式 AI。这包括指导工程师进行提示工程(如何向 AI 询问你需要的内容)、批判性评估 AI 输出以及理解 AI 编写的代码的重要性。领导者通常是定义 AI 使用最佳实践的人——例如,设定哪些类型的任务应该或不应该交给 AI 的指导方针,或为高风险组件中的 AI 编写代码建立批准流程。

最后,领导力的人性化方面比以往任何时候都更重要。随着常规编码越来越自动化,工程领导者的独特价值在于以人为本的技能:沟通、同理心、决策和愿景。 生成式 AI 可以协助许多事情,但它不能(至少目前还不能)设定令人信服的产品愿景、激励团队或对模糊的权衡做出判断。AI 时代的领导者正在加倍发挥这些人类优势——更多地与利益相关者互动,确保他们的团队在变化中保持积极性和凝聚力,并专注于需要创造力和跨职能协作的问题。事实上,AI 的引入通常会创造更多的领导工作,以使技术能力与业务战略保持一致。技术战略和人员管理是不可替代的;如果有的话,AI 的存在使这些领导任务更加关键——必须有人决定使用哪些 AI 工具、如何处理风险以及如何衡量超越原始输出的成功。

总之,工程领导者的角色正在从成为房间里最好的编码者演变为成为房间里最好的推动者。领导者设定方向和背景,以便人类工程师和 AI 工具可以有效地协同工作。他们充当粘合剂——将生成式 AI 的潜力与定义成功的业务目标和用户需求联系起来。这种演变正在顺利进行:一项全球研究发现,76% 的组织已将技术资源转移到开发 AI 解决方案中(Google 调查称超过 75% 的开发者依赖 AI。但有一个问题 | ZDNET),这意味着各级领导者现在都参与指导 AI 驱动的项目。正如我们将在本书中看到的,拥抱这一新角色——战略家、教练和伦理监督者——是在 AI 时代领导高效工程团队的关键。

AI 驱动开发的新兴趋势与工具

过去两年见证了针对软件开发的 AI 工具和平台的爆炸式增长。从简单的代码自动补全开始,已经演变成复杂的 AI"结对编程"和智能体 IDE。在本节中,我们将分析主要趋势并重点介绍工程领导者应该了解的关键工具(Cursor、Windsurf、Cline、Copilot,以及 Sonnet 和 Gemini 等高级 AI 模型)。了解这些工具的能力和局限性将帮助你评估它们对工作流程、协作和生产力的影响。

新一代 AI 编码助手

一个明显的趋势是 AI 编码助手的成熟。GitHub Copilot 是先驱之一,向许多开发者介绍了 AI 建议整行或整块代码的概念。现在,Copilot 被认为是这个领域的"老将",它激发了新一代助手和 IDE 的浪潮。现代 AI 编码助手远远超越了自动补全——它们与你的代码编辑器集成,理解整个项目的上下文,并可以执行多步骤任务。让我们看看几个值得注意的例子:

  • GitHub Copilot行业老将。 Copilot 由 OpenAI 和 GitHub 开发,插入 VS Code 等编辑器,并在你输入时建议代码。它拥有来自开源代码的庞大知识库,通常可以仅从注释完成函数或编写样板代码。开发者欣赏 Copilot 可靠的上下文感知能力以及它无缝集成到现有工作流程的方式。GitHub 继续增强 Copilot,添加了拉取请求摘要和回答代码问题等功能。它被广泛采用——到 2023 年底,63% 的组织报告他们正在试用或使用像 Copilot 这样的 AI 编码助手Gartner: 75% 的企业软件开发者将在 2028 年使用 AI • The Register)。Copilot 的影响是显著的:在 Microsoft 和其他公司的大规模研究中,使用 Copilot 的开发者平均完成的任务多 26%,代码输出(提交)增加了约 13%,而代码质量没有任何下降新研究揭示 AI 编码助手将开发者生产力提高 26%:IT 领导者需要知道什么 - IT Revolution)。这表明像 Copilot 这样的工具可以在保持标准的同时有意义地提高生产力,特别是对于常规编码任务。

  • CursorAI 原生代码编辑器。 Cursor 是一个从头开始构建以利用 AI 的独立代码编辑器。它提供"智能"代码补全和智能体模式,可以接受高级指令(例如"重构此函数以提高清晰度")并在代码库中应用更改。由于其 VS Code 根源,Cursor 支持许多插件和语言。开发者称赞 Cursor 的快速、准确的补全以及它提供的控制级别——你可以提示它一次更新整个文件或多个文件。这就像拥有一个非常强大的搜索和替换功能,由自然语言引导。缺点是 Cursor 的高级功能有学习曲线,而且它是付费产品。对于高级工程师来说,Cursor 可以通过在人类监督下自动化繁重工作来加速大规模重构或代码库范围的升级。

  • WindsurfCodeium 的智能体 IDE。 Windsurf Editor 自称为"第一个 AI 智能体 IDE"。它通过结合 Copilot 的优势(实时协作编码)和可以在后台处理更大任务的自主智能体,让开发者保持"心流状态"。Windsurf 的智能体可以运行测试、查找错误,甚至在多步骤工作流程中应用修复。例如,你可以要求 Windsurf 优化某个算法——它可能会分析代码、进行一系列更改、运行基准测试并呈现结果,所有这些都在 IDE 内完成。这种方法面向常规但多方面的任务,如在整个项目中更新已弃用的 API 或改进性能热点。Windsurf 是较新的参与者(于 2024 年底推出),基于订阅,但它展示了 IDE 的发展方向。智能体 + copilot 模型意味着 AI 既可以逐行协助你,也可以主动执行结构化任务。早期用户报告表明,Windsurf 可以显著减少维护任务的开销,让开发者更专注于创造性问题解决。

  • Cline开源的黑马。 Cline 是一个开源的 VS Code 扩展,作为商业 AI 助手的免费替代品而获得关注。它是一个社区驱动的工具(有时被称为"Roo"或"RooCline"),与 DeepSeek 等开放模型集成。Cline 的突出特点是强调成为完全透明的 AI 合作伙伴——它以让你轻松查看和审查每个更改的方式执行 AI 驱动的代码修改。它还具有类似智能体的能力;Cline 可以接受高级指令并迭代地完成一系列步骤(例如,运行测试套件、识别失败的测试、尝试修复、重复)——有效地充当调试自己输出的 AI 初级开发者。这种智能体循环是即使 Copilot 也不能开箱即用的。Cline 免费使用,使其对预算有限的团队或想要更多控制 AI 的团队(因为你甚至可以自托管模型)具有吸引力。虽然 Cline 可能还没有 Cursor 或 Windsurf 的所有精致或高级功能,但它代表了 AI 编码工具变得多么容易获得——即使是较小的团队或开源项目也可以在没有大量投资的情况下利用 AI 结对编程。

总的来说,这些工具正在改变工程工作流程。我们现在有一个开发者和 AI 之间的协作循环,而不是完全由人类努力驱动的传统编辑-编译-测试循环。开发者可能会写几条描述函数的注释,AI 起草实现,然后开发者检查和测试它,要求 AI 改进某些部分(例如,"使此函数异步"),依此类推**。生产力提升**可能是显著的——许多轶事报告和一些研究声称在某些任务上节省了 20-50% 的时间——但它们伴随着对新技能(提示、快速反馈)和警惕(审查 AI 输出)的需求。我们将在下一节讨论挑战方面。

还值得注意的是,这些 AI 助手越来越具有团队意识和云连接。例如,GitHub 正在将 Copilot 与拉取请求和文档集成,Codeium 的 Windsurf 或 Google 的 AI Studio(Project IDX)等工具旨在与你的整个开发环境、CI/CD 管道等集成。这意味着 AI 不仅仅是个人开发者的助手;它将成为团队集体工作流程的一部分(想象一下 AI 可以自动为团队生成设计文档大纲,或建议在类似模块上工作过的代码审查者等)。聪明的领导者正在关注这些趋势,以指导他们的团队采用真正有所作为的工具,而不是分散注意力。

高级生成模型:Sonnet、Gemini 及更多

支撑许多这些工具的是生成式 AI 模型本身,它们也在快速发展。2024-2025 年引起关注的两个名字是 Anthropic 的"Sonnet"系列Google 的"Gemini"。这些代表了可能影响软件工程的 AI 能力的前沿。

Claude 3.5/3.7"Sonnet"(Anthropic): Anthropic 是一家 AI 初创公司,在 2024 年底推出了其 Claude AI 模型的升级版,代号为 Sonnet。Claude 3.5/3.7 Sonnet 被誉为专门用于编码任务的混合推理模型(Anthropic 的 Claude 3.7 Sonnet 混合推理模型是... - AWS)。用更简单的话说,它是一个旨在像细致的工程师一样思考的 AI 模型。它可以摄取非常大的上下文(它可以一次关注可能数十万行代码),并执行复杂的推理,如调试或解释代码。早期报告表明,Claude Sonnet 擅长理解整个代码库并提出创造性但连贯的建议(Anthropic 的 Claude 3.7 Sonnet 混合推理模型是... - AWS)。例如,Sonnet 可能能够处理像"阅读这五个模块并建议我们如何重构它们以使其更模块化"这样的请求,并产生一个合理的计划。它在代码特定基准测试上优于许多以前的模型。这对工程团队很重要,因为这意味着 AI 帮助不限于琐碎的自动补全——这些模型可能有助于架构改进、代码审查和学习新代码库。一些开发者工具(如 GitHub 的 Copilot X beta 和其他工具)允许切换到 Claude 模型,以在大文件或更多对话式代码分析上获得更好的结果(在 Copilot Chat 中使用 Claude Sonnet - GitHub Docs)。对于领导者来说,要点是 AI 模型变得更智能、更具上下文感知能力,这扩展了你可能信任 AI 协助的任务范围(超越编写代码,转向分析和审查代码)。

Google 的 Gemini: Google 一直在通过其 DeepMind 团队大力投资生成式 AI,Gemini 是他们的旗舰模型系列,旨在与 OpenAI 的 GPT-4 竞争。Gemini 1.0 于 2023 年底首次亮相,到 2024 年 12 月,Google 宣布了 Gemini 2.0,明确针对"智能体 AI"未来(Google Gemini 2.0 解释:你需要知道的一切)。用简单的语言来说,Gemini 是多模态的(它可以处理文本、图像),并被设计为作为智能体执行操作(工具使用、调用 API),而不仅仅是用文本响应。对于软件工程来说,这可能意味着一个不仅建议代码,而且可以运行该代码、测试它、调试它并迭代的模型——有点像拥有一个可以承担整个任务的自主编码助手。Google 已经开始将 Gemini 集成到其开发者工具和云产品中。例如,Gemini Code Assist 是 Google Cloud 中的一个 AI 编码功能,可帮助开发者更快地编写代码并减少错误。Gemini 已经深度集成到 IDE 中(特别是通过 Google 的 Project IDX 或 Android Studio 等服务),甚至集成到 Chrome DevTools 中供 Web 开发者使用。

Gemini 的出现预示着一个 AI 在开发堆栈中无处不在的未来。不难想象在不久的将来,项目的存储库有 AI 智能体可以自动为简单的错误打开合并请求,或者自然语言中的需求在人类工程师接手进行改进之前由 AI 部分实现。Google 对智能体能力的关注意味着我们可能会看到 AI 可以,例如,阅读错误报告、定位有问题的代码、提出修复并甚至创建补丁——所有这些都在人类监督下。事实上,这方面的早期例子是一个名为"SWE-Bot"的 AI 工具,它可以自动识别和修复 GitHub 存储库中的错误(AI 不仅使编码更容易。它使编码更有趣 | IBM)。

从领导力的角度来看,Sonnet 和 Gemini 等模型的趋势突出了两点:能力和可访问性正在增加。能力方面,AI 可以处理比以前更复杂的编程任务(不仅仅是样板代码,还有有意义的逻辑和分析)。可访问性方面,大玩家(Microsoft、Google)正在将这些模型融入开发者日常使用的工具中。这意味着忽视 AI 正在变得不可能——即使你不明确采用它,你团队的 IDE 和云平台也可能默认启用 AI 功能。这也意味着较小的公司可以通过 API 利用世界级的 AI,而无需训练自己的模型。例如,通过云服务,团队可以通过 API 使用 Anthropic 的 Claude 或 Google 的 Gemini 来支持他们的内部工具或 CI 流程。

然而,值得用现实来缓和热情:尽管有炒作,但并非每个团队都看到了显著的生产力提升。根据 Bain 2024 年的一份报告,在实践中,生成式 AI 目前平均节省约 10-15% 的软件工程时间超越代码生成:更高效的软件开发 | Bain & Company)。许多公司仍在弄清楚如何有利可图地使用这些时间节省。同一份报告表明,通过更全面的采用(不仅将 AI 用于编码,还用于测试、代码审查等,并重新设计流程),可以实现 30% 或更多的效率提升——但达到这一点需要的不仅仅是将 AI 工具放入现有工作流程中。它需要重新思考流程和角色(我们将在后面的章节中回到这个主题)。

总之,趋势很明确:AI 正在成为软件的共同作者。 Cursor、Windsurf 和 Cline 等工具表明,开发者现在在他们的编辑器中拥有 AI"合作伙伴"。Sonnet 和 Gemini 等高级模型表明,AI 在软件项目中的理解和行动范围正在迅速扩大。作为工程领导者,了解这些工具和趋势不是追逐闪亮的对象——而是了解软件开发的工艺如何变化,以便你可以领导团队利用机会(并避免陷阱,我们接下来讨论)。2025 年最好的领导者将是那些能够将人类开发者的优势与 AI 工具的优势融合成一个有凝聚力、高效和创新的整体的人。

采用 AI 的挑战与解决方案

将生成式 AI 集成到工程工作流程中提供了许多好处,但也带来了新的挑战。在本节中,我们将讨论团队在采用 AI 时面临的常见陷阱,并为领导者提供实用的解决方案,以确保维持高质量标准。目标是帮助你避免 AI 采用的"坏的一面"——比如过度依赖 AI 或基本技能的退化——同时获得好处。

尽管 AI 编码工具具有令人印象深刻的能力,但它们有局限性,甚至可能误导缺乏经验的团队。领导者应该注意这些关键挑战:

  • 过度依赖 AI 导致技能退化: 如果开发者过于依赖 AI 来解决问题,他们就有失去解决问题"肌肉"的风险。AI 可以在几秒钟内生成代码,这对生产力很好,但如果工程师在不理解的情况下接受解决方案,他们的成长就会停滞。这是许多教育工作者和工程师注意到的真正担忧:依赖 AI 生成的解决方案可能会绕过来自调试和试错的深度学习(AI 编码助手:对有抱负的开发者来说是双刃剑 | by Murat Aslan | Stackademic)。初级开发者尤其脆弱——如果他们对所有事情都使用 AI,他们可能会跳过学习基本算法或架构原则。作为领导者,通过设置学习护栏来解决这个问题。一个想法是实施偶尔的"无 AI 日"或编码道场,团队在没有 AI 帮助的情况下解决问题,只是为了保持技能敏锐。你还可以要求当使用 AI 时,开发者应该能够解释代码背后的推理。例如,如果初级开发者使用 Copilot 生成排序算法,让他们在审查中演示它是如何工作的。这确保他们将 AI 视为学习工具,而不仅仅是拐杖。一些组织甚至建立了指导计划,高级工程师与初级工程师一起审查 AI 辅助的工作,将这些审查变成关于为什么 AI 的解决方案是或不是最优的教学时刻。

  • 盲目信任 AI 输出(质量和错误): AI 不保证正确性。它可能产生看起来自信但实际上是微妙错误或不安全的代码。事实上,一项全球调查发现超过三分之一的专业人士不完全信任 AI 生成的代码Google 调查称超过 75% 的开发者依赖 AI。但有一个问题 | ZDNET)(Google 调查称超过 75% 的开发者依赖 AI。但有一个问题 | ZDNET)——这是正确的,因为 AI 可能引入难以检测的错误。一个经典的错误是当工程师接受通过基本测试但在边缘情况下失败的 AI 生成解决方案时,AI(缺乏真正的理解)没有考虑到这些情况。安全漏洞是另一个风险:AI 可能建议使用过时的加密方法或忽略清理输入的解决方案,因为它在训练数据中看到了类似的代码**。解决方案:** 建立严格的**"信任但验证"**政策。明确期望所有 AI 生成的代码都要像人类编写的一样进行代码审查和测试——甚至可能需要额外的审查。领导者可以树立榜样:如果你正在审查拉取请求,并且怀疑其中一部分是 AI 生成的(它可能有明显的注释或只是来得很快),提出问题:为什么这是正确的方法?我们考虑过边缘情况 X 吗? 这鼓励团队始终仔细检查 AI。一些团队采用的政策是,AI 建议的代码必须附带 AI 生成的测试(许多 AI 工具也可以生成单元测试),然后由人工审查者批准两者。通过将 AI 编写的代码与彻底的测试配对,你可以捕获许多问题。本质上,强调 AI 不是团队集体大脑的替代品——它是一个仍然需要监督的助手。

  • "70% 问题": 领导者观察到,AI 通常非常快速地让你完成解决方案的 70%,但最后 30%(困难的部分)仍然需要大量的人类努力。例如,AI 可能生成新功能代码的大部分,但边缘情况、集成细节和性能调优可能不完整或不正确。它擅长产生草稿,但不是精致的最终产品。这可能会产生虚假的进度感——你认为你"几乎完成了",因为代码已经编写,但调试和改进 AI 生成的代码所需的时间与从头编写一样多。一个相关的问题是,AI 倾向于很好地处理常见情况(因为它在训练数据中见过它们),但在新颖或复杂的场景中失败**。解决方案:** 围绕这一现实校准期望和项目计划。作为领导者,在估算任务时,不要假设 AI 生成代码意味着它已经准备好投入生产。鼓励你的团队将 AI 用于样板和常规部分(那 70%),但计划在之后进行彻底的集成、测试和改进工作。一个实践是将 AI 用于它擅长的事情——例如,生成一堆模型类或 API 客户端代码——这释放了人类开发者花更多时间在棘手的集成逻辑或定制算法上。通过明确地以这种方式划分工作,你确保团队将他们的脑力集中在最需要的地方,并且你不会陷入"AI 做了,所以我们完成了"的陷阱。

  • 初级开发者超越他们的理解: 轶事上,许多高级工程师注意到一个模式:AI 使新手开发者看起来比他们真正的生产力更高。 初级开发者可以在 AI 帮助下突然产生大量代码,但在这种输出之下,他们的理解可能是肤浅的。例如,初级开发者可以使用 AI 助手在新编程语言中快速完成整个模块——这通常需要他们数周的学习——但如果出现错误,他们可能难以调试,因为他们不完全掌握代码的工作原理。这有时被称为知识悖论:AI 帮助有知识的人走得更快(因为他们可以判断 AI 的输出),但它实际上可能阻碍没有知识的人(因为他们无法区分好的和坏的输出)。解决方案: 特别强调对经验较少的开发者的指导和代码审查。坚持解释:当初级开发者提出包含大量 AI 编写代码的 PR 时,让他们注释或向团队展示,解释每个部分。这将很快揭示他们是否不理解某些东西(这是一个教学机会)。另一个解决方案是以不同的方式将初级开发者与 AI 配对——例如,让他们使用 AI 生成建议,但与可以立即提供这些建议反馈的高级开发者结对编程("是的,看起来不错"或"不,这不是我们在系统中处理错误的方式")。这样,初级开发者学习上下文和原因,而不仅仅是什么。还值得让初级开发者轮换执行适合 AI 的任务(如与客户交谈以了解需求,或编写设计文档),以确保他们发展全面的技能。

  • 代码一致性和风格: AI 工具在来自不同作者的数百万代码片段上训练,可能以各种风格生成代码——其中一些可能与你团队的标准不匹配。如果没有指导,AI 可能使用与你的指南规定的不同的命名约定、代码模式或项目结构。如果代码库的一部分主要由 AI 编写,另一部分由人类编写,则可能会出现不一致。解决方案: 大多数 AI 助手可以通过注释或关于风格的配置来指导。例如,你可以在提示中提供编码风格的示例,或者一些工具允许设置风格指南。领导者应确保团队的风格指南和 linting 工具是最新的,并且在 AI 世界中可能更严格。自动化的 linter 或格式化程序可以在生成后捕获许多风格问题。此外,教育团队在提示中包含要求(例如,"使用函数式编程风格"或"遵循我们的 XYZ API 约定")。随着 AI 集成到 IDE 中,如果给予正确的钩子,我们可能会看到它自动符合项目的风格——但在那之前,由团队来执行这一点。在代码审查中,不要忽视 AI 编写的部分——将它们保持在相同的一致性标准。随着时间的推移,随着模型从你的存储库中学习(一些工具在你的代码库上进行微调),这个问题应该会减少,但最初需要有意识的努力。

  • 数据隐私和 IP 风险: 这更多是一个组织挑战,但至关重要。许多 AI 编码工具在云中运行,这意味着代码(可能是专有代码)被发送到模型提供商的服务器。这在一些公司引起了警报:例如,三星在 2023 年禁止员工使用 ChatGPT,因为一名工程师不小心将敏感源代码泄露到提示中三星在 4 月内部数据泄露后禁止使用 ChatGPT 等生成式 AI 工具...)。此外,在开源代码上训练的 AI 模型面临法律问题(例如,有诉讼声称 Copilot 可能在没有归属的情况下复制许可代码)。作为领导者,你必须应对这些担忧**。解决方案:** 与你的法律/安全团队合作制定明确的政策。确定哪些类型的数据可以或不可以放入 AI 工具。许多公司最初不允许将 ChatGPT 等工具用于任何代码,直到出现企业选项。如果你在具有严格 IP 或合规性的领域(金融、医疗保健等),你可能会选择内部运行的自托管 AI 模型,这样就不会有任何东西离开你的环境。供应商正在响应——我们现在有"Copilot for Business",承诺不在你的代码上训练,以及你可以在内部部署的开源模型。确保开发者理解政策:例如,"不要将客户数据或专有算法粘贴到任何外部 AI 服务中。"另一方面,为了解决知识产权风险,确保任何 AI 生成的代码都经过许可证合规性审查(有些情况下 AI 逐字复制了一段著名的代码)。使用 AI 并不能免除团队遵守开源许可证的责任。一种方法是将 AI 用作建议工具,但让开发者自己实现关键部分,或交叉检查他们没有编写的不寻常代码。随着时间的推移,我怀疑法律框架将澄清这些问题,但在 2025 年,这仍然是一个有点灰色的区域,所以领导者必须保持知情并谨慎行事,以保护公司的资产。

总结本节:在工程中采用 AI 并非没有陷阱,但所有陷阱都可以通过有意识的领导和流程调整来克服。 解决方案的共同线索是人类监督和持续学习。如果你保持一种文化,其中 AI 是一个工具,而不是自动驾驶仪,你可以避免大多数问题。鼓励你的团队将 AI 建议视为正是这样——要评估的建议,而不是盲目接受的真理。强调即使我们使用这些新工具,也要保持核心技能和理解。通过设定明确的期望(代码必须被理解、审查、测试等)并调整你的流程(更多指导、更新的代码审查指南、明确的 AI 使用政策),你可以确保 AI 加速你的团队而不降低你的标准。记住,目标是让 AI 放大你团队的能力,而不是取代他们的思考。通过正确的方法,挑战可以得到管理,你的团队可以享受生成式 AI 提供的生产力提升和创造性可能性。

AI 时代的人才保留与技能提升

当今工程领导者最敏感的话题之一是生成式 AI 将如何影响工程人才和职业。一方面,AI 可以自动化开发者的部分工作,导致对工作替代或相关性降低的恐惧。另一方面,AI 开辟了新的机会和角色,并且可以通过卸载繁重工作使工程工作更具吸引力。在本节中,我们将探讨领导者如何保留人才并在团队中培养成长心态。我们将涵盖解决工作替代焦虑、技能提升和再培训策略,以及如何将 AI 转变为员工成长的工具而不是威胁。

解决工作替代恐惧

不可能忽视头条新闻——许多消息来源推测 AI 是否会取代开发者。作为领导者,你可能被团队或自己的管理层问过:AI 会减少对工程师的需求吗? 至关重要的是用透明度和事实正面解决这些恐惧。根据迄今为止的大多数研究,现实是 AI 不是在取代开发者,而是在改变所需的技能配置。例如,Gartner 预测到 2027 年 80% 的软件工程角色将需要技能提升以满足生成式 AI 的需求80% 将被迫在 2027 年之前提升技能,因为该职业正在转型 | ITPro)。这意味着绝大多数工程师需要学习新技能(如如何有效地与 AI 合作,或专注于更高级别的任务)——但它并没有说 80% 的工程师会失业。事实上,Gartner 和其他人预见到新角色的出现(如 AI 提示工程师、AI 工具专家,或将软件开发与数据科学相结合的角色)。

与你的团队分享这样的统计数据和专家观点,以描绘一个现实的画面:是的,他们的工作会演变,但对于那些适应的人来说,机会可能会增长。一个令人放心的数据点是,许多开发者自己对 AI 的影响持积极态度。KPMG 的一项调查发现**,50% 的程序员认为 AI 和自动化对他们的职业产生了**积极影响,主要是通过提高生产力和开辟从事更有趣任务的机会(AI 不仅使编码更容易。它使编码更有趣 | IBM)。同样,OpenAI 的一项调查报告称,50% 的开发者看到 AI 提高了生产力,约 23% 甚至报告了显著的收益。这些见解可以帮助缓解"AI 会让我过时"的恐惧——相反,它正在使许多开发者更有生产力,并可能更满意(因为他们可以专注于创造性工作)。

然而,承认恐惧很重要。在团队会议或一对一中鼓励关于 AI 的公开讨论。一些工程师,特别是那些花了几十年发展深厚技艺的人,可能会对机器现在正在做他们擅长的一些事情感到不安。强调他们的经验仍然是无价的——AI 的输出只有在熟练的人类提供的指导和验证下才是好的。你可以分享轶事,比如:AI 可以生成一堆代码,但通常需要经验丰富的工程师来识别其中一个微妙的错误,或者知道该方法是否会扩展。简而言之,将 AI 框架为增强人类开发者,而不是取代他们。这种框架有助于将心态从竞争转变为协作:"我如何使用这个新工具在我的工作中变得更好?"而不是"这个工具会取代我的工作吗?"

团队的技能提升策略

一旦团队接受了 AI 是一个要利用的工具而不是要躲避的威胁的想法,下一步就是提升他们的技能以有效使用它。AI 时代的技能提升不仅仅是学习新的编程语言或框架——它涉及发展与 AI 系统合作的流畅性。

1. 促进 AI 素养: 确保每个团队成员,无论资历如何,都对生成式 AI 的工作原理及其能力/局限性有基本的了解。这并不意味着他们需要成为 AI 研究人员,但他们应该知道,例如,大型语言模型基于模式预测文本,这就是为什么它可能编造看起来合理但错误的东西。鼓励他们在沙盒环境中尝试 AI 工具。你可以举办内部研讨会或"午餐学习"会议,让使用过 Copilot 或 Cursor 等工具的开发者分享他们的技巧。一些公司创建 AI"公会"或兴趣小组,定期会面讨论 AI 在开发中的新功能和用例。作为领导者,你应该在这里以身作则——表明也在学习这些工具。如果你来到团队会议并演示你如何使用 AI 重构一些代码或生成测试,它会发出一个强有力的信号,表明这是一个有价值的技能集。

2. 正式培训计划: 根据你的组织,你可能会与学习与发展(L&D)合作建立培训。在 2024 年,我们看到"软件工程中的 AI"课程的兴起——无论是通过在线平台还是定制研讨会。考虑引入专家或使用在线课程来培训团队进行有效的提示编写、数据隐私实践或自定义 AI 模型。一个实践培训,每个人配对完成一个使用 AI 助手的编码任务,可能会大开眼界。此外,查看供应商资源:例如,Microsoft 为 GitHub Copilot 提供文档和示例,Google 等公司为其 AI 工具提供教程。使用这些来创建结构化的学习路径。对培训的投资将得到回报,因为研究表明,开发者在初始学习曲线后使用 AI 会变得更加有效。例如,对 4,800 名开发者的大型研究指出,采用是渐进的,那些坚持使用 AI 助手的人随着时间的推移获得了越来越多的好处(新研究揭示 AI 编码助手将开发者生产力提高 26%:IT 领导者需要知道什么 - IT Revolution)。所以你想让你的团队尽快越过最初的障碍。

3. 指导和同伴学习: 利用你的高级工程师来指导其他人使用 AI。正如高级开发者可能教授良好的设计实践一样,他们也可以教授如何负责任地将 AI 纳入工作流程。也许分配"AI 伙伴"——有经验的人与新手配对一个冲刺。高级开发者可以帮助初级开发者避免盲目接受输出等陷阱。有趣的是,虽然我们之前警告初级开发者可能过度依赖 AI,但研究也表明,在正确指导下,初级开发者可以从中获得巨大提升。Microsoft/Princeton 的研究发现,经验较少的开发者从 AI 辅助中看到了最大的生产力提升(21-40% 的改进),而高级开发者看到的提升更为温和(新研究揭示 AI 编码助手将开发者生产力提高 26%:IT 领导者需要知道什么 - IT Revolution)。解释这一点:如果我们很好地培训我们的初级开发者,AI 可以显著加速他们的提升。指导是确保这些收益是真实的而不仅仅是表面的关键。

4. 创建 AI 倡导者和新角色: 识别对 AI 工具特别热情和精通的团队成员——他们可以成为你的"AI 倡导者"。这些人可以关注最新功能,尝试新工具,并分享知识。一些组织通过在工程中创建"AI 倡导者"等角色来正式化这一点——评估新 AI 开发工具并教育团队的人。随着 AI 变得更加核心,你甚至可能在团队中嵌入"ML Ops 工程师"或"提示工程师"等角色来专门从事这些任务。在这个方向上提供成长路径可以帮助保留对 AI 感兴趣的人;他们看到拥抱这项技术可以推进他们的职业生涯(而不是威胁它)。

5. 强调互补技能发展: 虽然技术 AI 技能很重要,但不要忽视当常规工作自动化时变得更加关键的软技能和更高阶的技术技能。问题框架、系统设计、验证需求和沟通是团队中要持续发展的领域。你希望你的工程师在 AI 无法做到的事情上表现出色:与利益相关者交谈以真正理解问题,提出创造性的解决方案,并做出判断。鼓励建立这些技能的活动:让工程师参与早期设计讨论,让他们跟随产品经理或用户研究人员,或让他们向非工程师展示他们的工作。这不仅使他们更全面(因此即使在 AI 融入的世界中也更有价值),而且还传达了他们不是只是代码猴子——他们是问题解决者和创新者的信息。这种目标感和成长感对于保留至关重要。感到自己正在成长并做有意义工作的工程师远不太可能受到 AI 自动化某些编码任务的威胁。

培养成长心态和 AI 作为善的工具

心态就是一切。如果你的团队对 AI 采取成长心态,他们会将其视为机会而不是危险。培养这种心态是一项文化努力:

  • 庆祝涉及 AI 的胜利: 当有人使用 AI 实现令人印象深刻的事情时——比如开发者在 AI 代码助手的帮助下以两倍的速度原型化了一个复杂的功能——在团队会议上强调这一点。表明创造性地使用 AI 是有价值的。这鼓励其他人尝试并分享。它将叙事转变为"看看我们用 AI 能做什么",而不是"看看 AI 可能对我们做什么"。

  • 正常化挣扎和学习曲线: 同时,诚实地说学习与 AI 合作有学习曲线。如果有人尝试了 AI 建议但失败或导致错误,公开讨论它(不要责备)。将其视为学习("现在我们知道那种方法不起作用,以及为什么")。这种开放性防止了围绕 AI 错误的责备文化,并使人们更愿意尝试。

  • 将 AI 采用与职业成长联系起来: 帮助每个团队成员从掌握 AI 工具到他们的个人职业目标之间建立联系。例如,后端工程师可能有兴趣更快地向员工工程师角色迈进——你可以指出掌握 AI 如何使他们摆脱一些繁重工作,并允许他们花更多时间在高影响力的架构工作上,加速他们的道路。或者喜欢前端的工程师可以使用 AI 更快地实现设计,并花更多时间完善用户体验细节,建立更强大的作品集。当人们看到 AI 作为帮助他们发光和前进时,他们会有动力去拥抱它。还值得注意的是,在行业中,拥有 AI 开发工具的经验本身正在成为一项受欢迎的技能——所以获得这种经验是简历增强的。

  • 提供领导层的保证: 公司高管和你作为一线领导者应该保证,没有计划因 AI 而减少工程人员,而不重新调整这些角色。如果高层管理层已经做出了这样的声明,放大它们。如果没有,也许你可以倡导这样的立场,或者至少传达你自己的观点,即 AI 带来的任何效率提升都将允许团队承担更多项目,而不是导致裁员。工程师通常是务实的;如果你始终如一地表明 AI 被用来做更多(而不是用更少的人做同样的事情),他们的信任就会增长。

如果你的团队对编码的 AI 持怀疑态度,这是完全自然的。许多人从这个角度开始,在直接体验后得出了更细致的意见。即使你不完全相信,了解当前工具/模型的可能性也是有用的。

现在让我们谈谈直接使用 AI 进行员工成长。技能退化担忧有一个有趣的反面:AI 实际上可以在某些方面帮助开发者提高他们的技能。GitHub 的研究表明**,57% 的开发者认为使用 AI 编码工具帮助他们提高了编码技能**(他们将技能发展列为首要好处,甚至高于生产力)(AI 不仅使编码更容易。它使编码更有趣 | IBM)。怎么会这样?开发者可以从 AI 建议中学习——例如,他们可能会看到他们不知道的新技术或函数用法。AI 还可以在被问到时解释代码或算法。这就像有一个 24/7 可用的导师。领导者可以通过鼓励工程师有时在"学习模式"下使用 AI 来利用这一点。如果有人在新领域或语言中工作,使用 AI 助手提问("我如何在 Rust 中做 X?")或获取示例可以加速他们的学习。一些团队甚至将 AI 纳入入职:新员工可以使用在公司文档上训练的 AI 聊天机器人提问,减少他们需要的时间来加快速度。

另一个想法是让人们轮换到他们定义如何应用 AI 的角色。例如,分配一名工程师研究生成式 AI 如何改进你的测试流程或开发运维管道。这个项目不仅在他们找到有用的东西时使团队受益,而且该工程师学到了很多关于 AI 和他们正在探索的领域的知识。这实际上是兼作专业发展的研发。

最后,不要忘记认可和保留基础。如果 AI 使你的团队显著提高生产力,并且你的组织受益(更快的发布、更少的错误等),倡导这种价值得到认可。也许这些效率提升可以转化为更好的工作与生活平衡(例如,如果产出保持高水平,可以试行 4 天工作周,或更灵活的时间)或奖金等。向你的团队展示,使用 AI 提高结果将以积极的方式回馈给他们——更好的质量交付物、更快乐的用户、也许是有形的奖励——而不仅仅是更高的期望而没有奖励。这确保他们不会觉得自己正在自动化自己进入倦怠("现在我们有了 AI,我们期望你做两倍的工作!"——一个要避免的陷阱)。相反,它应该感觉像:"我们在更短的时间内完成同样的工作——太好了,这为创新、学习或工作之外的生活留下了更多时间。"

总之,在 AI 时代保留人才归结为让你的工程师感到被赋权,而不是受到威胁。 通过坦诚地解决恐惧、投资于技能提升以及创造一种将 AI 视为合作伙伴的文化,你可以加强团队的忠诚度和热情。2025 年最具前瞻性的工程组织正在将 AI 作为招聘的卖点("你将在这里使用尖端的 AI 工具"),并作为他们人员的成长催化剂。如果你倡导团队的发展并使他们能够与 AI 一起茁壮成长,他们不仅会留下来——他们还会推动你的组织达到创新和生产力的新高度。

案例研究:将 AI 集成到工程中

为了将我们的讨论建立在现实世界的成果上,让我们研究几个领先的技术组织如何成功地将生成式 AI 集成到他们的工程实践中。这些来自 2024 年和 2025 年的案例研究说明了 AI 辅助开发前沿团队的好处、方法和吸取的教训。作为高管或技术领导者,你可以将这些案例与你自己的背景进行比较,并为你的策略收集想法。

1. GitHub & Microsoft - 软件团队中的大规模 AI

背景: GitHub(及其母公司 Microsoft)一直处于在软件工程中使用 AI 的前沿,不仅作为产品(Copilot),而且在内部用于他们自己的开发工作流程。在 2023 年底和 2024 年,Microsoft 为数千名自己的开发者启用了 Copilot 并研究了效果。

他们做了什么: 在多个工程团队(研究组中有超过 4,000 名开发者)中推出 GitHub Copilot,并在数月内跟踪生产力和质量指标(新研究揭示 AI 编码助手将开发者生产力提高 26%:IT 领导者需要知道什么 - IT Revolution)。他们还为开发者提供了关于如何充分利用 Copilot 的培训,并鼓励将其用于各种任务(代码、文档、测试)。

结果: 这项 2024 年发布的大规模研究发现,使用 AI 辅助的开发者完成的任务平均增加了 26%。使用 Copilot 的开发者还更快地编写代码(平均每周代码提交增加 13.5%),并更频繁地迭代(构建/编译增加了约 38%)(新研究揭示 AI 编码助手将开发者生产力提高 26%:IT 领导者需要知道什么 - IT Revolution)。重要的是,他们观察到代码质量没有下降——如果有的话,一些团队报告改进了代码审查结果,因为 AI 处理了更简单的代码,人类专注于改进。另一个有趣的发现是初级开发者受益最多:经验较少的开发者看到了高达 35-40% 的生产力提升,缩小了与高级开发者的差距。这使一些初级工程师能够承担比他们原本能够承担的更复杂的任务。高级开发者仍然受益(约 10-15% 的收益),主要是通过卸载样板代码并专注于关键代码。

挑战和解决方案: 采用不是即时的——只有约 70% 的开发者坚持一致地使用 AI 助手。一些人最初持怀疑态度或有需要改变的习惯。Microsoft 通过内部倡导来解决这个问题——分享成功故事,并将 Copilot 更深入地集成到内部工具中以使其无缝。另一个挑战是管理期望:一些经理认为生产力可能会翻倍,但事实并非如此——所以 Microsoft 使用数据来设定现实的目标(即,两位数的百分比改进已经是一个巨大的胜利)。他们还完善了编码指南以纳入 AI(例如,AI 建议的代码必须至少经过一次人工审查并通过所有测试才能合并的政策)。随着时间的推移,Copilot 成为工具链的自然组成部分,以至于一些团队说他们永远不想回去。Microsoft 的案例表明,通过高管支持、测量和文化变革,AI 可以在甚至非常大的工程组织中扩展,产生显著的效率提升。

2. Bancolombia - 提高金融机构的生产力

背景: Bancolombia 是拉丁美洲最大的银行之一。人们可能不会期望银行的 IT 部门成为 AI 编码工具的早期采用者,但在 2024 年,Bancolombia 大胆地采取行动,用生成式 AI 赋能其开发者。他们采用了 GitHub Copilot 来帮助维护和构建银行应用程序的大型开发者团队。

他们做了什么: 他们向开发团队提供了 Copilot(由于银行数据需要必要的合规性检查),并鼓励其使用,特别是用于编写重复代码(如数据库访问层、合规性报告等)。他们还将其集成到他们的 CI/CD 中,以协助某些自动化代码更改。

结果: 该银行报告了一些令人印象深刻的指标——代码生成输出增加了 30%现实世界的企业如何用 AI 进行转型——超过 140 个新故事 - The Official Microsoft Blog)。这意味着开发者为新功能和更改生成代码的速度比以前快了大约三分之一。这转化为切实的业务成果:Bancolombia 的团队将自动化应用程序更改的数量增加到每年 18,000 次(对于银行来说是大量的更新),每天约有 42 次生产部署。本质上,Copilot 帮助他们更快地迭代,同时保持他们对可靠性的严格标准(这在金融领域是必须的)。这不仅仅是关于速度;它还提高了开发者的幸福感,因为他们可以更多地专注于逻辑,而更少地专注于样板代码。一位首席工程师评论说,创建新服务端点或编写单元测试等任务曾经很乏味,现在有了 AI 处理繁重工作,变得更加顺畅。

挑战和解决方案: 作为一家银行,数据隐私是一个主要问题。他们小心翼翼地不向 AI 暴露任何客户数据或专有算法。他们配置 Copilot 在隔离环境中运行,并且仅在被认为不敏感的代码上运行(对于敏感代码,他们依赖内部工具)。他们还在采用之前进行了广泛的评估,以确保 Copilot 的建议是准确的,并且不会引入安全问题。有趣的是,他们发现 AI 有时建议的代码与他们的内部最佳实践不一致,所以他们创建了一个"Copilot 风格指南"——一组他们的开发者可以使用的注释和提示,以使 AI 偏向他们的模式(例如,他们的日志记录或错误处理标准)。这种变通方法有助于使 AI 输出与他们的期望保持一致。Bancolombia 的成功表明,即使在受到严格监管、注重安全的行业中,如果谨慎行事,也可以利用 AI 来提高生产力。关键是从不太关键的代码开始并证明价值,然后在建立信任后扩大使用。

3. LambdaTest - 加速开发周期

背景: LambdaTest 是一个基于云的软件测试平台(初创公司规模)。在 2024 年,为了加速在其平台中交付新功能,LambdaTest 将 AI 辅助集成到他们的开发工作流程中。

他们做了什么: 他们向所有工程师推出了 GitHub Copilot,并使其成为他们内部开发者赋能计划的一部分。他们特别鼓励在编写单元和集成测试(因为他们的产品是关于测试的,他们有很多测试代码要维护)以及生成连接到众多浏览器 API 的代码时使用它。

结果: 在几个月内,他们观察到某些版本的开发时间减少了 30%现实世界的企业如何用 AI 进行转型——超过 140 个新故事 - The Official Microsoft Blog)。这是通过查看从设计到部署功能所需的时间来衡量的——通常可能需要十天的任务现在平均在七天内完成。代码质量和测试覆盖率也有所提高;Copilot 经常建议开发者然后批准并包含的额外测试用例。最大的胜利之一是在入职新开发者方面:新员工可以在第一天就在 Copilot 的帮助下开始贡献有意义的代码,而以前设置开发环境和理解代码库需要一段时间。事实上,他们的内部指标显示,新工程师比以前提前约 1-2 周达到完全生产力,这对于快速发展的初创公司来说是巨大的。

挑战和解决方案: LambdaTest 的工程师最初面临 AI 建议有时对他们的上下文是错误的问题——例如,建议过时的方法或不适合他们架构的方法。为了解决这个问题,他们建立了一个轻量级的**"Copilot 反馈"循环**:他们在 Slack 中创建了一个频道,开发者会发布任何奇怪或不正确的建议以及他们如何找出正确解决方案的。这有助于训练每个人的直觉,知道在哪里要小心。他们甚至向 GitHub 报告了其中一些作为反馈以改进产品。另一个挑战是让每个人都参与进来;一些高级工程师持怀疑态度,认为这可能会降低代码质量。在大量使用 Copilot 的第一个项目成功交付后,这些怀疑者成为了倡导者——看到了更快的周转时间,并且在错误方面天没有塌下来。LambdaTest 的案例突出了中小型公司如何通过将 AI 集成到他们的敏捷流程中快速受益,以及它如何成为他们为客户交付速度的差异化因素。

4. Infosys - 使用 AI 的企业软件工程

背景: Infosys 是一家全球 IT 服务和咨询公司,有数千名开发者为客户从事项目工作。他们启动了一项使用生成式 AI(包括 Copilot 和他们自己的 AI 解决方案)来改进项目交付的计划。

他们做了什么: Infosys 建立了一个集中式 AI 平台,并向其许多工程师提供了 GitHub Copilot。他们还开发了使用 AI 执行任务的手册,如代码迁移(例如,帮助使用 AI 建议将代码从旧语言移动到新框架)和代码审查(AI 辅助的代码审查评论)。

结果: Infosys 报告说,对于一个试点项目,使用 Copilot 帮助他们显著加速了新功能的开发,甚至与传统方法相比提高了代码质量现实世界的企业如何用 AI 进行转型——超过 140 个新故事 - The Official Microsoft Blog)。具体来说,一个估计需要 4 周的功能在 3 周内交付,代码通过质量门(如静态分析和同行审查)时需要的更改更少。客户对交付不仅更快而且最终结果缺陷更少印象深刻。Infosys 将此归因于 AI 提供了第二双眼睛——Copilot 经常建议添加开发者在第一遍时可能不会编写的错误处理或输入验证,有效地使代码更健壮。在多个项目中,他们平均看到开发时间减少了 20%,代码一致性显著提高(因为 AI 会在模块之间生成类似的代码模式,看起来像一个人写的,即使多人协作)。

挑战和解决方案: 外包/背景下的一个挑战是知识捕获。通常,大量的领域知识存在于高级工程师的脑海中。Infosys 开始探索使用 AI 来捕获和转移这些知识。例如,他们使用生成式 AI 从代码创建文档,甚至基于过去的项目工件生成问答。这不是直接的编码任务,但它有助于让新团队成员快速了解项目。挑战是确保 AI 的输出是正确的并针对每个项目的上下文进行定制。他们通过让人类参与其中来解决这个问题——将 AI 输出视为草稿,然后由技术作家或负责人批准。另一个挑战是规模:有这么多工程师,并不是每个人最初都参与进来。Infosys 通过内部传播来解决这个问题——他们的"AI 委员会"强调成功故事(如上述故事),并为采用 AI 的团队提供激励(例如,项目交付中最佳使用 AI 的内部奖励)。这种内部竞争精神激励了更多团队尝试。现在,AI 正在成为 Infosys 工程方法论的标准部分,他们甚至向客户推销这一点,作为"AI 增强开发",使他们在速度和质量方面具有优势。

这些案例研究提供了一系列场景:从大型科技公司到银行到初创公司到 IT 服务,都在寻找在软件工程中利用生成式 AI 的方法。出现了几个共同的主题:

  • 在许多情况下生产力提升 20-30%,开发周期更快,有时质量更好。

  • 监督和迭代的重要性: 所有这些组织都投入了一些努力来监控 AI 输出、调整流程并学习如何最好地使用工具(这不是自动魔法)。

  • 人才和士气好处: 在几个案例中,使用 AI 使开发者更快乐(做更少的乏味工作),并帮助初级开发者更快地提升,这对人才发展很好。

  • 政策和安全考虑的需要: 特别是在 Bancolombia 和 Infosys 等案例中,为隐私和正确性设置正确的护栏对于启用 AI 使用至关重要。

作为工程领导者,你可以查看这些案例并评估你的团队可能在哪里看到类似的胜利。也许从有很多重复编码的项目的试点开始,或者使用 AI 清理次要错误的积压。确保像这些公司一样衡量结果,这样你就有数据来支持更广泛的推广。并准备好适应——每个团队的文化和产品都不同,但上述经验表明,通过正确的方法,AI 集成可以在软件交付中产生可观的回报

建立治理框架

鉴于上述伦理考虑,拥有一个治理框架来指导 AI 在你的工程组织中的使用至关重要。以下是如何建立一个的方法:

1. 制定 AI 使用政策: 创建一份书面政策,概述 AI 工具在你的团队中如何使用。这应该涵盖:

  • 批准的工具: 列出哪些 AI 工具/服务被批准使用(例如,"GitHub Copilot for Business 已批准;ChatGPT 免费版不适用于代码")。

  • 数据处理指南: 明确说明哪些数据可以或不可以通过 AI 工具运行(例如,"不要将生产数据库凭据或客户 PII 输入 AI 提示")。

  • 代码审查要求: 规定 AI 生成的代码必须经过与人类编写的代码相同(或更严格)的审查。

  • 归属和透明度: 如果适用,要求开发者注明 AI 何时被大量使用(例如,在提交消息中或在代码注释中)。

  • 合规性和法律: 参考任何相关的法律要求(GDPR、HIPAA 等)以及 AI 使用如何符合这些要求。

让这个政策易于访问(例如,在你的内部 wiki 或入职文档中),并定期更新它,因为 AI 格局在变化。

2. 建立 AI 治理委员会或角色: 根据你的组织规模,指定一个团队或个人来监督 AI 采用。这可能是一个跨职能委员会(包括工程、法律、安全、伦理方面的代表),或者只是一个技术负责人,他承担确保负责任的 AI 使用的额外责任。这个小组的角色包括:

  • 评估新的 AI 工具并批准它们的使用。
  • 监控 AI 使用的合规性(例如,通过审计或调查)。
  • 解决出现的任何伦理困境或事件(例如,如果发现 AI 生成的代码中存在偏见)。
  • 随着 AI 技术和法规的发展,更新政策。

拥有一个明确的治理结构可以防止 AI 使用变成"狂野西部",每个团队都在做自己的事情。

3. 培训和意识: 确保所有工程师(以及相关的利益相关者,如产品经理、QA)都接受过关于 AI 伦理和你的政策的培训。这可以是入职培训的一部分,也可以是年度进修。涵盖的主题包括如何识别 AI 输出中的潜在问题、数据隐私的重要性以及如果他们不确定某事该怎么办(例如,"如果你不确定是否可以将某些代码输入 AI,请询问你的技术负责人")。培养一种文化,在这种文化中,提出伦理问题是受欢迎的,而不是被视为放慢速度。

4. 实施技术保障措施: 在可能的情况下,使用技术来执行政策。例如:

  • 访问控制: 只允许访问经批准的 AI 工具(通过企业许可证或网络策略阻止未经批准的服务)。
  • 日志记录和审计: 如果你使用企业 AI 工具,启用日志记录以跟踪使用情况。定期审查这些日志以确保合规性。
  • 自动化检查: 在你的 CI/CD 管道中集成检查,扫描常见问题(例如,硬编码的秘密、许可证违规、已知的易受攻击的代码模式)。虽然这些不是 AI 特定的,但它们可以捕获 AI 可能引入的问题。
  • 沙盒环境: 为实验提供沙盒或开发环境,开发者可以在其中自由使用 AI,而不会有暴露敏感数据的风险。这鼓励创新,同时保持生产安全。

5. 定期审查和改进: AI 技术发展迅速,你对它的使用也应该如此。安排定期审查(例如,每季度)你的 AI 治理实践。询问:我们的政策是否仍然相关?我们是否遇到了任何问题?团队是否遵守指南?从这些审查中学习并进行调整。还要关注外部发展——新的法规(例如,欧盟的 AI 法案)或行业标准可能会影响你应该如何使用 AI。

6. 鼓励伦理文化: 最后,治理不仅仅是规则和检查清单——它是关于培养一种伦理文化。领导者应该以身作则,展示深思熟虑的 AI 使用。庆祝那些发现并修复 AI 相关问题的团队成员(例如,捕获有偏见的算法或阻止数据泄露)。让伦理成为对话的一部分:在设计审查或回顾中,包括"我们是否以符合伦理的方式使用 AI?"作为一个讨论点。随着时间的推移,这成为团队 DNA 的一部分。

总之,伦理和治理不是 AI 采用的障碍——它们是使其可持续和值得信赖的推动者。 通过主动解决隐私、偏见、问责制和合规性,你可以保护你的组织免受风险,并确保你的 AI 使用与你的价值观保持一致。这不仅在法律上是明智的,而且在声誉上也是明智的:以负责任地使用 AI 而闻名的公司将赢得客户、合作伙伴和顶尖人才的信任。作为工程领导者,你有机会塑造 AI 在你的团队中的使用方式——明智地使用这种影响力,你将为长期成功奠定基础。

工程领导力的未来

当我们展望未来时,很明显,生成式 AI 将继续重塑软件工程——以及领导它的意义。在本最后一节中,我们将探讨工程领导力的未来,讨论如何保持领先于 AI 进步,以及培养 AI 无法复制的人类品质的重要性。

保持领先于 AI 进步

AI 技术正在以惊人的速度发展。今天的前沿模型(如 GPT-4、Claude Sonnet、Gemini)将在几年内被更强大的系统所取代。作为领导者,你需要保持知情并适应。以下是如何做到的:

1. 持续学习: 致力于终身学习。关注 AI 研究和行业趋势。订阅相关的新闻通讯、博客或播客(例如,来自 OpenAI、Anthropic、Google AI 的更新,或像 The Pragmatic Engineer 这样的行业出版物)。参加会议或网络研讨会,讨论软件工程中的 AI。你不需要成为 AI 研究人员,但对正在发生的事情有一个大致的了解将帮助你做出明智的决定。例如,如果你听说一个新模型在代码生成方面表现出色,你可以评估它是否值得为你的团队试用。

2. 实验和试点: 不要等到 AI 工具"完美"才尝试它们。在你的团队中培养实验文化。为试点项目分配时间和资源,以测试新的 AI 工具或技术。例如,你可以让一个小团队在一个冲刺中试用新的 AI 助手,并报告他们的发现。这些试点可以快速失败或成功——无论哪种方式,你都会学到东西。随着时间的推移,这种实验心态将使你的组织能够快速采用有效的东西,并避免炒作。

3. 网络和协作: 与其他领导者和组织交流想法。加入行业团体、论坛或本地聚会,讨论软件工程中的 AI。你会发现其他人正在应对类似的挑战,你可以分享最佳实践。例如,也许另一家公司已经找到了一种很好的方法来将 AI 集成到他们的 CI/CD 中——你可以从他们的经验中学习,而不是从头开始。协作还可以扩展到学术界或研究机构;一些公司与大学合作研究 AI 在开发中的有效使用。

4. 投资于可扩展的基础设施和流程: 随着 AI 变得更加强大,它可能需要更多的计算资源或与你的系统的不同集成。确保你的基础设施可以扩展。例如,如果你开始在本地运行 AI 模型,你可能需要 GPU 或专门的硬件。或者,如果你使用基于云的 AI,请确保你的网络和安全设置可以处理增加的 API 调用。从流程的角度来看,设计你的工作流程以灵活——不要将它们与一个特定的工具紧密耦合,这样如果更好的 AI 出现,你就可以换掉它。

5. 关注基本面,而不仅仅是工具: 虽然跟上最新的 AI 工具很诱人,但不要忽视基本的工程原则。良好的架构、清晰的需求、彻底的测试——这些永远不会过时。事实上,随着 AI 处理更多的编码,这些基本面变得更加重要,因为它们是人类增加最大价值的地方。确保你的团队在这些领域保持强大,AI 将成为锦上添花,而不是拐杖。

培养 AI 无法复制的人类品质

随着 AI 承担越来越多的技术任务,人类独特的品质将定义卓越的工程领导力。以下是要培养的关键品质:

1. 创造力和创新: AI 擅长模式识别和生成基于现有数据的解决方案,但它(目前)在真正的创造力方面挣扎——提出全新的想法或以新颖的方式连接不相关的概念。作为领导者,培养你团队的创造力。鼓励头脑风暴会议、黑客马拉松或"20% 时间"项目,工程师可以在其中探索疯狂的想法。庆祝创新思维,即使它并不总是成功。创造力通常来自多样性和跨学科合作,所以促进这些。记住,下一个突破性功能或产品可能来自人类的创造性飞跃,而不是 AI 的增量改进。

2. 同理心和情商: 理解和与人联系的能力——无论是你的团队成员、利益相关者还是最终用户——是 AI 无法复制的。同理心驱动更好的产品(因为你理解用户需求)和更好的团队(因为你支持你的人)。作为领导者,练习积极倾听,对你的团队表现出真正的关心,并考虑决策的人类影响。情商还包括冲突解决、激励和建立信任——所有这些对于高效团队都至关重要,并且超出了 AI 的能力范围。投资于发展这些技能,无论是通过培训、指导还是反思。

3. 判断和决策: 许多工程决策涉及权衡和不确定性——例如,在速度和质量之间进行权衡,或在不完整信息的情况下选择技术堆栈。AI 可以提供数据和建议,但最终,人类的判断是必需的。培养你做出明智、平衡决策的能力。这来自经验、对背景的理解以及考虑多个角度的意愿。鼓励你的团队也发展这一点——例如,在设计审查中,不要只是选择 AI 建议的第一个解决方案;讨论替代方案和权衡。随着时间的推移,这种深思熟虑的决策成为竞争优势。

4. 愿景和战略思维: AI 可以优化现有流程或生成代码以满足规范,但它不能设定公司的方向或想象产品的未来。这是领导者的工作。培养你的战略思维——了解市场趋势、客户需求和技术可能性,并将它们综合成一个令人信服的愿景。与你的团队沟通这个愿景,并将日常工作与更大的目标联系起来。当工程师了解为什么他们正在构建某些东西时,他们会更有动力和效率。愿景还包括预见风险和机会——这需要直觉和远见,而不仅仅是数据分析。

5. 伦理和价值观领导力: 正如我们在上一节中讨论的,伦理考虑在 AI 时代至关重要。作为领导者,你为你的团队设定了道德基调。展示诚信、透明度和对做正确事情的承诺——即使这更难或更慢。当面临伦理困境时(例如,是否使用可能有偏见的 AI 工具,或如何处理数据隐私),根据原则而不仅仅是权宜之计做出决定。你的团队会注意到并效仿。这种伦理领导力建立了信任和声誉,这是任何 AI 都无法为你做的。

6. 沟通和讲故事: 清晰有效地沟通的能力——无论是在演示中、在文档中还是在一对一中——仍然是一项关键的人类技能。AI 可以起草消息或生成报告,但制作引起共鸣的叙述需要对受众和背景的理解。作为领导者,磨练你的沟通技巧。练习向非技术利益相关者解释复杂的技术概念。学习讲述故事,使数据和想法令人难忘。良好的沟通弥合了工程和业务之间的差距,并使团队保持一致——这是领导力的核心功能。

7. 适应性和韧性: 技术格局在不断变化,AI 只是加速了这一点。能够适应变化并从挫折中恢复的领导者将会茁壮成长。培养成长心态——将挑战视为学习机会。当事情不按计划进行时(它们会的),保持冷静并引导你的团队找到解决方案。韧性还意味着照顾好自己——管理压力、保持工作与生活的平衡——这样你就可以长期保持有效。你的团队会从你的榜样中汲取力量。

拥抱混合未来

工程领导力的未来不是人类 AI——而是人类 AI。最成功的领导者将是那些能够协调这两者的人,利用 AI 的速度和规模,同时利用人类的创造力、同理心和判断力。这种混合方法意味着:

  • 将正确的任务委派给 AI: 让 AI 处理重复、数据密集或明确定义的任务(生成样板代码、运行测试、总结日志),并让人类专注于需要洞察力、创新或细微判断的任务(架构设计、用户体验、战略规划)。

  • 促进人机协作: 创建工作流程,其中 AI 和人类无缝协作。例如,AI 起草代码,人类审查和改进它;或者 AI 分析数据并突出显示异常,人类调查并决定行动。这种协作循环结合了两者的优势。

  • 不断重新评估角色: 随着 AI 能力的增长,定期重新审视团队中的角色和责任。一些任务可能会变得自动化,释放人们去做新的事情。保持灵活,并愿意重新定义工作以充分利用人类和 AI。

  • 保持以人为本: 最终,技术为人类服务。确保你的 AI 采用改善了你的团队和用户的生活,而不是使其复杂化。如果一个 AI 工具导致挫折或降低质量,不要害怕放弃它。目标是增强人类能力,而不是取代人类判断。

最后的想法

我们正处于软件工程历史上的一个转折点。生成式 AI 为生产力、创新和解决以前难以解决的问题提供了前所未有的机会。但它也带来了挑战——从技能退化的风险到伦理困境。作为工程领导者,你在塑造这个未来中发挥着关键作用。

通过拥抱 AI 作为工具(而不是威胁),投资于你团队的技能提升,建立强大的治理,并培养 AI 无法复制的人类品质,你可以领导你的团队在这个新时代茁壮成长。记住,领导力的核心——愿景、同理心、判断力——保持不变。 改变的是你拥有的工具和你面临的挑战的复杂性。

展望未来,最好的工程领导者将是那些能够平衡创新与责任、速度与质量、AI 效率与人类智慧的人。他们将创建不仅交付出色软件而且培养人才、维护伦理并适应不断变化的格局的团队。

生成式 AI 时代才刚刚开始,但有了正确的方法,你可以领导你的团队不仅生存下来,而且在其中蓬勃发展。未来属于那些能够利用 AI 的力量同时保持使我们成为人类的品质的领导者。让我们一起建设那个未来。


感谢阅读。如果你觉得这个指南有用,请与你的网络分享,并继续对话——我们都在一起学习如何在 AI 时代领导。