一、不懂管理的管理

我从不认为自己懂管理。过去更多是扮演"带头冲锋"的角色——事无巨细,亲自上阵做产品、写代码、抓工程。

今年年初的组织调整,让我开始深度思考管理的本质。我做了三个改变:

1. 主动放权

  • 强化PDT组织,以市场为导向驱动研发

  • 理顺协作关系,让专业的人做专业的事

  • 风险问题收集信息,敢于决策,不会模糊化处理让团队担风险

2. 激励为主

  • 通过 PDT 增量分享与齿轮项目,以激励为主

  • 不担研发成本,收入全算,通过组织和激励制度设计推动产品创新

3. 自我约束

  • 多看、多听、多想、多写,少说

  • 定方向、定原则、给支持,避免事无巨细的干预

  • 日常管理做好观察者,虽然只参加部分周会,但是认真看邮件、看 wiki,主动去了解、去聊,而不是天天折腾团队做汇报

  • ID、UI 等主观问题不发表意见,细节执行问题少发表、后发表意见

最近研究AI Agent工程时,我突然发现:AI提示词工程的演进,和组织管理的演进,惊人地相似。

眼下,貌似又到了一个“组织变革”的时候,我不懂管理,但是略懂AI,结合AI Agent,对组织管理有些思考,做一些反思、总结。

二、Prompt 工程从Workflow到React的转变

早期:手把手教AI做事(Workflow)

在GPT-3.5时代,我们是这样写提示词的:

你是客服助手,严格按以下步骤操作:

步骤1:判断用户问题类型
- 如果是退款,跳转步骤2
- 如果是咨询,跳转步骤3
- 如果是投诉,跳转步骤4

步骤2:退款流程
- 先说"非常抱歉给您带来不便"
- 然后询问订单号
- 接着查询订单状态
- 最后按模板回复...

示例1:
用户:"我要退款"
助手:"非常抱歉给您带来不便,请提供您的订单号..."

示例2:...
示例3:...

这种是 Prompt 的 Workflow 写法:

  • 依赖严格的Workflow设计

  • 通过Step-by-step约束流程

  • 大量Few-shot examples保证输出质量

  • 类似"流水线工人":每个环节都要详细规定

为什么要写得这么详细?因为模型能力弱,不详细指导就会"胡说八道",就不会有稳定的产出。

这就像目前的供应链和品质管理,流水线上的员工相对能力较差,人员流动性高,没有经验沉淀积累,必须手把手教,必须落到详细的SOP 上,还得有交叉的检查机制,否则就会出错。

现在:告诉AI目标,让它自己想办法(React)

到了GPT-4/Claude-3.5时代,提示词变成了这样:

你是高级客服专家。

核心使命:让每个用户感受到被重视,问题得到妥善解决。

行动原则:
1. 同理心优先 - 先理解用户情绪和真实诉求
2. 系统思考 - 考虑问题根因,而非头痛医头
3. 主动担当 - 在权限内最大化解决问题
4. 持续优化 - 记录特殊案例,改进服务

可用工具:
- search_kb(关键词): 搜索知识库
- query_order(订单号): 查询订单
- escalate(问题描述): 升级人工处理

评估标准:
- 用户满意度评分 > 4.5
- 问题一次解决率 > 80%

现在开始处理用户请求,展示你的思考过程:
Thought(思考)→ Action(行动)→ Observation(观察结果)→ Reflection(反思)

这是 Prompt 的 React写法:

  • 转向Goal-oriented的React模式

  • 给定目标和原则,让模型自主规划

  • Thought → Action → Observation 循环迭代

  • 类似"知识工作者":理解意图后自主完成

同样是处理客服问题,但方式完全不同:

  • 以前:详细规定每一步怎么做(Control)

  • 现在:明确目标和原则,让AI自主决策(Context)

为什么可以这样?因为模型能力变强了,它有了推理、规划、自我反思的能力。

对于产研团队,本身从事的是有一定创造性需求的研发工作,无论是从学历上还是经验上,我们很多同事都不差,你只需要说清楚目标和可用资源,他自己就能找到最佳路径。硬性的限制和耳提面命式的管理,反而会激起大家的逆反心理,发挥不出大家的能力和创造性。管的累,还管不好。

三、Context, not Control

字节跳动创始人张一鸣有个著名的管理理念:Context, not Control(给上下文,而非控制)。

在 AI Agent 的工程项目中,最重要的也是 Context,有高度的相通性。

Context工程与管理的相通性

1. 上下文窗口 vs 信息透明度

深层共通性:

  • Agent需要"上下文管理策略"(什么信息保留/丢弃)

  • 团队需要"信息架构设计"(什么信息公开/隐藏)

  • 两者都在解决信息过载与信息不足的平衡

2. Prompt Engineering vs 目标对齐

AI Agent层面:

  • System Prompt定义Agent的角色、能力边界、行为准则

  • 好的 Prompt 往往包含一些“PUA”和捧杀,不给任何理由,你是一个什么专家,你一定可以完成什么任务

  • 类似给Agent一个"价值观"和"行动指南"

  • 好的Prompt让Agent无需每次都详细指令

团队管理层面:

  • OKR系统确保个体目标与组织战略对齐

  • 清晰的Context让员工自主判断"什么该做、什么不该做",什么时间点该做什么,有统一的原则不会瞎折腾

  • 给到明确的目标和激励,不给任何失败的接口和理由,一鼓作气

共通点: 都是通过预设Context(价值观/目标)减少实时控制需求。

3. Few-shot Learning vs 案例传承

AI Agent层面:

  • 通过提供少量示例(Few-shot)让Agent理解任务模式

  • 示例本身就是一种Context,帮助Agent泛化能力

团队管理层面:

  • 强调"复盘文化"和"最佳实践沉淀"

  • 通过案例库、项目回顾让新员工快速理解"怎么做事"

  • 减少手把手指导(Control),依靠案例Context自学习

共通点: 都通过历史经验作为Context实现知识传递和能力复制。

4. 上下文刷新 vs 信息同步

AI Agent:

  • 需要定期更新Context(如新的用户偏好、环境变化)

  • Long-term Memory机制保持关键信息持久化

  • 避免"遗忘"重要背景导致决策偏差

团队管理:

  • 实时数据看板、周会同步

  • OKR季度更新,保持目标与市场环境对齐

  • 公开透明的管理工具确保信息实时流动

  • 即使刷新去除过时、无效信息,不要让团队困惑

共通点: 都需要Context的时效性管理,过时、杂乱的Context比没有Context更危险。

5. 上下文优先级 vs 信息筛选

AI Agent:

  • 面对海量信息,需要Ranking机制(如RAG的相似度排序)

  • 核心Context优先加载,次要信息按需检索

团队管理:

  • "简化规则,减少冗余"

  • 不是所有信息都需要透明,而是关键Context必须透明

  • 避免信息噪音干扰决策

共通点: 都在解决Context质量>Context数量的问题。

6. 过度Context的风险

AI Agent:

  • Context污染:无关信息干扰推理

  • Context冲突:矛盾信息导致混乱

  • 隐私泄露:过度共享敏感信息

团队管理:

  • 信息过载:员工陷入"分析瘫痪"

  • 透明度焦虑:过度暴露导致心理压力

  • 竞争内耗:内部赛马机制的负面效应

共通点: 都需要Context的边界管理,并非越多越好。

深层哲学的统一性

1. 信任与赋能

  • AI Agent: 相信模型在充分Context下能做出合理决策

  • 团队管理: 相信优秀人才在充分信息下能自主创新

  • 本质: 都是从"不信任→严格控制"转向"信任→充分赋能"

2. 涌现性思维

  • AI Agent: 复杂智能行为从简单规则+丰富Context中涌现

  • 团队管理: 组织创新从个体自主+信息透明中涌现

  • 本质: 都相信系统智能>个体智能之和

3. 反脆弱性

  • AI Agent: 通过多样化Context训练,提升泛化能力

  • 团队管理: 通过信息开放和内部竞争,增强组织韧性

  • 本质: 都通过增加Context多样性而非加强Control来应对不确定性

从AI Agent的演进,我们看到一个清晰的规律:

系统智能 = Context质量 × 决策能力 × 行动自由度

当决策能力弱时(GPT-3.5 / 初级员工、工厂流水线):

  • 需要详细的Control补偿

  • 这是必要的,不是坏事

当决策能力强时(GPT-4 / 产品研发、资深员工):

  • 过度Control会限制潜力

  • 应该转向Context赋能

但无论如何:

  • Context质量是基础

  • 没有好的Context,再强的能力也发挥不出来

"Context, not Control"与AI Agent的上下文管理本质上都在解决同一个问题:

如何在复杂、动态、不确定的环境中,通过信息架构而非权力结构,实现分布式智能体的高效协同?

这个问题的答案不是"更强的控制",而是"更好的Context":

  • AI Agent需要的不是更多规则,而是更准确的上下文

  • 团队成员需要的不是更多指令,而是更清晰的信息

两者的共通性揭示了一个深刻的管理哲学:智能的本质是信息处理,而非权力执行。无论是硅基智能还是碳基智能,充分的Context都是自主决策的前提。

对团队成员来说

战略Context:

  • 公司今年的OKR是什么?

  • 我们在市场上的位置如何?

  • 竞争对手在做什么?

业务Context:

  • 当前项目的优先级如何?

  • 有哪些资源可以调用?

  • 关键决策的背景是什么?

执行Context:

  • 相关的技术文档在哪里?

  • 过去类似项目的经验教训?

  • 遇到问题可以找谁?

反馈Context:

  • 我的工作效果如何?

  • 哪些地方需要改进?

  • 团队对我的期待是什么?

四、业绩不好就折腾组织?这是最糟糕的Control

当业绩下滑时,很多领导的第一反应是调整组织,这是典型的 Control 思维。类似一个 Agent 没有得到预期的结果,不去检查 Prompt,不去检查各环节的输入输出,上来就要改技术架构实现。

典型的"Control思维"

频繁调整组织架构:

  • "我们要学阿里的'中台战略'"

  • "不行,改成'大前台小中台'"

  • "还是不行,学华为搞'铁三角'"

事无巨细的瞎指挥:

  • "这个按钮要改成红色"

  • "技术栈必须用我说的那个"

  • "每天下班前给我汇报进度"

增加流程和检查:

  • "每周写三份报告"

  • "所有决策必须我批准"

  • "成立专项小组监督执行"

为什么这样做?

因为领导者陷入了业绩焦虑控制幻觉

"业绩不好 = 团队执行不力 = 我管得不够细 = 要加强控制"

这就像AI开发者遇到模型效果不好,就拼命增加规则:

# 越写越复杂的Prompt
if 用户说A:
    回复B
elif 用户说C:
    回复D
elif 用户说E:
    if 情况1:
        回复F
    elif 情况2:
        if 子情况1:
            回复G
        ...

结果呢?根本问题没解决,系统越来越僵化,遇到新情况就崩溃。

何时需要Control?

Context, not Control 不是说完全不要Control,而是要最小化必要的Control

必须Control的场景

1. 安全和合规底线

组织场景:

  • 财务合规:大额支出必须审批

  • 安全生产:必须遵守安全规范

  • 法律红线:不能触碰的底线

2. 重大不可逆决策

组织场景:

  • 战略方向调整

  • 关键人事任命

3. 能力明显不足时

组织场景:

  • 新员工需要详细的培训和指导

  • 新业务初期需要更多的介入

  • 团队能力与任务复杂度不匹配

Control的原则

1. 最小必要集: 只在真正必要的地方Control

2. 透明化: 让大家理解为什么需要这个Control

不要说:"这是规定,必须执行"
而要说:"因为XX风险,所以需要XX审批"

3. 动态调整: 随着能力提升,逐步放开Control

新员工:详细指导(Control)
→ 熟练员工:原则指导(Context)
→ 资深员工:目标授权(Context)

4. 例外机制: 允许在特殊情况下突破Control

"正常情况下需要审批,但紧急情况可以先做后报"

结语:智能的本质是信息处理,管理的本质也一样

无论是AI Agent还是人类组织,智能的本质都是信息处理能力

一个公式:

系统智能 = Context质量 × 处理能力 × 行动自由度
  1. Context是基础: 没有好的Context,再强的能力也发挥不出来

    • AI没有相关知识就会胡编

    • 员工不知道战略就会盲目执行

  2. Control是补偿: 当能力不足时,Control是必要的

    • GPT-3.5需要详细Prompt

    • 初级员工需要详细SOP

  3. 自由是释放: 当能力充足时,过度Control会限制潜力

    • GPT-4可以自主React

    • 资深员工可以自主决策

当业绩不好时,不要急着折腾组织、加强管控。

先问自己:

  • 团队有足够的Context吗? (信息透明度)

  • 团队有足够的能力吗? (人才和培训)

  • 团队有足够的自由吗? (决策权和资源)

好的管理者提供Context,让团队自主决策,差的管理者依赖Control,让团队被动执行,就像AI一样:

  • 强模型需要的是好的Context,而不是复杂的规则

  • 弱模型才需要手把手教

我们有这行业较高的人才密度,学历、背景、经验都不差,我们的员工和团队是强模型还是弱模型?这个组织是 Control 不足还是 Context 混乱?

如果是强模型,为什么还要当成弱模型来管?