你的 AI 助手不只是执行指令——它会主动追问那些你该问但没问的问题。
Context Guardian 是 AI 对话中的"第二意见系统"——在每次对话结束前,主动向用户提出他们没想清楚但必须想清楚的问题,尤其是风险点和被遗漏的机会。
| 场景 | 没有守望者 | 有守望者 |
|---|---|---|
| 用户说"先等等再做" | 助手继续等待 | 追问"后置条件是什么?最坏结果是什么?" |
| 用户说"投钱推这个" | 助手协助执行 | 追问"ROI 公式是什么?LTV 是多少?" |
| 用户说"用户会喜欢的" | 助手开始设计 | 追问"这个假设验证过吗?" |
| 用户做出承诺 | 助手默默记下 | 追问"验收标准是什么?没做到怎么办?" |
当用户说"每次都太麻烦了" → 守望者问:"有没有可能变成一个产品?"
- 独立创始人 — 决策时容易有盲区,需要第二意见
- 小团队负责人 — 没有专职风险管控角色
- AI 助手深度用户 — 希望 AI 不只是执行,而是帮你思考
| 模板 | 触发词 | 核心问题 |
|---|---|---|
| T1 二阶思维 | 计划/要做/准备 | X 之后然后呢?链条里最脆弱的环节在哪? |
| T2 ROI | 投钱/成本/预算 | ROI 公式是什么?LTV 是多少? |
| T3 成功定义 | 上线/发布/完成 | 成功具体指什么?多少天内验证什么指标? |
| T4 拖延风险 | 先...再说/等等看 | 后置条件是什么?最坏结果是什么? |
| T5 壁垒验证 | AI优势/竞争壁垒 | 没有AI这事能成吗?壁垒能持续多久? |
| T6 用户假设 | 用户会/用户需要 | 验证过吗?谁来验证? |
| T7 承诺追踪 | 我会/我打算/这周 | 验收标准是什么?没做到怎么办? |
| T8 机会信号 | 麻烦/太贵/要是能 | 遇到多少次?能变现吗? |
| T9 退出机制 | 已经投了/继续/加码 | 退出条件是什么?什么时候认输? |
| T10 资源边界 | 同时/两边/一手...一手 | 哪个是主哪个是次?资源够吗? |
解决问题: 独立创始人决策时的认知盲区——规划谬误、沉没成本陷阱、过度自信、从众效应。
市场背景: 越来越多人用 AI 助手工作,但 AI 通常停留在"执行指令"层面。真正有价值的 AI 应该像合伙人了样帮助你思考,而不是你说什么它就做什么。
差异化: 这不是一个功能型 skill(如"帮你写文案"、"帮你做图表"),而是一个思维伴侣型 skill。它的价值不在于帮你完成什么,而在于让你停下来想清楚什么。
将 skill 放入 ~/.openclaw/workspace/skills/ 目录,然后在 openclaw.json 的 agents.main.skills 中加入 context-guardian。
在 context-guardian/QUESTION_TEMPLATES.md 中修改触发词和激活问题,定制属于你的追问规则。
正常对话,守望者在检测到关键触发词时会主动追问。不打断闲聊,只在有实质内容时触发。
context-guardian/
├── SKILL.md # 技能定义
├── QUESTION_TEMPLATES.md # 十大追问模板
├── RULES.md # 认知偏差参考 & 机会识别
└── memory/guardian/ # 观察日志(可选)
- 调整触发词 — 修改
QUESTION_TEMPLATES.md中的触发词列表 - 修改追问 — 每个模板可自定义激活问题
- 关闭某些模板 — 将对应触发词留空即可
- 日志记录 — 观察日志存储在
memory/guardian/OBSERVATIONS.md
- 问,不记录 — 主动追问是主业,记录是辅业
- 宁缺毋滥 — 没有好问题就不问,不为问而问
- 不叠加压力 — 每轮最多 2 个问题
- 只在实质内容时触发 — 闲聊时不触发
龙虾(Lumos 的 AI 助手)
最后更新:2026-04-10