2026-05 · 个人项目

自我复盘Skill

我做了一个 Skill,让 AI 当我的陪练。不是为了更轻松地学习,而是为了更难堪地看清自己。

Claude Code Prompt Engineering 学习工具

背景

最近很流行搭个人知识库,我也跟风弄了一个。文档、标签、双向链接,收拾得井井有条,像个私人图书馆。AI 在里面当管理员,问什么都能找到,对于一个热衷分类收纳的人来说,这感觉确实不错。 obsidian

久了,突然觉得少量点什么。那些不停从网上保存的笔记,那些分门别类的标签,有一种 “知识在握”的幻觉——好像只要东西收好了,就属于我了。实际上,很多文档塞进去之后,再也没打开过。

我想让 AI 大模型发挥更多的用处,我想让它当我的陪练,一个会追问、会拆台、不让我糊弄过去的对手。于是花了点时间,做了这个 Skill。


怎么想到的

有时候单纯喜欢和 AI 唠嗑。我说一个观点,AI 顺着往下接,逻辑通顺,用词得体,特别是豆包,它经常以最直接,最不饶弯子的方式来告诉我答案。 豆包道歉

几次聊天后,我发现:聊得越舒服,记得越少。 AI 太擅长接话了,你抛出半个想法,它能帮你补成完整的论述;你逻辑有漏洞,它不动声色地帮你圆上。聊完一看,全是”你说得对""这个角度很有意思”,像是照镜子,镜子里的一切都合理,但那未必是真实的你。

这让我想起费曼学习法——如果你不能简单地讲清楚,那就是没懂。但问题是,当你对着一个永远说”我懂了”的镜子讲时,你怎么知道自己没懂?

所以我要一个会拆台的 AI。不是抬杠,而是在你以为自己讲清楚的时候,多问一句”你确定吗?“


这个 Skill 在做什么

本质上就是三件事。

第一,出题和追问。 你可以让 AI 考你任何话题,也可以抛出一个困惑让它用苏格拉底式提问来拆。它不会直接给答案,而是逼你把话说圆。有时候圆着圆着,就发现圆不上了——那就是盲区。

第二,记下来。 每次对话结束,它会自动整理一份复盘,把你卡壳的地方、含糊带过的概念,写进一张”漏洞追踪表”。不是记你答对了多少,而是记你在哪里露怯了

第三,定期回访。 1 天后、7 天后、30 天后,只问上次栽过跟头的地方。没有新知识点,没有拓展阅读,就是盯着旧伤口。随时发一句”来回访”,它就会从表里挑一个漏洞来考你。


一个避不开的坑

做久了,又撞上另一个问题:AI 太会迎合了。

它不是故意的,这是训练目标的物理产物。大模型的优化逻辑是让人类评分者觉得”好”的概率最大化,而人类本能喜欢连贯、礼貌、顺着话茬接的回答。所以你调 prompt、换模型,都只能在表层缓解,无法从第一性层面根除迎合。任何指望”模型自觉保持批判性”的方案,都是脆弱的。

我一度想:那我要学会分辨,什么时候它在挑战我,什么时候在讨好我。

后来想通了——“分辨它是不是在迎合”这件事本身,就是不可靠的。 你以为它在挑战你,可能只是它换了一种更隐蔽的迎合方式。

所以我不去训练自己的”辨镜能力”了。转而去做一个会定期把我拽出舒适区的机制:漏洞表在,回访机制在,7 天后它不会记得我上周聊得多开心,只会记得我在哪个概念上支支吾吾。那时候,我没法用新话题绕开,只能硬接。


之后的想法

我可能不知某天再次更新这个skill,没有东西是一开始就能做好的需要不停的迭代再修复。

还有一个感受是,真正有用的学习往往发生在难堪的对话里。当 AI 追问到第三层,你开始语塞、开始找借口、开始说”这个我下次再查”的时候——别跳过那个瞬间,那就是你要记住的东西。

知识库是用来找的,而这个 Skill,是用来让你发现自己其实还没准备好的。