我一直觉着,想要用好 AI 的核心秘诀,并不是使用某一个黑魔法一样的 prompt 来指点它,也不是什么思维链、什么操作手法。这些具体的技巧也许一时可以提升你使用 AI 的效率,但长期来看,它们更多只是处于一个”术”的层面,并不能从原则上指引我们与 AI 的协作模式。

想要最高效地使用 AI,核心在于把思维方式和协作观念彻底改变。

首先要明确的是,AI 现在的智能已经跟人类并无二致,甚至可以说比绝大多数人都要聪明。在这种背景下,我们应该把它视为一个可靠的工作伙伴,而不只是把它当成一个工具。所谓工具,就是你告诉它做什么,它就去做什么,只是成为一个执行者的角色,而丧失了完全的自主性。

但如果模型的智力跟我们已经一样,甚至比我们更聪明,那我们有什么理由一定要让它按照我们的思考方式来做呢?

我觉着,其实跟聪明人共事最核心的原则不是去微操,而是对齐基础的思路,然后放手让他去做。说不定他们的想法比我们更有价值。过多的微操反而抑制了这些聪明人的创造力。而对 AI 来说也是一样的。

所以我个人使用 AI 一共有三个比较核心的原则,它们之间其实是一个相对递进的关系:首先是给予 AI 足够的信任,不要太多的微操它们;其次则是同步足够的上下文,确保 AI 能够拿到完成任务所必须的全部背景信息;最终则是告诉它一个明确的起止条件,告诉它什么时候任务视为完成,确保它的任务规划足够有条理,不至于像无头苍蝇一样乱撞、不知道什么时候结束。

我相信这些原则是足够普适性的,并非一次模型的迭代升级就能取代的核心思想。这种与 AI 协作的核心思路,而不是具体方法,哪怕是模型快速迭代的当下,它可能也在几年后依然适用。


原则一:信任,不要微操

首先说第一个原则,也是最核心的那个原则:信任 AI,不要微操。

什么叫做微操呢?就是在 prompt 中清楚详细地写好每一步执行步骤,命令它按着所有的标准格式流程来完成执行。

这其实是编程的思路,而不是命令 AI 的思路。程序没有自己的自主性,所以它需要你事无巨细地把所有东西都说明白。但是如果我们期待 AI 完成一个相对开放性的任务,那过多地给这些约束,既限制了它的发挥,同时也对我们的工作提出了更高的成本要求。这其实是一个双输的局面,我们完全没必要采用这种模式。

这其实听起来甚至都有一些讽刺——我们在用一种极其低效、自己手动操作的模式,去指挥那些效率比我们可能高出 10 倍的模型。

如果要打个比方的话,它就像是教聪明学生与普通学生之间的差异。对于那些普通的学生,我们要教会他解一道题,就应该先给他讲公式、再给他讲怎么套用、最后看答案、分析逻辑、再让他试图自己理解,期待他下次遇到相同题型时能够识别出来,并且套用我们给他的公式得到解答。

但是对于那些聪明人而言,则完全没必要如此复杂。我们只需要给他说出来一些核心的原则、解决的大体思路,那具体的公式或者说一些解题步骤,都是可以由他自己推导而出的。其实没有必要手把手教学,这样既阻拦了他自己的思考过程,也花费我们很多的精力。

所以说我们面对这种聪明人的时候,应该学会去放权,而不要被我们一些前提的预设约束住了。

因为模型本身是会被 post-training 去做一些额外的对齐,那这些对齐的过程中,就会下意识让模型遵循人类的意见。如果模型本身的智能跟你相差无几,说不定它本身会有一些更好的思路方案。我们强调了过多的细节,反而阻碍了这些思路的出现,导致最终生成方案的质量反而不如它自己自由发挥的强。

同时,模型的能力是一直在不断进化的。如果我们不学会做这种放权,那么它后续智能增强了以后,我们也很难感受出一些具体的差异。因为相当于你已经把它的智能上限约束到了一个固定的水平面,以后模型智能再强,它遵循你的指挥也最终永远只能达到你能给予它的智能上限,而不能发挥模型最大的价值。这无疑也是一种浪费。

你给它太多的指令,反而让它进入了所谓的服从模式,让它变成了一个只知道执行的打字机。

那为什么大家又都还很喜欢微操呢?这里的问题在于,人类大多数都是有自己一些掌控感需求的。你要直接去问大家观点,那可能大家都会回答你”我们的目标是解决问题”。但其实大家都会有一些所谓掌控感的诉求。你想要更多地操控 AI、让它按照你的思路走,这样的话我们的情绪更能接受。但实际上,这未必有益于任务的解决。

所以想要更好地放权 AI,重点需要注意的核心也是我们需要尽可能控制自己这种掌控欲的存在,允许模型去做一些超出我们认知或者说超出我们计划的事情。我们关注任务最终解决即可。

这其实是一个信任的正向飞轮:你越信任模型,模型能给你提供的东西就会越多,然后你又能更加信任模型、把更多的事情放权给它,然后它也能做出更多的事情,从而不断推进我们双方能做事情的边界。

在这个场景下,模型才会真正变成一个人类的 partner,成为工作上的助力,而不单纯只是一个实习生或者说执行者这样的角色,为我们的生产工作发挥更大的价值。

容错心态

但同时要注意的是,我们还需要给 AI 足够的容错。不只是单纯的信任,也要在它犯错的时候给予它一些谅解。

想象你的一个同事刚刚入职,你们还在磨合期。如果他偶尔犯了一些小的问题,那其实也是完全可以谅解的——因为你们俩相处的模式还没有完全对齐,可能他的思路跟你完全不一致,那在这种沟通中产生一些摩擦、进而导致问题,也是理所应当的。

模型本身就很聪明,但是主动性却远远不如人类。我们在与模型合作工作的过程中,其实要明确的一个关键理念是:信任,而且责任归咎于我的一种心态。

也就是说,如果模型犯错,其实责任永远在我——没有说明白这个需求、没有给它讲清楚,而并非是模型自己笨、自己傻,把责任抛给模型。

其实就有点像是我们以前编程的时候——当程序报错了,我们绝对不会骂编程语言或者说编译器傻逼,我们肯定是说”啊,我自己没有想好问题”。我们要从自己身上分析问题并且改进。那对于模型来说,其实也是完全相同的。

当它犯错了以后,我们其实无法改变模型的所思所为。我们能做的只是改变我们自己输入的那些要求、命令以及讨论的内容,确保这些内容本身更加精确,从而引导模型下一次不要犯错、能理解我们的概念。

在改正为这种心态以后,你也会发现,你跟模型的相处过程会更加融洽。因为我们每一次跟模型的沟通,如果成功了则皆大欢喜,如果失败了我们也能反思出一些问题,从而避免下一次继续出现。它是一个持续正向的良性循环。

但如果缺失了这种对错误的容忍,模型一旦犯错就觉着把它贬得一无是处,也就失去了这种迭代交流模式的空间,从而会进入一个恶性循环——模型的表现越差,你越不想用,越不想给它投入精力,然后反而导致模型越来越差,进而彻底放弃使用 AI 的意愿。

所以信任不只是说单纯的放权给它,同时也是容忍它的错误。如果它犯错了,我们一同改进就好了。过多的责备只会让事情更糟,而无助于事情的好转。


原则二:给足上下文,同步认知

紧接着的一个原则就是:给模型必要的上下文。

在我们建立了信任的基本理念之后,暴露出来一个问题在于:它的方案本身是我们无法完全掌控的。那如何确保它能设计出一个让我们满意的方案、解决最终我们需要解决的问题呢?

核心原则就在于我们本身的观念思路需要达成对齐,确保模型本身能拿到所有的、完成任务必须的上下文。

举个例子,比如说我们在刚刚入职一家公司之后,如果没有一个 mentor 去帮你解释一些必要的公司内部业务逻辑以及项目开发的具体架构的话,直接给你安排任务,你只会两眼一抹黑、完全不知道如何处理。那这时候哪怕你再聪明,其实产出的质量也非常有限。

对于模型来说也是非常一致的——它也没有办法去解决那些自己两眼一摸黑的、完全不熟悉背景的工作。我们要做的就是尽可能把这些必要的背景信息都想明白,然后告诉它。确保它既聪明,同时又结合这些上下文,变成一个可能类似于公司内部比较资深的员工,有着足够的项目经验。这样才能确保发挥它的全部价值。

同时我们还需要对齐一些基本的思路原则观念,让它明白哪些事情是真正重要的、哪些事情本身的优先级并不是很高、可以缓一缓。这样的话,给它更大的自主性以及思路的对齐,也能确保它给我们一些有建设性的反驳意见,不至于只是做一个执行者的角色,让我们的方向演进越来越跑偏,起到一个纠偏的作用。

同时,如果大家的理念是对齐的,那其实具体的执行策略也是会逐渐趋同的。如果我们的目标都是增长项目的日活,那我们想出的方案可能也都大体雷同。这样的话既避免了我们的微操,同时它给出的方案又是跟我们原来设想的比较类似,也降低了我们去分析它观点的额外成本,确保它的最终执行策略是能符合我们预期的,不至于提出一些太过离经叛道、导致我们完全无法接受的方案。

核心要注意的是,信任不等于懒,而在于我要把足够的上下文给它说明,然后期待着它自主地解决剩下所有的问题。但核心还是 garbage in, garbage out——如果我们没把上下文说明白,那自然也很难期待它有一些建设性的方案提议。


原则三:明确起止条件

而第三个原则则是明确起止条件,确保模型知道当下的状态以及该在哪个节点结束、与人类继续沟通。

这个事情听起来简单,但其实却非常关键。

想要让模型把事情做得更好,其实跟我们让一个同事工作更舒畅没有本质的区别。如果我们没有明确起止条件就把一个任务交付给其他人,他可能就会丧失目标,不知道现在到底要怎么安排,后续的优先级以及进度的协调都不好去做。

那如果让模型做一件可能没头没尾的事情,它可能就会持续地一直做下去,中间跑偏了多久也不知道。所以我们要给它明确一个”你做到什么时候就可以结束”的节点,让它也方便分析当前现状以及目标之间的区别,也进而方便它自己做一个任务的拆解,从而保证每一步执行的流程更有目的性,进而确保模型本身执行的流程与其规划不至于出现跑偏的情况,也确保了执行的准确率。

注意的是,这里我们说明确终止条件与不要微操本身并不矛盾。它本质上是一种观念的转变——我们从关注过程变成了关注结果。它怎么执行不重要,但是它一定要给我们一个我们可以接受的结果。只要这个结果通过了,那其实它怎么执行本身并无所谓。

这种终止条件的设立,还能降低我们自己的审核成本。如果每一个细节都事无巨细地关注的话,那可能这个工作的开销跟我们自己做就没有本质的区别了。但如果我们只关注于最终交付的结果,那其实只需要做必要的 review 流程就可以,并不需要我们花费太多的精力关注细节。

这样的话,才能真正发挥 AI 的自主性以及降低我们的工作开销成本,进入到一个持续正反馈的循环之中。也只有这样才能降低人类的上下文窗口开销,进而同时驱使更多 AI 模型为我们所用。


总结

所以最终做一个总结。今天这篇文章并没有想告诉大家具体的一些工作流——你应该第一步跟模型做什么、第二步做什么。因为这种工作流会随着模型能力的变化而迅速被淘汰。

但一些合作的基本原则,应该是在长期都能生效的。只要我们做到建立一个与模型合作的基础核心观念原则,才能确保我们能在每一次模型能力发生变更升级之后,动态地快速调整为适应最新模型能力的方案,进而提升我们的生产工作效率,不至于出现工作流落后于模型、反而约束了它智能的现象。

总而言之,你不需要学习 100 种 prompt 技巧。你要做的其实只是学会如何跟聪明人共事。