1
几天前,我以“翅膀”和“笼子”为比喻,写了一篇短文,对法言法语可能约束甚至塑造法律人思维表达了某种警惕(桑本谦:法言法语是法律人思考的翅膀还是笼子?)。
但这几天,我突然意识到,我可能搞错了问题的焦点。笼子固然是个问题,但在AI时代,更危险的不是笼子,而是蜜罐。笼子限制你的活动范围,但你知道边界在哪里。蜜罐非但没有限制,反而用甜味安抚你;在某个临界时刻,笼子也许能唤醒你的认知进取心,但蜜罐不会。
我先描述一个任何人都可以重复的AI实验。
假设你在研究一个法律问题,比如:合同法为什么允许买卖不破租赁?你打开任何一个大型语言模型,输入这个问题。几秒钟后,你会得到一个结构完整的答案:
买卖不破租赁规则规定,租赁物在租赁期间发生所有权变动的,不影响租赁合同的效力。该规则通过维护租赁关系的稳定性,保护了承租人的利益,使其不会因房屋易主而被迫搬离。同时,该规则也对买受人的权利进行了限制,要求其在购买时应当注意到租赁关系的存在。这种制度设计体现了对承租人居住权的特殊保护和交易安全之间的价值平衡......
这个答案在法言法语的标准下无懈可击,一个法科生看到这个回答会觉得“我懂了”。
但这里有个隐蔽的陷阱。如果你问AI同样的问题,但要求它用跨学科语言回答,AI就会输出如下内容:
这个规则本质上是在比较不同主体应对不确定性的成本:承租人已经投入了搬迁成本,买受人核查租赁关系的成本相对较低,出租人的监管成本最低。要求买受人承担核查义务,比让承租人反复搬迁的社会总成本更低。更关键的是,这个规则通过市场机制重新分配了负担:房屋市场价格会相应降低,这意味着承租人获得的保护最终由出租人通过价格折扣来“支付”。从动态角度看,出租人预期到未来出售的价格损失,会在签订租约时更谨慎——可能缩短租期或提高租金。所以这个规则不是简单地让承租人获益、买受人吃亏,而是通过价格机制在三方之间重新分配风险和收益。
上述回答在事实层面和前一个答案说的是同一件事,但它打开了完全不同的分析维度——成本比较、信息结构、市场定价机制以及动态博弈。更重要的是,它揭示了一个被法言法语版本完全忽略的机制。
问题来了,如果你在第一个答案那里就停止追问,你错过了什么?
2
我把这种现象称为“认知蜜罐”——一种AI时代的结构性认知风险。它有几个关键特征:
第一,它提供即时的认知满足感。
你向AI提问,当它给你一个流畅、连贯、结构完整的答案时,你的认知系统会产生奖励信号,获得那种“原来如此”的感觉。这种感觉很舒服,类似于解开了一道谜题。
然而,这种满足感和认知深度没有必然关系。AI生成的答案可能只是在你已有概念框架内部重新排列组合,并没有引入新的分析维度或挑战你的前提假设。但因为它“说得通”,你就以为自己“想明白了”。
第二,它降低了认知摩擦。
真正地理解通常伴随着困惑、挫折和反复。你读到一个理论,觉得不太对劲儿,但又说不清哪里不对时,你就要尝试不同的角度,以减少每个角度都会出现的盲点。你在这个过程中挣扎,慢慢地,问题的结构变得清晰。
AI跳过了这个过程。它直接给你一个“说得通”的解释,消除困惑的同时叫停了你的深入思考。认知摩擦和认知深入的动力先后消失。
第三,它是结构性的。
这不是说AI偶尔会给出让你过早满足的答案,而是说,AI的训练目标就是最大化用户满意度。它生成让你感到“问题得到解答”的文本,只要你不主动提升认知分辨率、不主动切换分析框架,AI就会把你锁定在满意度很高但认知分辨率不高的水平上。
这就是“蜜罐”,不是偶尔的诱惑,而是一个被设计出来的、让你感到舒适因而不愿离开的环境。它像是个家园。
3
法言法语本身不是蜜罐,但它有一些特征,使它在AI时代特别容易变成蜜罐。
第一,法言法语是高度抽象和自洽的符号系统。
权利、义务、法律关系、构成要件等等,这些概念可以互相定义、互相支撑,构成一个逻辑自洽的封闭系统。在这个系统内部,几乎所有问题都能找到一个“说得通”的答案。
AI擅长操作这种符号系统,因为它本质上就是一个语言模型。它学会了哪些词跟哪些词经常一起出现,哪些句式在法律文本中是标准的,哪些论证结构是稳妥的。所以,当你用法言法语向AI提问时,AI会给你一个在系统内部完美自洽的答案,没有术语错误,没有结构缺陷,逻辑裂痕也被巧妙遮蔽,但它可能只是在抽象层面上兜圈子。
第二,法言法语掩盖了实践的复杂性。
举个例子。刑法规定罪刑法定原则,法无明文规定不为罪,法无明文规定不处罚。用法言法语理解这个原则很简单:这是对国家刑罚权的限制,目的是保障公民的人身自由,防止司法专横。
但其背后无数复杂的实践难题在法言法语的抽象层面上却是不可见的:什么叫“明文规定”?刑法条文的模糊性如何处理?类推解释的边界在哪里?当社会出现新型危害行为而刑法尚未修订时,司法机关如何应对?当你问AI“罪刑法定原则的功能是什么”时,AI会给你一个教科书式的回答,而过滤掉所有这些实践中的摩擦、困境和权衡。你获得了一个令人满意的概念性解释,但制度的实际运作仍是盲区。
第三,法言法语鼓励修辞性思维。
法律职业有一种特殊的修辞传统。我们喜欢用对仗、比喻、概念套叠来表达观点—— “法律是社会的最后一道防线”“程序正义是看得见的正义”“权利是利益的法律形式”等等,这些表述优美、有力、容易记忆,但它们在认知上是危险的,因为它们用修辞的完满感替代了分析的精确性。
AI特别擅长生成这种修辞。因为修辞的本质是语言的模式化组合,而模式识别恰恰是大型语言模型的核心能力。所以,当你让AI讨论一个抽象的法律问题时,它会给你一段充满排比句、递进论证、概念对偶的文字,读起来很有“理论感”,但如果你逐句追问“这句话的经验含义是什么”,你会发现很多句子是空的。
但因为修辞给了你“深刻感”,你不会追问。这就是蜜罐。
AI还善于使用一些听起来很深刻的说法,诸如“工具理性”“向内深耕”“反身性”之类。但如果你不主动追问,它不会向你回答:什么叫“向内深耕”?如何判断是否抵达了边界?什么叫“反身性”?有没有可操作的训练方法?如何检验这种能力?
AI也不会主动提醒你,这些词汇本身就是其他学科的“语言”,而非正宗的“法言法语”;更不会进一步提醒你,你对外来语言的排异反应是选择性的,你并不抗拒你熟悉或自以为熟悉的领域的词汇。比如,你不排斥哲学词汇,因为你觉得自己对它懂一点。
用抽象概念堆叠出来的“深刻感”在经验层面几乎是空的,没有可检验的主张,没有可操作的方案;它只是在概念上排列组合,制造出那种“问题被深化了”的错觉。
AI特别擅长生成这种表面深刻但实际空洞的文字,因为AI的训练目标是预测下一个词,它懂得在什么时候插入这些词汇可以让文本看起来更学术、更深刻。
这是AI时代“认知蜜罐”的升级版——不仅给你一个满意的答案,还给你一个看起来很深刻、让你产生智力优越感的答案。
4
说到这里,我必须澄清,我不是在说我们应该拒绝使用AI。恰恰相反,我们应该拥抱它,我自己就是深度的AI用户。我还可以坦率地承认,这篇短文就是AI起草的——敏感的AI用户一眼就能看出,这些通俗易懂的语句隐藏了多少跨学科工具。
AI是一个强大的工具。问题不在于是否使用它,而在于如何使用它,以及能否意识到它可能带来的认知风险。
认知蜜罐不是AI的必然后果,而是无意识使用AI的后果。如果你知道风险在哪里,你就可以避免它,甚至利用它;但关键是要明白,AI可以放大你现有的认知轨迹,但不会改变轨迹的方向。
如果你本来就习惯于追问、反思或切换视角,AI可以帮你走得更快。你可以用它来快速排除低质量的假设,测试不同框架下的推论,获取你不熟悉的领域的背景信息。
但如果你本来就倾向于追求认知舒适,避免思维摩擦,武断排异,AI会把你稳定在这个状态上。它会源源不断地给你输出“合理答案”,给你制造强烈的“学习感”。
所以,问题不是AI本身,而是使用者是否具备足够的元认知能力——即对自己认知过程的觉察和控制能力。
我们的大脑是高度模块化的。元认知能力取决于能否激活大脑的“监督层”,而非“工作层”——后者是大脑默认被激活的模块。
激活大脑的“监督层”需要放松甚至放空大脑。如果大脑一直忙碌,一直紧绷,就腾不出这个在AI时代至关重要、堪称核心竞争力的认知空位。