律师应用AI工具的四重门槛:放下工具焦虑,升级大模型思维
发布时间:2026-01-04
过去一年,法律行业对AI的态度,迅速从“要不要用”,变成了“会不会落伍”。不少律师产生了明显的工具焦虑: Deepseek、ChatGPT、Gemini、NotebookLM轮番炸场朋友圈,仿佛AI届一夜就变了天。更有律所斥资不菲购买算力部署大模型,在对外宣传中成为“法律科技亮点”,但在内部使用中却逐渐沦为登录率不高、调用率更低的“摆设工程”。
问题往往不在于工具不够先进、趁手,而在于员工是否准备好。如果员工仍然用搜索引擎的传统思维与大模型交互,再先进的AI工具也难以转化为真实生产力。律师应用大模型,真正需要跨越的,并非技术鸿沟,而是以下四重思维门槛。
第一重门槛:缺乏大模型思维——从“提问”到“提需求”
不少律师仍然把大模型当作“会聊天的搜索引擎”, 仍停留在“向AI提问”的阶段,而非“向AI下达工作需求”。前者更像是在问助理“这个问题你怎么看”,后者则是明确告知“你需要交付什么成果”。
例如:
“身份证号是不是敏感个人信息?”
这样的提问,缺乏角色设定、分析边界和交付目标,模型只能给出泛泛的法条复述。
而具备大模型思维的表达方式是:
“请以律师视角,基于《个人信息保护法》及近两年执法与判例,对零售行业在员工管理中收集的员工身份号码信息是否属于敏感个人信息,以及处理活动的合规风险及缓释措施进行分析,并以‘结论摘要+法规分析+司法/行政案例+行业实践+改进建议’的结构输出,法规中不要遗漏国标《数据安全技术 敏感个人信息处理安全要求》。”
这一区别,类似于对助理律师说“研究一下这个问题”,和说“明早给我一份两页的风险备忘录”。 大模型并不擅长“猜需求”,但极其擅长“执行需求”。
从“提问”到“提需求”,本质上是律师将隐性工作目标显性化的过程。
第二重门槛:缺乏结构化思维——好需求才有好答案
即便意识到要“提需求”,不少律师的需求仍是口语化、碎片化的。这会直接影响大模型的输出质量。
例如:
“公司要上线一个AI Agent项目,请帮我整理一份合规清单。”
但要整理一份合规清单至少涉及:项目背景、应用场景、部署方式、责任主体、风险等级和应对路径。如果这些不被拆解出来,大模型只能“自由发挥”。有点绝对化但形象的说法,prompt 少于 50 字都是对大模型“耍牛氓”。
更有效的方式是先结构化输入:
项目背景与应用场景;
部署方式(供应商、网络架构、数据流向甚至用户UI等);
分析维度(算法安全、知识产权、数据合规、用户权益及监管合规等);
期望输出形式(表格或清单)。
结构化的输入,类似于你给法官提交的要素式代理意见,而非一段意识流陈述。大模型不是不聪明,而是“只能按你给的目录写书”。
你回想一下,你身边那些非常优秀的法务,都有一个非常“省token”的能力:向律师的咨询问题,非常清晰的结构化。其实,提出一个结构清晰的需求(当然这也仰仗于他丰富的经验,因此,从这个角度说,AI时代“强者恒强”), 他其实已经有了最终的答案。他需要的,只是你的背书,或者节约他的基础研究时间。这也意味着,那些主张 prompt 不可版权性的人,根本不懂真正的 prompt 价值。
(注:上段为prompt提供者手工码字。)
第三重门槛:缺乏交互反馈机制——交互反馈才能训练好助理
很多律师在使用大模型时,潜意识里期待“一键生成PPT”,一旦第一次输出不理想,就直接否定AI的价值。
但事实上,大模型更像一名可被快速反馈训练的助理。真正高效的用法,恰恰在于多轮交互:
第一轮:生成初稿或框架;
第二轮:指出问题并要求局部优化(例如“结论前置”“压缩法条引用”);
第三轮:追问补充某一风险点或特定法域差异。
这与律师修改助理律师的工作成果并无本质不同。不断的反馈与追问,不仅会提升当前成果质量,也会显著改善模型后续的理解与输出风格。
一个好的“带教师傅”,才能成为一个好的“AI超盘手”。
第四重门槛:缺乏个性化设置——你的大模型只是“公共实习生”
许多律师每次使用大模型,都是“从零开始聊天”。模型并不知道你的执业领域、表达偏好或风险判断尺度,自然只能给出“最大公约数式”的答案。这导致输出内容“看起来都对,但就是不顺手”。
事实上,大模型是可以被“驯化”为你的专属法律助理的。而通过记忆库、Agent或对话归类工具,可以逐步让模型了解。
举个例子:
在记忆库中明确你的职业背景(如“我是一名专注数据合规和AI监管的律师,我的主要客户类型为互联网、消费零售行业。”);
告知写作偏好(“结论先行、条文不堆砌、必需给出落地建议,尽量使用表格、类比等方式。”);
通过长期对话或Agent设定,让模型固定承担某类角色(如“企业法务视角”“监管机关视角”);
对对话进行主题归类,例如“AI合规”“个人信息保护”“电子商务与消费者权益保护”“我的技术顾问”“我的旅游顾问”,形成可复用的工作流。
这就像固定搭配的助理、秘书,会逐渐明白你“不喜欢长铺垫”“更关心能不能落地”。没有个性化配置的大模型,只是“通用实习生”;有个性化配置的大模型,才可能成为你的专属生产力工具。
结语
律师应用大模型的真正门槛,不是AI工具选型,也不是算力大小和参数跑分,而是思维是否完成大模型时代的升级。
当律师跨过这四重门槛,AI才不会只是律所展厅里的“科技名片”,而会真正走进每一个具体项目与工作细节之中。
其实,仔细想想,这些思维和能力,本质上并非大模型时代的特有“技术能力”,而是一个专业律师本就应具备的专业思维与方法论能力。大模型时代只是把这些能力的短板,放大得更加明显而已。所以,律所首先应该投资的是人力(也符合中央最新政策精神),而不是工具。
(注:上段为prompt提供者手工码字。)
*本文多轮prompt由黄春林律师提供,内容由ChatGPT生成合成。





