![]()
大语言模型(LLM)通常存在上下文输入长度的限制,一旦输入内容超出该限制,模型就无法处理超出部分,导致关键信息丢失。
在司法行业的实际应用中,出于安全要求,系统多部署于本地或专用算力资源上;而受限于成本,这些算力规模通常较为有限,导致所用大模型的上下文长度往往只有64K tokens,甚至更短。
然而,真实司法案件的卷宗材料数量庞大。即便是普通案件,也通常包含几十份电子卷宗;而在案情较为复杂的案件中(例如民事案件中的建设工程合同纠纷,或各类刑事案件),单案卷宗可能多达数百份,每份卷宗的篇幅从数页到上百页不等。
![]()
无论案件大小,几乎都超出了大模型的上下文处理能力。若仍希望借助AI辅助办案,就必须采用其他技术手段,将案件卷宗进行合理切分,并分批次将部分材料提交给大模型进行阅卷分析。
但这又引发了一系列新问题:
如何决定每次输入哪些卷宗?应搭配怎样的提示词,才能引导大模型有效分析?
面对分布式产生的分析结果——无论是并行处理还是顺序执行——又该如何高效整合?
图灵微雀通过与法院一线法官深度协作,系统梳理法官审理案件的流程细节与办案习惯,提炼出结构化的“审判思维链”。在此基础上,构建了一个覆盖从阅卷、分析到文书生成的全流程辅助办案智能体。
![]()
该系统将整个办案流程拆解为多个“原子智能体”,每个原子智能体专注于一项具体的任务——例如对一份合同进行阅卷并提取要素要件。这种设计有效解决了“该分析什么、怎么提示”的问题:原子智能体的合理分配决定了每次输入的卷宗范围,由专业法官指导大模型的提示策略,确保每一次调用都目标明确、上下文精简而有效。
在结果整合方面,系统支持灵活的执行策略。
一方面,多个原子智能体可并行处理不同卷宗,各自输出结构化信息后自动汇聚,实现全案材料的快速、整体性阅卷;
另一方面,也可按审判思维链顺序执行——先完成全量阅卷,由用户确认后再进入争议焦点提炼,继而生成庭审提纲。每一步的输出都作为下一步的输入基础,用户的每一次核实或编辑都会被保留并传递至后续环节,从而确保分散的分析结果最终融合为一条逻辑连贯、符合法官意图的裁判思路。
![]()
刑事案件辅助审查智能体简化流程示意图
总体来说,图灵微雀通过将法官的审判逻辑转化为可执行的智能体流程,把“整案阅卷”拆解为一系列目标明确、上下文可控的原子操作。无论是并行处理海量卷宗,还是串行推进关键推理步骤,系统都能在有限上下文内完成有效分析,并通过结构化整合与用户反馈机制,确保最终结果覆盖全案、逻辑一致、贴合法官真实意图——这正是应对超长法律文本阅卷难题的可行路径。
这种“人机协同”的智能体+思维链办案模式,既保障了法官在审判中的主导地位,又通过AI能力显著减轻了大量事务性工作负担。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.