[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-PKU-YuanGroup--ChatLaw":3,"tool-PKU-YuanGroup--ChatLaw":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":79,"stars":83,"forks":84,"last_commit_at":85,"license":86,"difficulty_score":87,"env_os":88,"env_gpu":89,"env_ram":90,"env_deps":91,"category_tags":94,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":95,"updated_at":96,"faqs":97,"releases":133},2300,"PKU-YuanGroup\u002FChatLaw","ChatLaw","ChatLaw：A Powerful LLM Tailored for Chinese Legal. 中文法律大模型","ChatLaw 是一款专为中文法律领域打造的大语言模型助手，旨在为用户提供专业、可靠的法律咨询与案件分析服务。针对通用 AI 在法律场景中容易出现的“幻觉”（即胡编乱造法条或案例）及逻辑不严谨等痛点，ChatLaw 通过引入知识图谱和多智能体协作机制，显著提升了回答的准确性与可信度。\n\n该工具的核心亮点在于其创新的“混合专家模型”（MoE）架构，能够根据具体问题自动调用不同的法律专家模块进行处理；同时，它模拟了真实律所的标准作业流程（SOP），由多个智能体分工完成信息收集、法条检索、逻辑推理及报告生成，确保输出内容既有深度又符合法律规范。在权威法律评测集 Lawbench 及国家统一法律职业资格考试中，ChatLaw 的表现甚至超越了 GPT-4。\n\nChatLaw 非常适合法律从业者用于辅助案情分析和文书起草，也适合法学研究人员进行相关实验，同时也能为普通大众提供通俗易懂的法律常识解答和初步咨询指引。无论是需要高精度专业支持的专业人士，还是寻求便捷法律帮助的普通用户，都能从中获得实质性的帮助。","# Chatlaw: A Large Language Model-based Multi-Agent Legal Assistant Enhanced by Knowledge Graph and Mixture-of-Experts. \n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_fa860cf69572.png\" width=\"50%\">\n  \u003C\u002Fa>\n  \u003Cp align=\"center\">\n      \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.16092.pdf\">\u003Cstrong>arXiv\u003C\u002Fstrong>\u003C\u002Fa>\n        ·\n      \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FPandaVT\u002FChatLaw2-Moe\">\u003Cstrong>HuggingFace\u003C\u002Fstrong>\u003C\u002Fa>\n    \u003C\u002Fp>\n  \u003C\u002Fp>\n\u003C\u002Fdiv>\n\n# ChatLaw Models\n\n## ChatLaw2-MoE\n\n- **Latest Version**: Based on the InternLM architecture with a 4x7B Mixture of Experts (MoE) design.\n\n- **Specialization**: Tailored for Chinese legal language processing、\n\n## ChatLaw-13B\n\n- **Demo Version**: Built on the Ziya-LLaMA-13B-v1 model.\n- **Performance**: Excels in general Chinese tasks but requires a larger model for complex legal QA.\n\n## ChatLaw-33B\n\n- **Demo Version**: Utilizes the Anima-33B model.\n- **Enhancements**: Improved logical reasoning over the 13B version.\n- **Challenge**: Occasionally defaults to English responses due to limited Chinese training data in Anima.\n\n## ChatLaw-Text2Vec\n\n- **Function**: A text similarity model trained on 93,000 court case decisions.\n- **Capability**: Matches user queries to pertinent legal statutes, offering contextual relevance.\n- **Example**: Connects questions about loan repayment to the appropriate sections of contract law.\n\n\n## Introduction\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_31769e8f5575.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\nAI legal assistants, powered by Large Language Models (LLMs), offer accessible legal consulting. However, the risk of hallucination in AI responses is a concern. This paper introduces ChatLaw, an innovative assistant that employs a Mixture-of-Experts (MoE) model and a multi-agent system to enhance reliability and accuracy in AI legal services. By integrating knowledge graphs and artificial screening, we've created a high-quality legal dataset for training the MoE model. This model leverages various experts to address a range of legal issues, optimizing legal response accuracy. Standardized Operating Procedures (SOPs), inspired by law firm workflows, significantly minimize errors and hallucinations.\n\nOur MoE model outperforms GPT-4 in the Lawbench and Unified Qualification Exam for Legal Professionals, achieving a 7.73% higher accuracy and an 11-point lead, respectively. It also surpasses other models in real-case consultations across multiple dimensions, showcasing robust legal consultation capabilities.\n\n---\n\n### Multi-Agents Collaboration Process and Legal Consultation Report\n\nThe diagram below illustrates the collaborative process of multiple agents in providing legal consultation services, exemplified by a divorce consultation. The process involves gathering information, legal research, comprehensive advice, and culminates in a detailed Legal Consultation Report.\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_7adab4c277d3.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\n# Dataset\n\n## Data Visualization and Performance Comparison\n\n(a) Our legal dataset covers a diverse range of tasks, from case classification to public opinion analysis.\n\n(b) ChatLaw demonstrates superior performance across multiple legal categories compared to other models.\n\n(c) ChatLaw consistently outperforms other models in legal cognitive tasks, as shown in the Lawbench comparison.\n\n(d) ChatLaw maintains high performance across five years on the Unified Qualification Exam for Legal Professionals.\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_2f37a05fa384.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\n# Experiments\n\n## Evaluation of Legal Consultation Quality and Model Performance\n\n(a) Legal consultation quality is assessed based on Completeness, Logic, Correctness, Language Quality, Guidance, and Authority.\n\n(b) ChatLaw achieves the highest scores across all criteria, particularly excelling in Completeness, Guidance, and Authority.\n\n(c) ChatLaw shows a higher win rate compared to other models, indicating superior capability in providing high-quality legal consultations.\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_7635cdbd4d23.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\n## Truthful QA Evaluation\n\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_9636d19b0e6e.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\n##  Usage\n\nFind the model at: [ChatLaw2-MoE](https:\u002F\u002Fhuggingface.co\u002FPandaVT\u002FChatLaw2-MoE)\n\n\n```\n@misc{cui2024chatlaw,\n      title={Chatlaw: A Multi-Agent Collaborative Legal Assistant with Knowledge Graph Enhanced Mixture-of-Experts Large Language Model}, \n      author={Jiaxi Cui and Munan Ning and Zongjian Li and Bohua Chen and Yang Yan and Hao Li and Bin Ling and Yonghong Tian and Li Yuan},\n      year={2024},\n      eprint={2306.16092},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL}\n}\n@misc{ChatLaw,\n  author={Jiaxi Cui and Zongjian Li and Yang Yan and Bohua Chen and Li Yuan},\n  title={ChatLaw},\n  year={2023},\n  publisher={GitHub},\n  journal={GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw}},\n}\n```\n\n\n\n\n\n## Star History\n\n[![Star History](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_80163721ef46.png)](https:\u002F\u002Fstar-history.com\u002F#PKU-YuanGroup\u002FChatLaw&Date)\n","# ChatLaw：基于知识图谱与混合专家模型的大型语言模型多智能体法律助理\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_fa860cf69572.png\" width=\"50%\">\n  \u003C\u002Fa>\n  \u003Cp align=\"center\">\n      \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.16092.pdf\">\u003Cstrong>arXiv\u003C\u002Fstrong>\u003C\u002Fa>\n        ·\n      \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FPandaVT\u002FChatLaw2-Moe\">\u003Cstrong>HuggingFace\u003C\u002Fstrong>\u003C\u002Fa>\n    \u003C\u002Fp>\n  \u003C\u002Fp>\n\u003C\u002Fdiv>\n\n# ChatLaw 模型\n\n## ChatLaw2-MoE\n\n- **最新版本**：基于 InternLM 架构，采用 4x7B 混合专家（MoE）设计。\n\n- **专长**：专为中文法律语言处理而优化。\n\n## ChatLaw-13B\n\n- **演示版本**：基于 Ziya-LLaMA-13B-v1 模型构建。\n- **性能**：在通用中文任务中表现出色，但在复杂法律问答场景下需要更大规模的模型支持。\n\n## ChatLaw-33B\n\n- **演示版本**：采用 Anima-33B 模型。\n- **提升**：相比 13B 版本，逻辑推理能力有所增强。\n- **挑战**：由于 Anima 模型的中文训练数据有限，有时会默认以英文作答。\n\n## ChatLaw-Text2Vec\n\n- **功能**：一款基于 93,000 份法院判决文书训练的文本相似度模型。\n- **能力**：能够将用户查询匹配到相关的法律条文，提供上下文相关性建议。\n- **示例**：将关于贷款偿还的问题与合同法中的相应条款关联起来。\n\n\n## 简介\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_31769e8f5575.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\n由大型语言模型（LLM）驱动的AI法律助理为用户提供便捷的法律咨询服务。然而，AI回复中可能出现幻觉问题，这成为一大隐患。本文介绍 ChatLaw，一种创新的法律助理系统，它结合了混合专家模型和多智能体协作机制，以提升AI法律服务的可靠性和准确性。通过整合知识图谱和人工筛选，我们构建了一个高质量的法律数据集用于训练 MoE 模型。该模型利用不同领域的专家来应对多样化的法律问题，从而优化法律响应的准确性。借鉴律师事务所工作流程制定的标准操作程序（SOP），显著减少了错误和幻觉现象的发生。\n\n我们的 MoE 模型在 Lawbench 和全国统一法律职业资格考试中均超越 GPT-4，分别取得了高出 7.73% 的准确率和领先 11 分的成绩。此外，在多个维度的真实案例咨询中，ChatLaw 也优于其他模型，展现出强大的法律咨询能力。\n\n---\n\n### 多智能体协作流程及法律咨询报告\n\n下图展示了多智能体协作提供法律咨询服务的过程，以离婚咨询为例。该流程包括信息收集、法律检索、综合建议生成，并最终形成一份详细的法律咨询报告。\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_7adab4c277d3.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\n# 数据集\n\n## 数据可视化与性能对比\n\n(a) 我们的法律数据集涵盖了从案件分类到舆情分析等多样化的任务。\n\n(b) ChatLaw 在多个法律类别中均展现出优于其他模型的性能。\n\n(c) 如 Lawbench 对比所示，ChatLaw 在法律认知任务中持续领先于其他模型。\n\n(d) 在全国统一法律职业资格考试中，ChatLaw 过去五年始终保持高水准表现。\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_2f37a05fa384.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\n# 实验\n\n## 法律咨询质量与模型性能评估\n\n(a) 法律咨询质量依据完整性、逻辑性、正确性、语言质量、指导性和权威性进行评估。\n\n(b) ChatLaw 在所有指标上均获得最高分，尤其在完整性、指导性和权威性方面表现突出。\n\n(c) ChatLaw 相较其他模型具有更高的胜率，表明其在提供高质量法律咨询方面的能力更优。\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_7635cdbd4d23.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\n## 真实性问答评估\n\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_9636d19b0e6e.jpg\" style=\"width=40%;\"\u002F>\u003C\u002Fdiv>\n\n## 使用方法\n\n模型下载地址：[ChatLaw2-MoE](https:\u002F\u002Fhuggingface.co\u002FPandaVT\u002FChatLaw2-MoE)\n\n\n```\n@misc{cui2024chatlaw,\n      title={Chatlaw: A Multi-Agent Collaborative Legal Assistant with Knowledge Graph Enhanced Mixture-of-Experts Large Language Model}, \n      author={Jiaxi Cui and Munan Ning and Zongjian Li and Bohua Chen and Yang Yan and Hao Li and Bin Ling and Yonghong Tian and Li Yuan},\n      year={2024},\n      eprint={2306.16092},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL}\n}\n@misc{ChatLaw,\n  author={Jiaxi Cui and Zongjian Li and Yang Yan and Bohua Chen and Li Yuan},\n  title={ChatLaw},\n  year={2023},\n  publisher={GitHub},\n  journal={GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw}},\n}\n```\n\n\n\n\n\n## 星标历史\n\n[![星标历史](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_readme_80163721ef46.png)](https:\u002F\u002Fstar-history.com\u002F#PKU-YuanGroup\u002FChatLaw&Date)","# ChatLaw 快速上手指南\n\nChatLaw 是一个基于大语言模型的多智能体法律助手，通过知识图谱和混合专家（MoE）架构增强，旨在提供准确、可靠的中文法律咨询。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 推荐使用 NVIDIA GPU (显存建议 16GB 以上以运行较大模型，如使用量化版本可适当降低)\n*   **依赖管理**: pip 或 conda\n\n**前置依赖安装：**\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install transformers accelerate sentencepiece\n```\n\n> **提示**：国内开发者建议使用清华或阿里镜像源加速安装：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch torchvision torchaudio transformers accelerate sentencepiece`\n\n## 安装步骤\n\n目前推荐直接使用 Hugging Face 上的最新 **ChatLaw2-MoE** 模型。您可以通过 `transformers` 库直接加载模型，无需克隆整个仓库即可进行推理测试。\n\n1.  **创建虚拟环境（可选但推荐）**：\n    ```bash\n    python -m venv chatlaw_env\n    source chatlaw_env\u002Fbin\u002Factivate  # Windows 用户使用: chatlaw_env\\Scripts\\activate\n    ```\n\n2.  **安装核心依赖**：\n    ```bash\n    pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple transformers accelerate torch\n    ```\n\n3.  **验证模型下载**：\n    确保您可以访问 Hugging Face。如果网络受限，建议配置本地代理或使用镜像站（如 `hf-mirror.com`）。\n    \n    设置环境变量使用镜像（可选）：\n    ```bash\n    export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n    ```\n\n## 基本使用\n\n以下是最简单的 Python 代码示例，展示如何加载 **ChatLaw2-MoE** 模型并进行法律问答。\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\nimport torch\n\n# 模型名称\nmodel_name = \"PandaVT\u002FChatLaw2-MoE\"\n\n# 加载分词器和模型\n# 注意：如果显存不足，可添加 device_map=\"auto\" 和 load_in_8bit=True (需安装 bitsandbytes)\ntokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name, \n    trust_remote_code=True, \n    torch_dtype=torch.float16, \n    device_map=\"auto\"\n)\n\n# 准备输入提示 (Prompt)\n# ChatLaw 针对中文法律场景优化，建议直接使用中文提问\nprompt = \"请问民间借贷纠纷中，借条没有写明还款日期，诉讼时效怎么计算？\"\n\n# 生成回复\ninputs = tokenizer(prompt, return_tensors=\"pt\").to(model.device)\noutputs = model.generate(\n    **inputs, \n    max_new_tokens=512, \n    do_sample=True, \n    temperature=0.7, \n    top_p=0.9\n)\n\n# 解码并输出结果\nresponse = tokenizer.decode(outputs[0], skip_special_tokens=True)\nprint(response)\n```\n\n**使用说明：**\n*   **模型选择**：上述代码默认加载最新的 `ChatLaw2-MoE` (基于 InternLM 架构)，它在中文法律任务上表现最佳。\n*   **显存优化**：如果您的显卡显存较小，建议在 `from_pretrained` 中加入 `load_in_8bit=True` 参数（需先 `pip install bitsandbytes`），或使用 `device_map=\"auto\"` 自动卸载部分层到 CPU。\n*   **多智能体功能**：完整的“多智能体协作”流程（如生成详细法律咨询报告）需要调用项目仓库中的特定 Agent 编排脚本，基础推理可直接使用上述代码。","一位基层法律援助律师正在处理一起复杂的离婚纠纷，需要快速梳理财产分割、子女抚养权及债务承担等多重法律问题。\n\n### 没有 ChatLaw 时\n- 面对海量且分散的法律条文与过往判例，人工检索耗时极长，难以在短时间内定位到最相关的依据。\n- 通用大模型容易产生“幻觉”，编造不存在的法条或给出错误的量刑建议，律师必须逐字核对，不敢直接采信。\n- 缺乏系统性的分析框架，针对复杂案情生成的咨询意见往往逻辑松散，遗漏关键风险点，难以形成专业的法律文书。\n- 在处理涉及专业术语的混合语境时，模型偶尔会切换至英文回答或理解偏差，增加了沟通与修正成本。\n\n### 使用 ChatLaw 后\n- 借助内置的知识图谱与 Text2Vec 模型，ChatLaw 能瞬间将案情细节精准匹配到具体的合同法规则与相似判例，大幅缩短调研时间。\n- 基于多专家混合（MoE）架构与标准化作业流程（SOP），ChatLaw 输出的法律建议准确率显著提升，有效抑制了胡编乱造的风险。\n- 通过多智能体协作机制，ChatLaw 自动模拟律所工作流，从信息收集到逻辑推演，生成结构严谨、覆盖全面的法律咨询报告。\n- 专为中文法律语境训练，ChatLaw 始终保持在专业中文模式下运行，确保术语使用规范，逻辑推理符合中国司法实践。\n\nChatLaw 通过融合知识图谱与多智能体协作，将法律咨询服务从“高风险的人工试错”转变为“高精度、可信赖的智能辅助”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPKU-YuanGroup_ChatLaw_fa860cf6.png","PKU-YuanGroup","PKU-YUAN-Lab (袁粒课题组-北大深研院)","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FPKU-YuanGroup_d1788368.jpg","Open codes from YUAN Lab at PKU",null,"postmaster@pku-yuan.com","pku-yuan.com","https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup",7475,610,"2026-04-02T14:17:22","AGPL-3.0",4,"","未说明（基于 InternLM 架构的 4x7B MoE 模型通常建议显存 24GB+ 或使用量化版本）","未说明",{"notes":92,"python":90,"dependencies":93},"README 中未提供具体的运行环境配置、依赖库列表或安装命令。该工具包含 ChatLaw2-MoE（基于 InternLM）、ChatLaw-13B（基于 Ziya-LLaMA）和 ChatLaw-33B（基于 Anima）等多个模型版本，实际硬件需求取决于所选模型的大小。用户需前往 HuggingFace 获取模型文件，并参考原始代码仓库中的具体脚本进行部署。",[],[26,15],"2026-03-27T02:49:30.150509","2026-04-06T10:24:03.051147",[98,103,108,113,118,123,128],{"id":99,"question_zh":100,"answer_zh":101,"source_url":102},10552,"如何加入官方交流群？微信群二维码显示已满或无法扫描怎么办？","由于微信群人数限制（超过 200 人需邀请），首页二维码可能失效或提示仅可通过邀请进群。维护者会不定期更新二维码，如果遇到群满情况，请留意项目首页的最新公告或等待维护者更新二维码。","https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\u002Fissues\u002F29",{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},10553,"项目是否开源了训练数据？在哪里可以找到？","是的，部分训练数据已开源。您可以直接在项目的 data 目录中找到相关数据，访问地址为：https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\u002Ftree\u002Fmain\u002Fdata","https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\u002Fissues\u002F25",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},10554,"Keyword LLM 是如何训练的？需要自己构建数据集吗？","Keyword LLM 的数据集需要用户自行构建，官方未提供现成的关键词标注数据集。不过构建过程并不困难，通常需要根据输入文章提取对应的关键词作为训练对进行微调。","https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\u002Fissues\u002F17",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},10555,"Keyword LLM 和 Self-Suggestion 的具体代码会开源吗？","根据维护者回复，Keyword LLM 和 Self-Suggestion 模块的具体代码暂时不会开源。","https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\u002Fissues\u002F14",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},10556,"模型输出的法律条文引用出现错误（如法条编号对应罪名不对），这是已知问题吗？","是的，这是一个已知问题。目前开源版本和在线体验版均为学术 Demo 版，在法律条文的准确性和逻辑性上可能存在欠缺。维护者已确认该问题并承诺会在后续版本中努力改进。","https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\u002Fissues\u002F2",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},10557,"用于训练的语录数据（对话数据）会开源吗？","根据维护者回复，用于训练的语录数据暂时不会开源。","https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\u002Fissues\u002F18",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},10558,"这个模型能通过国家司法考试吗？","目前尚不确定。维护者表示该模型主要用于学术研究和演示，虽然具备一定的法律知识问答能力，但能否通过严格的司法考试还需进一步验证，建议不要完全依赖模型进行专业法律决策。","https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw\u002Fissues\u002F23",[]]