[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-AndrewZhe--lawyer-llama":3,"tool-AndrewZhe--lawyer-llama":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151918,2,"2026-04-12T11:33:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":75,"owner_email":77,"owner_twitter":75,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":100,"github_topics":101,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":149},6876,"AndrewZhe\u002Flawyer-llama","lawyer-llama","中文法律LLaMA (LLaMA for Chinese legel domain)","Lawyer LLaMA 是一款专为中文法律领域打造的大语言模型，旨在填补通用 AI 在法律专业知识上的空白。它通过持续预训练系统学习了中国庞大的法律条文与裁判文书，并经过高质量的指令微调，能够精准理解民法、刑法等核心概念，不仅能解答国家统一法律职业资格考试（法考）题目，还能以通俗易懂的语言提供婚姻、借贷、刑事等领域的实务咨询建议。\n\n该项目主要解决了现有大模型缺乏深度法律知识、难以应对专业法律场景的问题。对于法律从业者、法学学生及研究人员，Lawyer LLaMA 是辅助学习、备考及初步案情分析的高效助手；对于开发者，项目开源了基于 LLaMA 训练的模型参数及多版本高质量法律指令微调数据集（含 GPT-4 生成的法考解析与咨询回复），为垂直领域大模型的研究提供了宝贵资源。\n\n其独特亮点在于采用了“持续预训练 + 指令微调”的双阶段策略：先构建系统的法律知识体系，再利用包含法条依据的对话数据强化实际应用能力。最新发布的 Lawyer LLaMA 2 版本更是引入了由 GPT-4 生成的高质量数据，显著提升了模型在复杂情景分析与逻辑推理上的表现，推动了中文法律 AI 的开放研究与发展。","[ZH] [[EN]](README_en.md)\n\n# Lawyer LLaMA\n\n通过指令微调，LLaMA 模型在通用领域展现出了非常好的表现。但由于缺少合适的数据，少有人探究LLaMA在法律领域的能力。为了弥补这一空白，我们提出了Lawyer LLaMA，一个在法律领域数据上进行了额外训练的模型。\n\nLawyer LLaMA 首先在大规模法律语料上进行了continual pretraining，让它系统的学习中国的法律知识体系。\n在此基础上，我们借助ChatGPT收集了一批对中国国家统一法律职业资格考试客观题（以下简称法考）的分析和对法律咨询的回答，利用收集到的数据对模型进行指令微调，让模型习得将法律知识应用到具体场景中的能力。\n\n我们的模型能够：\n\n1. **掌握中国法律知识：** 能够正确的理解民法、刑法、行政法、诉讼法等常见领域的法律概念。例如，掌握了刑法中的犯罪构成理论，能够从刑事案件的事实描述中识别犯罪主体、犯罪客体、犯罪行为、主观心理状态等犯罪构成要件。模型利用学到的法律概念与理论，能够较好回答法考中的大部分题目。\n\n2. **应用于中国法律实务**：能够以通俗易懂的语言解释法律概念，并且进行基础的法律咨询，涵盖婚姻、借贷、海商、刑事等法律领域。\n\n为了给中文法律大模型的开放研究添砖加瓦，本项目将开源一系列**法律领域的指令微调数据**和**基于LLaMA训练的中文法律大模型的参数** 。\n\n## 新闻\n[2024\u002F4\u002F25] 🆕 发布了新版[**Lawyer LLaMA 2 (`lawyer-llama-13b-v2`)**](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Frun_inference_v2.md)模型参数，以及**更高质量的法律指令微调数据**。\n\n[2023\u002F10\u002F14] 更新了Lawyer LLaMA技术报告[**Lawyer LLaMA: Enhancing LLMs with Legal Knowledge**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15062)，提供了更多的技术细节和研究发现。\n\n[2023\u002F6\u002F8] 开源了[`lawyer-llama-13b-beta1.0`](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Frun_inference_v1.md)模型参数。\n\n[2023\u002F5\u002F25] 开源了更大规模的指令微调数据，发布了包含和用户问题相关法条的对话数据。\n\n[2023\u002F5\u002F25] 发布了[Lawyer LLaMA技术报告](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15062)。\n\n[2023\u002F4\u002F13] 开源了由ChatGPT生成的指令微调数据，包含2k条法考题目的解答及5k条法律咨询回复。\n\n\n## 训练数据\n\n### 法律领域纯文本语料\n\n我们收集了部分公开的法律数据用于模型的continual training，包括法律条文、裁判文书等。\n\n### 通用指令微调数据\n\n[Alpaca-GPT4](https:\u002F\u002Fgithub.com\u002FInstruction-Tuning-with-GPT-4\u002FGPT-4-LLM) 52k 中文，52k 英文。\n\n### 法律指令微调数据\n\n#### 开源数据概览\n| 文件名 | 规模 | 描述 |\n| -- | -- | -- |\n| 🆕 **fakao_gpt4.json** | 1,000 | **GPT-4生成的法考题解答** |\n| 🆕 **zixun_gpt4.json** | 1,000 | **GPT-4基于法条生成的法律咨询回复** |\n| judical_examination.json | 2,000 | GPT-3.5生成的法考题解答 |\n| judical_examination_v2.json | 5,000 | GPT-3.5生成的法考题解答（第二批） |\n| legal_advice.json | 5,000 | GPT-3.5生成的法律咨询回复 |\n| legal_counsel_v2.json | 8,000 | GPT-3.5生成的法律咨询回复（第二批） |\n| legal_counsel_with_article_v2.json | 1,000 | GPT-3.5基于法条生成的法律咨询回复 |\n| legal_counsel_multi_turn_with_article_v2.json | 476 | GPT-3.5基于法条生成的多轮法律咨询对话 |\n\n**在Lawyer LLaMA 2 (`lawyer-llama-13b-v2`)的训练中我们使用了新版的法律微调数据，以下是一些新旧数据的对比。**\n\n#### 法考数据\n我们将[JEC-QA中国法考数据集](https:\u002F\u002Fjecqa.thunlp.org\u002F)中的试题输入ChatGPT，让其生成对每个答案的解析。\n\n以下对比了新旧版本Lawyer LLaMA使用的数据：\n\n\n| **GPT-3.5生成** | **🆕 GPT-4生成** |\n| -- | -- |\n| **问题：** 根据《物权法》，下列关于物权变动的特别规定，表述正确吗？\u003Cbr\u002F>因继承或者受遗赠取得物权的，自继承或者受遗赠开始时发生效力\u003Cbr\u002F>请给出详细的推理过程之后再给出答案。\u003Cbr\u002F>**回复：** 这个表述是正确的。\u003Cbr\u002F>根据《物权法》第X条规定：“因继承或者受遗赠取得物权的，自继承或者受遗赠开始时发生效力。”这意味着，当一个人通过继承或受遗赠获得物权时，这个物权的效力是从继承或受遗赠开始时就生效的，而不是从物权转移的时间开始生效。这是因为，继承或受遗赠是一种法定的方式来获得物权，因此，物权的效力应该从这个法定的时间点开始生效。 | **问题：** 情景分析：张某欠李某2万元，张某有一辆出租车价值4万元，现张某将该车赠与其友王五；李某发现张某无其他值钱的东西，这一赠与会影响张某偿还债务，于是向法院起诉请求撤销张某的赠与行为。法院对该赠与行为的效力应认定。\u003Cbr\u002F>**回复：** 张某欠李某2万元，而张某将其价值4万元的出租车赠与给王五，这一行为在法律上可能构成恶意转移财产，目的在于逃避债务。李某因此向法院提起诉讼，请求撤销张某的赠与行为，以保护自己的债权不受损害。\u003Cbr\u002F>首先，根据《中华人民共和国民法典》第二百五十四条规定，债务人恶意转移财产，损害债权人利益的，债权人有权请求人民法院撤销债务人的行为。在本案中，张某的赠与行为可能被视为恶意转移财产，因为这一行为发生在张某欠债的情况下，且张某无其他值钱的东西，这一赠与行为很可能导致李某的债权无法实现。\u003Cbr\u002F>其次，根据《中华人民共和国民法典》第二百五十五条规定，请求撤销权的行使，不得损害善意第三人的权益。然而，在本案中，王五作为接受赠与的一方，是否具有善意以及是否知道张某的赠与行为会损害债权人（李某）的利益，对于判断赠与行为是否有效是关键。如果王五知道张某的赠与行为是为了逃避偿还债务而进行的，则王五不能被视为善意第三人。\u003Cbr\u002F>因此，结合上述分析，张某的赠与行为损害了债权人李某的利益，且在债务人恶意转移财产的情况下进行，根据《中华人民共和国民法典》相关规定，法院应当认定该赠与行为无效。这样的判决旨在保护债权人的利益，防止债务人通过转移财产逃避债务的行为。因此，法院对该赠与行为的效力应认定为无效。 |\n\n\n\n#### 法律咨询\n我们从[开放数据集](https:\u002F\u002Fopendata.pku.edu.cn\u002Fdataset.xhtml?persistentId=doi:10.18170\u002FDVN\u002FOLO4G8)中收集了一些咨询问题，输入ChatGPT，让ChatGPT扮演律师解答问题。将相关法条一同输入，可以提升ChatGPT生成的质量。\n\n以下对比了新旧版本Lawyer LLaMA使用的数据：\n\n| **GPT-3.5生成** | **🆕 GPT-4生成** |\n| -- | -- |\n| **问题：** 你好，离婚后夫妻的财产是怎么分配的\u003Cbr\u002F>**回复：** 您好，根据《民法典》的相关规定，离婚后夫妻的财产分配可以通过夫妻双方协商处理，如果没有协商一致，则需要由法院根据财产的具体情况，按照照顾子女、女方和无过错方权益的原则进行判决。对于夫妻在婚姻关系存续期间所得的共同财产，包括工资、奖金、劳务报酬、生产、经营、投资的收益、知识产权的收益、继承或者受赠的财产以及其他应当归共同所有的财产，应当平分。而夫妻在婚姻关系存续期间所获得的个人财产，包括婚前财产、因受到人身损害获得的赔偿或者补偿、遗嘱或者赠与合同中确定只归一方的财产、一方专用的生活用品，应当归该方所有。请问你们在婚姻关系存续期间所得的财产情况如何呢？ | **问题：** 我老公经常不回家，我知道他在外面有人，同时干了许多坏事，一年365天，这个情况怎么办呢？\u003Cbr\u002F>**回复：** 根据您提供的情况，您老公长期不回家且外面有其他人，这可能触及到《民法典》第一千零四十二条中关于“禁止有配偶者与他人同居”的规定。若您的老公确实与他人同居，这在法律上构成违法行为，您作为受害一方，有权采取相应的法律行动。\u003Cbr\u002F>首先，您需要收集证据。这包括但不限于您老公与他人同居的证据、他不回家的时间以及他所做的“许多坏事”的相关证据。证据可以是照片、视频、通讯记录、目击者的证词等，这对于您后续的法律行动至关重要。\u003Cbr\u002F>其次，若您老公的行为给您造成了精神伤害或经济损失，根据《民法典》的相关规定，您可以要求赔偿。婚姻法内还规定了夫妻之间忠诚的义务，一旦违反，受损害一方有权要求精神损害赔偿。\u003Cbr\u002F>第三，考虑到您提到的您老公“干了许多坏事”，具体情况需要进一步明确。这些行为是涉及违法犯罪还是道德层面的“坏事”？如果涉及违法犯罪，您可以考虑向相关部门举报。这不仅是维护自己权益的行为，也是对社会责任的履行。\u003Cbr\u002F>最后，关于是否结束婚姻，这是一个需要认真考虑的问题。不忠是许多人选择离婚的重要原因之一，根据您收集的证据，如果决定采取此步骤，可以向人民法院提起离婚诉讼，请求分割夫妻共同财产、争取子女抚养权（如果有）等。\u003Cbr\u002F>在这个过程中，考虑到法律问题的复杂性，您可能需要寻求专业律师的帮助，他们可以为您提供更专业的法律意见，并代表您进行诉讼活动。\u003Cbr\u002F>总而言之，您面临的情况较为复杂，但您完全有权利采取行动保护自己的合法权益。关键在于搜集证据、评估情况，并在必要时寻求专业法律帮助。 |\n\n\n\n## 模型参数\n\n目前公开了以下版本的Lawyer LLaMA：\n* 🆕 `lawyer-llama-13b-v2`: 以[quzhe\u002Fllama_chinese_13B](https:\u002F\u002Fhuggingface.co\u002Fquzhe\u002Fllama_chinese_13B)（对LLaMA-2进行了中文持续预训练）为基础，使用通用instruction和GPT-4生成的法律instruction进行SFT，配有婚姻相关法律检索模块。下载地址和使用方法见[`demo\u002Frun_inference_v2.md`](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Frun_inference_v2.md)。\n* `lawyer-llama-13b-beta1.0`: 以[Chinese-LLaMA-13B](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)为基础，使用通用instruction和GPT-3.5生成的法律instruction进行SFT，配有婚姻相关法律检索模块。下载地址和使用方法见[`demo\u002Frun_inference_v1.md`](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Frun_inference_v1.md)。\n\n\n\n## 系统效果\n\n### 自动评测\n我们使用[Chain-of-Discussion](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.16313)中的200条婚姻家事相关的咨询问题，对以下模型进行测试：\n* 🆕 Lawyer LLaMA 2 (`lawyer-llama-13b-v2`)\n* Lawyer LLaMA 1  (`lawyer-llama-13b-beta1.0`)\n* [DISC-LawLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-LawLLM)\n* GPT-3.5-Turbo \n* Gemini-1.0-Pro\n\n\n使用GPT-4对咨询回复质量打分（满分10分）。在评分的过程中，我们要求GPT-4模型围绕着文本的流畅性、逻辑性、是否引用了无关法条、是否与律师撰写的金标准回复在语义上一致等角度进行评分。各模型表现如下：\n| 模型 | 得分 |\n| -- | -- |\n| 🆕 Lawyer LLaMA 2 | 6.71 | \n| Lawyer LLaMA 1 | 5.61 |\n| DISC-LawLLM | 5.70 |\n| GPT-3.5-Turbo | 6.90 |\n| Gemini-1.0-Pro | 6.94 |\n\n*关于旧版模型`lawyer-llama-13b-beta1.0`的表现，请参考旧版[README](README_old.md).*\n\n\n### 输出样例\n下面展示了Lawyer LLaMA 2、Lawyer LLaMA 1和DISC-LawLLM对于同一问题的输出。\n\n**问题：** 没有赡养老人就无法继承财产吗？\n\n**相关法条：**\n1. 《民法典》第一千一百三十条：同一顺序继承人继承遗产的份额，一般应当均等。对生活有特殊困难又缺乏劳动能力的继承人，分配遗产时，应当予以照顾。对被继承人尽了主要扶养义务或者与被继承人共同生活的继承人，分配遗产时，可以多分。有扶养能力和有扶养条件的继承人，不尽扶养义务的，分配遗产时，应当不分或者少分。继承人协商同意的，也可以不均等。\n2. 《民法典》第一千一百二十五条：继承人有下列行为之一的，丧失继承权：（一）故意杀害被继承人；（二）为争夺遗产而杀害其他继承人；（三）遗弃被继承人，或者虐待被继承人情节严重；（四）伪造、篡改、隐匿或者销毁遗嘱，情节严重；（五）以欺诈、胁迫手段迫使或者妨碍被继承人设立、变更或者撤回遗嘱，情节严重。继承人有前款第三项至第五项行为，确有悔改表现，被继承人表示宽恕或者事后在遗嘱中将其列为继承人的，该继承人不丧失继承权。受遗赠人有本条第一款规定行为的，丧失受遗赠权。\n3. 《民法典》第一千一百二十七条：遗产按照下列顺序继承：（一）第一顺序：配偶、子女、父母；（二）第二顺序：兄弟姐妹、祖父母、外祖父母。继承开始后，由第一顺序继承人继承，第二顺序继承人不继承；没有第一顺序继承人继承的，由第二顺序继承人继承。本编所称子女，包括婚生子女、非婚生子女、养子女和有扶养关系的继子女。本编所称父母，包括生父母、养父母和有扶养关系的继父母。本编所称兄弟姐妹，包括同父母的兄弟姐妹、同父异母或者同母异父的兄弟姐妹、养兄弟姐妹、有扶养关系的继兄弟姐妹。\n\n**模型输出：**\n| **DISC-LawLLM** | **Lawyer LLaMA 1** | **🆕 Lawyer LLaMA 2** |\n| -- | -- | -- |\n| **GPT-4评分：4分**\u003Cbr\u002F>根据《民法典》规定，子女对父母有赡养扶助的义务。如果成年子女不履行赡养义务的话，缺乏劳动能力或者生活困难的父母，有要求成年子女给付赡养费的权利。所以，在法律上，未尽到赡养老人的义务是会丧失继承权的。\u003Cbr\u002F>但是需要注意的是，是否存在“丧失继承权”的情况应当由法院根据具体案件情况来进行认定，而不能直接将所有未赡养老人的行为一概而论。 | **GPT-4评分：3分**\u003Cbr\u002F>您好，根据中国的法律规定，没有赡养老人就不能成为继承人，但是如果被继承人已经去世，其财产将按照法定继承顺序分配给合法的继承人。同时，如果被继承人在生前曾经给予过抚养或扶养，则在分配遗产时，可以给予一定的照顾。此外，如果被继承人遗嘱中有关于财产分配的规定，则应按照遗嘱执行。请问您的具体情况是什么呢？ | **GPT-4评分：8分**\u003Cbr\u002F>依据您的咨询，关于是否因为没有赡养老就不能继承财产的问题，我们可以从《民法典》的相关规定进行分析。\u003Cbr\u002F>首先，根据《民法典》第一千一百三十条的规定，继承人在继承遗产时，如果对被继承人尽了主要扶养义务或者与被继承人共同生活的继承人，可以多分遗产。这意味着，如果继承人在被继承人生前对其进行了经济上的支持或生活上的照料，那么在继承遗产时可能会得到更多的份额。\u003Cbr\u002F>其次，《民法典》第一千一百二十五条明确指出，继承人有遗弃被继承人，或者虐待被继承人情节严重的，将丧失继承权。这表明，如果继承人在被继承人生前对其进行了遗弃或虐待，导致其生活处于困境，那么在继承遗产时可能会受到限制。\u003Cbr\u002F>然而，《民法典》并没有直接规定说没有赡养老就不能继承财产。继承权的获取主要基于血缘关系和法律规定的继承人范围，而不是直接取决于赡养老的行为。因此，即使在没有履行赡养老义务的情况下，继承人仍然有权继承遗产。\u003Cbr\u002F>综上所述，虽然赡养老行为可能会影响继承权的行使，但不赡养老并不直接剥夺继承权。继承权的获得主要取决于血缘关系和法律规定的继承人资格。如果您有继承权的疑问，建议详细了解自己的继承权情况，并考虑是否有遗弃或虐待行为，以免影响继承权利的行使。 |\n\n\n## 致谢\n\n本项目的开放过程中，获得了以下项目的帮助，在此表示感谢。\n\nhttps:\u002F\u002Fjecqa.thunlp.org\u002F\n\nhttps:\u002F\u002Fopendata.pku.edu.cn\u002Fdataset.xhtml?persistentId=doi:10.18170\u002FDVN\u002FOLO4G8\n\nhttps:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\n\nhttps:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE\n\nhttps:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca\n\nhttps:\u002F\u002Fgithub.com\u002Fpointnetwork\u002Fpoint-alpaca\n\n本项目主要贡献人员：\n\n[黄曲哲](https:\u002F\u002Fandrewzhe.github.io\u002F)\\*，[陶铭绪](https:\u002F\u002Fkobayashikanna01.github.io\u002F)\\*，[张晨](https:\u002F\u002Fluciusssss.github.io\u002F)\\*，[安震威](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=PPJ9MA0AAAAJ)\\*，[姜聪](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=7lLPJuoAAAAJ)，[陈智斌](https:\u002F\u002Fzacharychenpk.github.io\u002F)，[伍子睿](https:\u002F\u002Fwilliamzr.github.io\u002F)，[冯岩松](https:\u002F\u002Fyansongfeng.github.io\u002F)\n\n\\* Equal Contribution\n\n本项目是在冯岩松教授的指导下进行的。\n\n## 社区贡献\n\n不少开发者对Lawyer LLaMA的部署使用进行了分享，在此表示感谢。相关社区贡献列举如下：\n\n* 在通过命令行部署模型时，使用nginx反向代理访问此服务，可参考https:\u002F\u002Fgithub.com\u002FLeetJoe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Fnginx_proxy.md （Credit to @LeetJoe）\n* 对`lawyer-llama-13b-v2`进行Q4量化并通过ollama部署，可参考https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fissues\u002F66 (Credit to @yangxiaoshuai2333)\n\n## **局限性和使用限制**\n\n本项目内容仅供用于学术研究，不得用于商业以及其他会对社会带来危害的用途。使用涉及第三方代码的部分时，请严格遵循相应的开源协议。\n\n本项目中使用的数据由ChatGPT生成，未经严格验证，可能会存在错误内容，在使用时请注意甄别。\n\n本项目中的模型输出并非专业法律咨询结果，可能会包含错误内容。如需法律援助，请从专业人士处获得帮助。\n\n## 引用\n\n如果您使用了本项目的内容，或者认为本项目对您的研究有帮助，请引用本项目。\n\n```Plaintext\n@misc{huang2023lawyer,\n      title={Lawyer LLaMA Technical Report}, \n      author={Quzhe Huang and Mingxu Tao and Chen Zhang and Zhenwei An and Cong Jiang and Zhibin Chen and Zirui Wu and Yansong Feng},\n      year={2023},\n      eprint={2305.15062},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL}\n}\n\n@misc{Lawyer-LLama,\n  title={Lawyer Llama},\n  author={Quzhe Huang and Mingxu Tao and Chen Zhang and Zhenwei An and Cong Jiang and Zhibin Chen and Zirui Wu and Yansong Feng},\n  year={2023},\n  publisher={GitHub},\n  journal={GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama}},\n}\n```\n","[中文] [[英文]](README_en.md)\n\n# Lawyer LLaMA\n\n通过指令微调，LLaMA 模型在通用领域展现出了非常好的表现。但由于缺少合适的数据，少有人探究LLaMA在法律领域的能力。为了弥补这一空白，我们提出了Lawyer LLaMA，一个在法律领域数据上进行了额外训练的模型。\n\nLawyer LLaMA 首先在大规模法律语料上进行了continual pretraining，让它系统的学习中国的法律知识体系。\n在此基础上，我们借助ChatGPT收集了一批对中国国家统一法律职业资格考试客观题（以下简称法考）的分析和对法律咨询的回答，利用收集到的数据对模型进行指令微调，让模型习得将法律知识应用到具体场景中的能力。\n\n我们的模型能够：\n\n1. **掌握中国法律知识：** 能够正确的理解民法、刑法、行政法、诉讼法等常见领域的法律概念。例如，掌握了刑法中的犯罪构成理论，能够从刑事案件的事实描述中识别犯罪主体、犯罪客体、犯罪行为、主观心理状态等犯罪构成要件。模型利用学到的法律概念与理论，能够较好回答法考中的大部分题目。\n\n2. **应用于中国法律实务**：能够以通俗易懂的语言解释法律概念，并且进行基础的法律咨询，涵盖婚姻、借贷、海商、刑事等法律领域。\n\n为了给中文法律大模型的开放研究添砖加瓦，本项目将开源一系列**法律领域的指令微调数据**和**基于LLaMA训练的中文法律大模型的参数** 。\n\n## 新闻\n[2024\u002F4\u002F25] 🆕 发布了新版[**Lawyer LLaMA 2 (`lawyer-llama-13b-v2`)**](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Frun_inference_v2.md)模型参数，以及**更高质量的法律指令微调数据**。\n\n[2023\u002F10\u002F14] 更新了Lawyer LLaMA技术报告[**Lawyer LLaMA: Enhancing LLMs with Legal Knowledge**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15062)，提供了更多的技术细节和研究发现。\n\n[2023\u002F6\u002F8] 开源了[`lawyer-llama-13b-beta1.0`](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Frun_inference_v1.md)模型参数。\n\n[2023\u002F5\u002F25] 开源了更大规模的指令微调数据，发布了包含和用户问题相关法条的对话数据。\n\n[2023\u002F5\u002F25] 发布了[Lawyer LLaMA技术报告](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15062)。\n\n[2023\u002F4\u002F13] 开源了由ChatGPT生成的指令微调数据，包含2k条法考题目的解答及5k条法律咨询回复。\n\n\n## 训练数据\n\n### 法律领域纯文本语料\n\n我们收集了部分公开的法律数据用于模型的continual training，包括法律条文、裁判文书等。\n\n### 通用指令微调数据\n\n[Alpaca-GPT4](https:\u002F\u002Fgithub.com\u002FInstruction-Tuning-with-GPT-4\u002FGPT-4-LLM) 52k 中文，52k 英文。\n\n### 法律指令微调数据\n\n#### 开源数据概览\n| 文件名 | 规模 | 描述 |\n| -- | -- | -- |\n| 🆕 **fakao_gpt4.json** | 1,000 | **GPT-4生成的法考题解答** |\n| 🆕 **zixun_gpt4.json** | 1,000 | **GPT-4基于法条生成的法律咨询回复** |\n| judical_examination.json | 2,000 | GPT-3.5生成的法考题解答 |\n| judical_examination_v2.json | 5,000 | GPT-3.5生成的法考题解答（第二批） |\n| legal_advice.json | 5,000 | GPT-3.5生成的法律咨询回复 |\n| legal_counsel_v2.json | 8,000 | GPT-3.5生成的法律咨询回复（第二批） |\n| legal_counsel_with_article_v2.json | 1,000 | GPT-3.5基于法条生成的法律咨询回复 |\n| legal_counsel_multi_turn_with_article_v2.json | 476 | GPT-3.5基于法条生成的多轮法律咨询对话 |\n\n**在Lawyer LLaMA 2 (`lawyer-llama-13b-v2`)的训练中我们使用了新版的法律微调数据，以下是一些新旧数据的对比。**\n\n#### 法考数据\n我们将[JEC-QA中国法考数据集](https:\u002F\u002Fjecqa.thunlp.org\u002F)中的试题输入ChatGPT，让其生成对每个答案的解析。\n\n以下对比了新旧版本Lawyer LLaMA使用的数据：\n\n\n| **GPT-3.5生成** | **🆕 GPT-4生成** |\n| -- | -- |\n| **问题：** 根据《物权法》，下列关于物权变动的特别规定，表述正确吗？\u003Cbr\u002F>因继承或者受遗赠取得物权的，自继承或者受遗赠开始时发生效力\u003Cbr\u002F>请给出详细的推理过程之后再给出答案。\u003Cbr\u002F>**回复：** 这个表述是正确的。\u003Cbr\u002F>根据《物权法》第X条规定：“因继承或者受遗赠取得物权的，自继承或者受遗赠开始时发生效力。”这意味着，当一个人通过继承或受遗赠获得物权时，这个物权的效力是从这个法定的时间点开始生效，而不是从物权转移的时间开始生效。这是因为，继承或受遗赠是一种法定的方式来获得物权，因此，物权的效力应该从这个法定的时间点开始生效。 | **问题：** 情景分析：张某欠李某2万元，张某有一辆出租车价值4万元，现张某将该车赠与其友王五；李某发现张某无其他值钱的东西，这一赠与会影响张某偿还债务，于是向法院起诉请求撤销张某的赠与行为。法院对该赠与行为的效力应认定。\u003Cbr\u002F>**回复：** 张某欠李某2万元，而张某将其价值4万元的出租车赠与给王五，这一行为在法律上可能构成恶意转移财产，目的在于逃避债务。李某因此向法院提起诉讼，请求撤销张某的赠与行为，以保护自己的债权不受损害。\u003Cbr\u002F>首先，根据《中华人民共和国民法典》第二百五十四条规定，债务人恶意转移财产，损害债权人利益的，债权人有权请求人民法院撤销债务人的行为。在本案中，张某的赠与行为可能被视为恶意转移财产，因为这一行为发生在张某欠债的情况下，且张某无其他值钱的东西，这一赠与行为很可能导致李某的债权无法实现。\u003Cbr\u002F>其次，根据《中华人民共和国民法典》第二百五十五条规定，请求撤销权的行使，不得损害善意第三人的权益。然而，在本案中，王五作为接受赠与的一方，是否具有善意以及是否知道张某的赠与行为会损害债权人（李某）的利益，对于判断赠与行为是否有效是关键。如果王五知道张某的赠与行为是为了逃避偿还债务而进行的，则王五不能被视为善意第三人。\u003Cbr\u002F>因此，结合上述分析，张某的赠与行为损害了债权人李某的利益，且在债务人恶意转移财产的情况下进行，根据《中华人民共和国民法典》相关规定，法院应当认定该赠与行为无效。这样的判决旨在保护债权人的利益，防止债务人通过转移财产逃避债务的行为。因此，法院对该赠与行为的效力应认定为无效。 |\n\n\n\n#### 法律咨询\n我们从[开放数据集](https:\u002F\u002Fopendata.pku.edu.cn\u002Fdataset.xhtml?persistentId=doi:10.18170\u002FDVN\u002FOLO4G8)中收集了一些咨询问题，输入ChatGPT，让ChatGPT扮演律师解答问题。将相关法条一同输入，可以提升ChatGPT生成的质量。\n\n以下对比了新旧版本Lawyer LLaMA使用的数据：\n\n| **GPT-3.5生成** | **🆕 GPT-4生成** |\n| -- | -- |\n| **问题：** 你好，离婚后夫妻的财产是怎么分配的\u003Cbr\u002F>**回复：** 您好，根据《民法典》的相关规定，离婚后夫妻的财产分配可以通过夫妻双方协商处理，如果没有协商一致，则需要由法院根据财产的具体情况，按照照顾子女、女方和无过错方权益的原则进行判决。对于夫妻在婚姻关系存续期间所得的共同财产，包括工资、奖金、劳务报酬、生产、经营、投资的收益、知识产权的收益、继承或者受赠的财产以及其他应当归共同所有的财产，应当平分。而夫妻在婚姻关系存续期间所获得的个人财产，包括婚前财产、因受到人身损害获得的赔偿或者补偿、遗嘱或者赠与合同中确定只归一方的财产、一方专用的生活用品，应当归该方所有。请问你们在婚姻关系存续期间所得的财产情况如何呢？ | **问题：** 我老公经常不回家，我知道他在外面有人，同时干了许多坏事，一年365天，这个情况怎么办呢？\u003Cbr\u002F>**回复：** 根据您提供的情况，您老公长期不回家且外面有其他人，这可能触及到《民法典》第一千零四十二条中关于“禁止有配偶者与他人同居”的规定。若您的老公确实与他人同居，这在法律上构成违法行为，您作为受害一方，有权采取相应的法律行动。\u003Cbr\u002F>首先，您需要收集证据。这包括但不限于您老公与他人同居的证据、他不回家的时间以及他所做的“许多坏事”的相关证据。证据可以是照片、视频、通讯记录、目击者的证词等，这对于您后续的法律行动至关重要。\u003Cbr\u002F>其次，若您老公的行为给您造成了精神伤害或经济损失，根据《民法典》的相关规定，您可以要求赔偿。婚姻法内还规定了夫妻之间忠诚的义务，一旦违反，受损害一方有权要求精神损害赔偿。\u003Cbr\u002F>第三，考虑到您提到的您老公“干了许多坏事”，具体情况需要进一步明确。这些行为是涉及违法犯罪还是道德层面的“坏事”？如果涉及违法犯罪，您可以考虑向相关部门举报。这不仅是维护自己权益的行为，也是对社会责任的履行。\u003Cbr\u002F>最后，关于是否结束婚姻，这是一个需要认真考虑的问题。不忠是许多人选择离婚的重要原因之一，根据您收集的证据，如果决定采取此步骤，可以向人民法院提起离婚诉讼，请求分割夫妻共同财产、争取子女抚养权（如果有）等。\u003Cbr\u002F>在这个过程中，考虑到法律问题的复杂性，您可能需要寻求专业律师的帮助，他们可以为您提供更专业的法律意见，并代表您进行诉讼活动。\u003Cbr\u002F>总而言之，您面临的情况较为复杂，但您完全有权利采取行动保护自己的合法权益。关键在于搜集证据、评估情况，并在必要时寻求专业法律帮助。 |\n\n\n\n## 模型参数\n\n目前公开了以下版本的Lawyer LLaMA：\n* 🆕 `lawyer-llama-13b-v2`: 以[quzhe\u002Fllama_chinese_13B](https:\u002F\u002Fhuggingface.co\u002Fquzhe\u002Fllama_chinese_13B)（对LLaMA-2进行了中文持续预训练）为基础，使用通用instruction和GPT-4生成的法律instruction进行SFT，配有婚姻相关法律检索模块。下载地址和使用方法见[`demo\u002Frun_inference_v2.md`](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Frun_inference_v2.md)。\n* `lawyer-llama-13b-beta1.0`: 以[Chinese-LLaMA-13B](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)为基础，使用通用instruction和GPT-3.5生成的法律instruction进行SFT，配有婚姻相关法律检索模块。下载地址和使用方法见[`demo\u002Frun_inference_v1.md`](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Frun_inference_v1.md)。\n\n\n\n## 系统效果\n\n### 自动评测\n我们使用[Chain-of-Discussion](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.16313)中的200条婚姻家事相关的咨询问题，对以下模型进行测试：\n* 🆕 Lawyer LLaMA 2 (`lawyer-llama-13b-v2`)\n* Lawyer LLaMA 1  (`lawyer-llama-13b-beta1.0`)\n* [DISC-LawLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-LawLLM)\n* GPT-3.5-Turbo \n* Gemini-1.0-Pro\n\n\n使用GPT-4对咨询回复质量打分（满分10分）。在评分的过程中，我们要求GPT-4模型围绕着文本的流畅性、逻辑性、是否引用了无关法条、是否与律师撰写的金标准回复在语义上一致等角度进行评分。各模型表现如下：\n| 模型 | 得分 |\n| -- | -- |\n| 🆕 Lawyer LLaMA 2 | 6.71 | \n| Lawyer LLaMA 1 | 5.61 |\n| DISC-LawLLM | 5.70 |\n| GPT-3.5-Turbo | 6.90 |\n| Gemini-1.0-Pro | 6.94 |\n\n*关于旧版模型`lawyer-llama-13b-beta1.0`的表现，请参考旧版[README](README_old.md).*\n\n### 输出样例\n下面展示了Lawyer LLaMA 2、Lawyer LLaMA 1和DISC-LawLLM对于同一问题的输出。\n\n**问题：** 没有赡养老人就无法继承财产吗？\n\n**相关法条：**\n1. 《民法典》第一千一百三十条：同一顺序继承人继承遗产的份额，一般应当均等。对生活有特殊困难又缺乏劳动能力的继承人，分配遗产时，应当予以照顾。对被继承人尽了主要扶养义务或者与被继承人共同生活的继承人，分配遗产时，可以多分。有扶养能力和有扶养条件的继承人，不尽扶养义务的，分配遗产时，应当不分或者少分。继承人协商同意的，也可以不均等。\n2. 《民法典》第一千一百二十五条：继承人有下列行为之一的，丧失继承权：（一）故意杀害被继承人；（二）为争夺遗产而杀害其他继承人；（三）遗弃被继承人，或者虐待被继承人情节严重；（四）伪造、篡改、隐匿或者销毁遗嘱，情节严重；（五）以欺诈、胁迫手段迫使或者妨碍被继承人设立、变更或者撤回遗嘱，情节严重。继承人有前款第三项至第五项行为，确有悔改表现，被继承人表示宽恕或者事后在遗嘱中将其列为继承人的，该继承人不丧失继承权。受遗赠人有本条第一款规定行为的，丧失受遗赠权。\n3. 《民法典》第一千一百二十七条：遗产按照下列顺序继承：（一）第一顺序：配偶、子女、父母；（二）第二顺序：兄弟姐妹、祖父母、外祖父母。继承开始后，由第一顺序继承人继承，第二顺序继承人不继承；没有第一顺序继承人继承的，由第二顺序继承人继承。本编所称子女，包括婚生子女、非婚生子女、养子女和有扶养关系的继子女。本编所称父母，包括生父母、养父母和有扶养关系的继父母。本编所称兄弟姐妹，包括同父母的兄弟姐妹、同父异母或者同母异父的兄弟姐妹、养兄弟姐妹、有扶养关系的继兄弟姐妹。\n\n**模型输出：**\n| **DISC-LawLLM** | **Lawyer LLaMA 1** | **🆕 Lawyer LLaMA 2** |\n| -- | -- | -- |\n| **GPT-4评分：4分**\u003Cbr\u002F>根据《民法典》规定，子女对父母有赡养扶助的义务。如果成年子女不履行赡养义务的话，缺乏劳动能力或者生活困难的父母，有要求成年子女给付赡养费的权利。所以，在法律上，未尽到赡养老人的义务是会丧失继承权的。\u003Cbr\u002F>但是需要注意的是，是否存在“丧失继承权”的情况应当由法院根据具体案件情况来进行认定，而不能直接将所有未赡养老人的行为一概而论。 | **GPT-4评分：3分**\u003Cbr\u002F>您好，根据中国的法律规定，没有赡养老人就不能成为继承人，但是如果被继承人已经去世，其财产将按照法定继承顺序分配给合法的继承人。同时，如果被继承人在生前曾经给予过抚养或扶养，则在分配遗产时，可以给予一定的照顾。此外，如果被继承人遗嘱中有关于财产分配的规定，则应按照遗嘱执行。请问您的具体情况是什么呢？ | **GPT-4评分：8分**\u003Cbr\u002F>依据您的咨询，关于是否因为没有赡养老就不能继承财产的问题，我们可以从《民法典》的相关规定进行分析。\u003Cbr\u002F>首先，根据《民法典》第一千一百三十条的规定，继承人在继承遗产时，如果对被继承人尽了主要扶养义务或者与被继承人共同生活的继承人，可以多分遗产。这意味着，如果继承人在被继承人生前对其进行了经济上的支持或生活上的照料，那么在继承遗产时可能会得到更多的份额。\u003Cbr\u002F>其次，《民法典》第一千一百二十五条明确指出，继承人有遗弃被继承人，或者虐待被继承人情节严重的，将丧失继承权。这表明，如果继承人在被继承人生前对其进行了遗弃或虐待，导致其生活处于困境，那么在继承遗产时可能会受到限制。\u003Cbr\u002F>然而，《民法典》并没有直接规定说没有赡养老就不能继承财产。继承权的获取主要基于血缘关系和法律规定的继承人范围，而不是直接取决于赡养老的行为。因此，即使在没有履行赡养老义务的情况下，继承人仍然有权继承遗产。\u003Cbr\u002F>综上所述，虽然赡养老行为可能会影响继承权的行使，但不赡养老并不直接剥夺继承权。继承权的获得主要取决于血缘关系和法律规定的继承人资格。如果您有继承权的疑问，建议详细了解自己的继承权情况，并考虑是否有遗弃或虐待行为，以免影响继承权利的行使。 |\n\n\n## 致谢\n\n本项目的开放过程中，获得了以下项目的帮助，在此表示感谢。\n\nhttps:\u002F\u002Fjecqa.thunlp.org\u002F\n\nhttps:\u002F\u002Fopendata.pku.edu.cn\u002Fdataset.xhtml?persistentId=doi:10.18170\u002FDVN\u002FOLO4G8\n\nhttps:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\n\nhttps:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE\n\nhttps:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca\n\nhttps:\u002F\u002Fgithub.com\u002Fpointnetwork\u002Fpoint-alpaca\n\n本项目主要贡献人员：\n\n[黄曲哲](https:\u002F\u002Fandrewzhe.github.io\u002F)\\*，[陶铭绪](https:\u002F\u002Fkobayashikanna01.github.io\u002F)\\*，[张晨](https:\u002F\u002Fluciusssss.github.io\u002F)\\*，[安震威](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=PPJ9MA0AAAAJ)\\*，[姜聪](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=7lLPJuoAAAAJ)，[陈智斌](https:\u002F\u002Fzacharychenpk.github.io\u002F)，[伍子睿](https:\u002F\u002Fwilliamzr.github.io\u002F)，[冯岩松](https:\u002F\u002Fyansongfeng.github.io\u002F)\n\n\\* Equal Contribution\n\n本项目是在冯岩松教授的指导下进行的。\n\n## 社区贡献\n\n不少开发者对Lawyer LLaMA的部署使用进行了分享，在此表示感谢。相关社区贡献列举如下：\n\n* 在通过命令行部署模型时，使用nginx反向代理访问此服务，可参考https:\u002F\u002Fgithub.com\u002FLeetJoe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Fnginx_proxy.md （Credit to @LeetJoe）\n* 对`lawyer-llama-13b-v2`进行Q4量化并通过ollama部署，可参考https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fissues\u002F66 (Credit to @yangxiaoshuai2333)\n\n## **局限性和使用限制**\n\n本项目内容仅供用于学术研究，不得用于商业以及其他会对社会带来危害的用途。使用涉及第三方代码的部分时，请严格遵循相应的开源协议。\n\n本项目中使用的数据由ChatGPT生成，未经严格验证，可能会存在错误内容，在使用时请注意甄别。\n\n本项目中的模型输出并非专业法律咨询结果，可能会包含错误内容。如需法律援助，请从专业人士处获得帮助。\n\n## 引用\n\n如果您使用了本项目的内容，或者认为本项目对您的研究有帮助，请引用本项目。\n\n```Plaintext\n@misc{huang2023lawyer,\n      title={Lawyer LLaMA Technical Report}, \n      author={Quzhe Huang and Mingxu Tao and Chen Zhang and Zhenwei An and Cong Jiang and Zhibin Chen and Zirui Wu and Yansong Feng},\n      year={2023},\n      eprint={2305.15062},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL}\n}\n\n@misc{Lawyer-LLama,\n  title={Lawyer Llama},\n  author={Quzhe Huang and Mingxu Tao and Chen Zhang and Zhenwei An and Cong Jiang and Zhibin Chen and Zirui Wu and Yansong Feng},\n  year={2023},\n  publisher={GitHub},\n  journal={GitHub repository},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama}},\n}\n```","# Lawyer LLaMA 快速上手指南\n\nLawyer LLaMA 是一个基于 LLaMA 架构、针对中国法律领域进行持续预训练和指令微调的大语言模型。它具备理解中国法律知识体系（如民法、刑法等）及提供基础法律咨询的能力。本指南将帮助您快速部署并使用最新版模型 `lawyer-llama-13b-v2`。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 推荐 NVIDIA GPU，显存至少 24GB (用于运行 13B 全精度或半精度模型)。若显存不足，建议使用量化版本（如 Q4_K_M）。\n*   **依赖库**: PyTorch, Transformers, Accelerate, Bitsandbytes (如需量化加载)\n\n建议创建独立的虚拟环境：\n\n```bash\nconda create -n lawyer-llama python=3.10\nconda activate lawyer-llama\n```\n\n安装基础依赖（推荐使用国内镜像源加速）：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install transformers accelerate sentencepiece bitsandbytes -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装步骤\n\nLawyer LLaMA 的参数文件托管在 Hugging Face 上。由于网络原因，国内用户建议使用镜像站下载或通过代码自动下载。\n\n### 1. 获取模型参数\n\n模型主仓库为 `AndrewZhe\u002Flawyer-llama-13b-v2`。您可以使用 `huggingface-cli` 下载，或在代码中直接加载。\n\n**方法 A：使用命令行下载（推荐配合镜像）**\n\n设置 HF 镜像环境变量后下载：\n\n```bash\nexport HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\nhuggingface-cli download AndrewZhe\u002Flawyer-llama-13b-v2 --local-dir .\u002Flawyer-llama-13b-v2\n```\n\n**方法 B：直接在 Python 代码中加载**\n\n后续的使用示例将展示如何通过代码自动拉取模型。\n\n### 2. 克隆项目代码（可选）\n\n如果您需要使用项目自带的推理脚本或查看详细文档，可以克隆仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama.git\ncd lawyer-llama\n```\n\n## 基本使用\n\n以下是最简单的 Python 推理示例，展示如何加载 `lawyer-llama-13b-v2` 模型并进行法律咨询。\n\n### 简单推理示例\n\n创建一个名为 `inference.py` 的文件，写入以下内容：\n\n```python\nfrom transformers import AutoTokenizer, AutoModelForCausalLM\nimport torch\n\n# 配置模型路径\nmodel_name = \"AndrewZhe\u002Flawyer-llama-13b-v2\"\n# 如果已本地下载，可替换为本地路径: \".\u002Flawyer-llama-13b-v2\"\n\n# 加载分词器\ntokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)\n\n# 加载模型\n# 注意：如果显存不足，请添加 load_in_8bit=True 或 load_in_4bit=True (需安装 bitsandbytes)\ndevice_map = \"auto\"\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n    device_map=device_map,\n    torch_dtype=torch.float16,\n    trust_remote_code=True\n)\nmodel.eval()\n\n# 构建输入提示 (Prompt)\n# Lawyer LLaMA 通常遵循特定的指令格式，此处采用通用对话格式\ninput_text = \"\"\"以下是一个法律问题，请根据中国法律给出专业解答：\n问题：没有赡养老人就无法继承财产吗？\n回答：\"\"\"\n\ninputs = tokenizer(input_text, return_tensors=\"pt\").to(model.device)\n\n# 生成回复\nwith torch.no_grad():\n    outputs = model.generate(\n        **inputs,\n        max_new_tokens=512,\n        do_sample=True,\n        temperature=0.7,\n        top_p=0.9,\n        repetition_penalty=1.1\n    )\n\n# 解码输出\nresponse = tokenizer.decode(outputs[0], skip_special_tokens=True)\nprint(response)\n```\n\n运行脚本：\n\n```bash\npython inference.py\n```\n\n### 使用量化版本（低显存方案）\n\n如果您的显存小于 24GB，建议使用社区贡献的量化版本（如通过 Ollama 部署的 Q4 版本），或在加载时开启 4-bit 量化：\n\n```python\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n    device_map=\"auto\",\n    load_in_4bit=True, # 开启 4-bit 量化\n    bnb_4bit_compute_dtype=torch.float16,\n    trust_remote_code=True\n)\n```\n\n> **注意**：模型输出仅供参考，不构成正式法律意见。在处理实际法律事务时，请务必咨询专业律师。","某基层法律援助中心的志愿者律师，正面对大量关于婚姻纠纷与债务追讨的群众咨询，急需快速提供准确的法律指引。\n\n### 没有 lawyer-llama 时\n- **检索效率低下**：面对复杂的案情描述，人工翻阅《民法典》及相关司法解释耗时费力，难以在短时间内定位精准法条。\n- **专业门槛限制**：志愿者非全科专家，遇到如“恶意转移财产撤销权”等具体刑法或民法理论时，容易因知识盲区给出模糊甚至错误的建议。\n- **回复质量参差**：通用大模型缺乏中国法律体系训练，常出现引用失效法规（如旧版《物权法》）或逻辑推理不严谨的情况，增加执业风险。\n- **语言晦涩难懂**：直接将生硬的法条复制给当事人，缺乏通俗化的解释，导致群众听不懂、用不上。\n\n### 使用 lawyer-llama 后\n- **智能法条匹配**：lawyer-llama 能迅速从案情中提取关键要素（如“赠与行为”、“逃避债务”），自动关联《民法典》最新条款并生成详细推理过程。\n- **深度法律推理**：基于法考数据微调，它能准确识别犯罪构成要件或民事侵权细节，像资深律师一样分析“善意第三人”等复杂概念，确保结论可靠。\n- **实务导向回答**：不仅告知法律依据，还能输出分步骤的行动指南（如“首先收集同居证据”、“其次提起撤销诉讼”），直接指导当事人维权。\n- **通俗化解读**：自动将专业术语转化为大白话，既保留了法律的严肃性，又让普通百姓能清晰理解自身权益与应对策略。\n\nlawyer-llama 将原本需要数小时的专业研判压缩至秒级，让基层法律服务既具备了专家级的准确度，又拥有了普惠的温度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAndrewZhe_lawyer-llama_b818dc49.png","AndrewZhe","Quzhe Huang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAndrewZhe_073c1d27.png",null,"Peking University","huangquzhe@pku.edu.cn","andrewzhe.io","https:\u002F\u002Fgithub.com\u002FAndrewZhe",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,990,131,"2026-04-08T09:35:58","Apache-2.0","未说明","需要 NVIDIA GPU（基于 LLaMA-2 13B 架构），显存建议 24GB+ 以运行全精度模型；若使用量化版本（如 Q4），显存需求可降低至约 8-10GB。具体 CUDA 版本未说明，通常需 CUDA 11.7+ 或 12.1+ 以支持较新版本的 PyTorch。","推荐 32GB+（加载 13B 参数模型及处理上下文时需要较大内存），最低未说明。",{"notes":93,"python":89,"dependencies":94},"README 中未直接列出具体的环境配置清单，但指出模型基于 LLaMA-2 中文持续预训练版本（quzhe\u002Fllama_chinese_13B）。新版模型（lawyer-llama-13b-v2）配有婚姻相关法律检索模块。社区贡献中提到可使用 ollama 部署量化后的 Q4 版本以降低硬件门槛。模型参数需单独下载，且数据由 ChatGPT 生成，仅供学术研究，不可用于专业法律咨询。",[95,96,97,98,99],"transformers","torch","accelerate","peft","bitsandbytes",[35,14],[102,103,104,105,106,107,108,109,110],"alpaca","llama","legal-ai","nlp","plm","pretrained-language-model","large-language-models","llm","pretrained-models","2026-03-27T02:49:30.150509","2026-04-12T21:14:17.302339",[114,119,124,129,134,139,144],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},31006,"加载模型时提示找不到 pytorch_model.bin 文件怎么办？","这通常是因为模型文件缺失或目录结构不正确。维护者建议检查目录下是否存在 pytorch_model.bin.index.json 文件。如果问题依旧，可能是 transformers 库的兼容性问题，建议前往 Hugging Face transformers 仓库提交 issue 排查具体原因。","https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fissues\u002F30",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},31007,"继续预训练（Continue Pretraining）13B 模型需要多少计算资源和时间？","如果使用全参数微调（Full Parameter Fine-tuning），至少需要 8 张显卡，预计训练时间在 2 周以上。数据量方面，通用语料和法律领域数据均建议在 10B token 量级，且数据量越多效果越好。","https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fissues\u002F17",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},31008,"继续预训练是使用全参数微调还是 LoRA 合并？","该项目在继续预训练阶段使用的是全参数微调（Full Parameter），而非 LoRA 后合并的方式。","https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fissues\u002F6",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},31009,"解密模型文件时出现 Checksums do not match 错误如何解决？","该错误通常由文件损坏引起。维护者建议使用新版的 Lawyer LLaMA 2 模型，新版模型已取消加密机制，无需解密即可直接使用。相关运行指南可参考：https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fblob\u002Fmain\u002Fdemo\u002Frun_inference_v2.md","https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fissues\u002F58",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},31010,"法条检索模块的百度网盘链接失效了，如何获取数据？","原百度网盘链接已不再维护，现在可以直接从 Hugging Face 下载该数据集。下载地址为：https:\u002F\u002Fhuggingface.co\u002Fpkupie\u002Fmarriage_law_retrieval","https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fissues\u002F57",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},31011,"为什么模型倾向于将提问者假定为案件当事人？","这是基于训练数据统计得出的现象，因为数据分析显示大多数提问者询问的是与自身相关的问题，因此模型未对“身份认定”做特殊区分处理。维护者认同咨询者不一定就是当事人，未来版本可能会针对此问题进行针对性改进，使回答更加客观中立。","https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fissues\u002F5",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},31012,"扩充词表是否会降低模型的中文能力？","项目维护者表示并没有“扩充词表会降低中文能力”这一结论。扩充词表能显著提升解码速度，但目前尚无明确实验数据支持其是否能直接带来中文能力的提升，需结合充足的增量预训练语料来观察效果。","https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Fissues\u002F3",[]]