[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zhang17173--Event-Extraction":3,"tool-zhang17173--Event-Extraction":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151314,2,"2026-04-11T23:32:58",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":75,"owner_website":75,"owner_url":77,"languages":78,"stars":87,"forks":88,"last_commit_at":89,"license":75,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":107,"github_topics":108,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":128},6812,"zhang17173\u002FEvent-Extraction","Event-Extraction","基于法律裁判文书的事件抽取及其应用，包括数据的分词、词性标注、命名实体识别、事件要素抽取和判决结果预测等内容","Event-Extraction 是一个专注于法律裁判文书处理的开源项目，旨在从复杂的交通肇事案件文本中自动抽取关键案情要素，并辅助进行判决结果预测与案件相似度分析。它有效解决了法律文本非结构化程度高、人工梳理耗时费力以及类案检索困难等痛点，将杂乱的文书转化为可计算的结构化数据。\n\n该工具特别适合法律科技领域的开发者、人工智能研究人员以及对司法大数据感兴趣的分析人员使用。其独特亮点在于构建了一套完整的端到端处理流程：不仅集成了 LTP 进行高精度的分词、词性标注和命名实体识别，还创新性地结合 CRF 模型实现事件要素的精准抽取，并进一步利用 PyTorch 搭建深度学习模型完成判决预测。项目设计灵活，既支持依赖完整环境重新训练模型以探索算法优化，也允许用户直接复用内置的中间缓存结果快速验证应用逻辑，降低了法律 NLP 任务的入门门槛，是研究智慧司法应用的实用参考范本。","# 针对法律裁判文书的案情抽取及其应用\n\n## 1. 项目简介\n本项目以交通肇事案件裁判文书为研究对象，完成一条完整的法律文本处理流程：\n\n1. 数据预处理\n2. 分词、词性标注、命名实体识别\n3. 基于 CRF 的事件要素抽取\n4. 基于抽取结果的判决结果预测\n5. 案件相似度分析\n\n这个仓库按“处理步骤”组织目录，而不是按标准 Python 包组织。\n\n## 2. 目录说明\n- `01数据预处理\u002F`：清洗原始案件文本，生成预处理结果\n- `02分词\u002F`：分词算法实验，主流程使用 LTP\n- `03基于CRF的事件要素抽取\u002F`：CRF 训练、测试、结果展示\n- `04应用\u002F`：案件相似度应用示例\n- `05其他工具\u002F`：数据库导出、Excel 合并、标注检查等工具\n- `06判决结果预测\u002F`：特征提取、多分类、回归\n- `07案件相似度\u002F`：针对单个案件抽取特征并查找相似案件\n\n## 3. 先理解两种运行目标\n这个项目有两种常见使用方式：\n\n### 方式 A：先把项目跑通\n只安装基础 Python 依赖，尽量复用仓库中已有的中间结果。\n\n### 方式 B：完整重跑全部流程\n除了基础依赖，还需要自己安装：\n- `pyltp`\n- LTP 模型文件\n- `CRF++`\n\n建议先完成“方式 A”。\n\n## 4. 基础依赖安装\n基础依赖是指：\n\n- `numpy`\n- `scipy`\n- `gensim`\n- `torch`\n- `jieba`\n- `xlrd`\n- `xlwt`\n- `pymysql`\n\n仓库已经提供：\n\n```bash\npip install -r requirements.txt\n```\n\n## 5. macOS 安装说明\n\n### 5.1 推荐做法\n建议使用 Python 虚拟环境，不要直接装到系统 Python 里。\n\n### 5.2 创建虚拟环境\n在项目根目录执行：\n\n```bash\npython3 -m venv .venv\nsource .venv\u002Fbin\u002Factivate\npython -m pip install --upgrade pip\npip install -r requirements.txt\n```\n\n### 5.3 先检查环境\n```bash\npython run_project.py --step check\n```\n\n### 5.4 推荐首次运行方式\n```bash\npython run_project.py --skip-train\n```\n\n如果能正常执行，再尝试：\n\n```bash\npython run_project.py\n```\n\n### 5.5 macOS 上的额外说明\n- 仓库里自带的 `crf_test.exe` 是 Windows 版本，macOS 上通常不能直接运行\n- 因此在 macOS 上，项目会优先使用仓库已有的 CRF 缓存结果\n- `pyltp` 在新版本 macOS 上可能不容易直接安装成功，如果只是想先跑通项目，可以先不装\n\n### 5.6 如果你想在 macOS 上完整重跑\n你需要额外准备：\n\n1. 可用的 `pyltp`\n2. LTP 模型目录，例如 `ltp_data_v3.4.0`\n3. macOS 可执行版本的 `crf_test`\n\n然后设置环境变量：\n\n```bash\nexport LTP_DATA_DIR=\u002F你的路径\u002Fltp_data_v3.4.0\nexport CRF_TEST_BIN=\u002F你的路径\u002Fcrf_test\n```\n\n再执行：\n\n```bash\npython run_project.py --no-cache\n```\n\n## 6. Windows 安装说明\n\n### 6.1 推荐做法\n建议使用 `venv` 或 Conda。下面先给出最通用的 `venv` 方式。\n\n### 6.2 创建虚拟环境\n在项目根目录执行：\n\n```bat\npy -3 -m venv .venv\n.venv\\Scripts\\activate\npython -m pip install --upgrade pip\npip install -r requirements.txt\n```\n\n### 6.3 先检查环境\n```bat\npython run_project.py --step check\n```\n\n### 6.4 推荐首次运行方式\n```bat\npython run_project.py --skip-train\n```\n\n### 6.5 Windows 上的额外说明\n- 仓库中 `03基于CRF的事件要素抽取\u002F实验\u002F05\u002F` 下带有 `crf_test.exe`\n- 因此 Windows 上通常更容易重新跑 CRF 相关步骤\n- 但如果你的系统架构、权限或运行库不匹配，也可能还是无法直接运行，这时同样可以先使用缓存结果\n\n### 6.6 如果你想在 Windows 上完整重跑\n除了基础依赖，还需要准备：\n\n1. `pyltp`\n2. LTP 模型目录\n3. 可运行的 `crf_test.exe`\n\n设置环境变量示例：\n\n```bat\nset LTP_DATA_DIR=D:\\你的路径\\ltp_data_v3.4.0\nset CRF_TEST_BIN=D:\\你的路径\\crf_test.exe\n```\n\n然后执行：\n\n```bat\npython run_project.py --no-cache\n```\n\n## 7. LTP 和 CRF++ 的作用\n\n### 7.1 LTP 是做什么的\nLTP 负责：\n- 分词\n- 词性标注\n- 命名实体识别\n\n对应脚本：\n\n```bash\npython \"02分词\u002F分词算法\u002F05LTP分词\u002FLTP分词_词性标注_命名实体识别.py\"\n```\n\n### 7.2 CRF++ 是做什么的\nCRF++ 负责事件要素抽取，也就是把前一步的分词标注结果进一步转成结构化标签。\n\n如果没有可运行的 `crf_test`，仓库会尽量使用已有缓存结果继续执行。\n\n## 8. 第一次运行建议\n如果你只是想先把项目跑通，不要一开始就纠结所有依赖是否齐全。仓库中已经保留了一部分中间结果文件，脚本会优先复用这些缓存。\n\n推荐顺序如下：\n\n### 第一步：检查环境\n```bash\npython run_project.py --step check\n```\n\n这个命令会告诉你：\n- Python 路径\n- CRF 模型是否存在\n- `crf_test` 是否可用\n- 仓库里是否已有缓存结果\n\n### 第二步：先跑通主流程，不训练模型\n```bash\npython run_project.py --skip-train\n```\n\n这样可以先生成或复用中间数据，不必等待训练。\n\n### 第三步：再运行完整流程\n```bash\npython run_project.py\n```\n\n如果你的环境已经装好了 PyTorch、LTP、CRF++，这个命令会尽量完整执行整个主流程。\n\n## 9. 一键运行脚本说明\n统一入口是根目录下的：\n\n```bash\npython run_project.py\n```\n\n支持的常用参数：\n\n- `python run_project.py --step check`\n  - 只检查环境和缓存\n- `python run_project.py --step features`\n  - 只执行“事件抽取结果 -> 特征文件”这一步\n- `python run_project.py --skip-train`\n  - 执行主流程，但跳过模型训练\n- `python run_project.py --no-cache`\n  - 不使用仓库中的缓存结果，强制依赖真实环境重新计算\n\n## 10. 如果想按步骤单独运行\n\n### 10.1 数据预处理\n```bash\npython 01数据预处理\u002Fdata_preprocess.py\n```\n\n输入：\n- `01数据预处理\u002Foriginal_data.txt`\n\n输出：\n- `01数据预处理\u002Fpreprocessed_data.txt`\n- `01数据预处理\u002Fprocessed_data.txt`\n\n### 10.2 LTP 分词、词性标注、命名实体识别\n```bash\npython \"02分词\u002F分词算法\u002F05LTP分词\u002FLTP分词_词性标注_命名实体识别.py\"\n```\n\n输出：\n- `02分词\u002F分词算法\u002F05LTP分词\u002F分词_词性标注_命名实体识别_结果.txt`\n\n如果没有安装 `pyltp`，这一步可能无法重新执行，但不影响使用已有缓存继续学习后续流程。\n\n### 10.3 生成特征\n```bash\npython run_project.py --step features\n```\n\n输出：\n- `06判决结果预测\u002F特征提取\u002Fdata.csv`：分类任务数据\n- `06判决结果预测\u002F特征提取\u002Fdata_for_regression.csv`：回归任务数据\n\n### 10.4 生成多分类训练数据\n```bash\npython \"06判决结果预测\u002Fpytorch多分类\u002F数据预处理.py\"\n```\n\n输出目录：\n- `06判决结果预测\u002Fpytorch多分类\u002Fdata\u002F`\n\n### 10.5 训练多分类模型\n```bash\npython \"06判决结果预测\u002Fpytorch多分类\u002Fnet.py\"\n```\n\n结果文件：\n- `06判决结果预测\u002Fpytorch多分类\u002Fresult.csv`\n\n### 10.6 训练回归模型\n```bash\npython \"06判决结果预测\u002Fpytorch回归\u002F数据预处理.py\"\npython \"06判决结果预测\u002Fpytorch回归\u002Fnet.py\"\n```\n\n## 11. 相似案件分析怎么跑\n如果你想对单个案件做特征提取并查找相似案件：\n\n1. 把案件文本写入 `07案件相似度\u002Fcase.txt`\n2. 运行：\n\n```bash\npython \"07案件相似度\u002F案件特征提取.py\"\n```\n\n输出：\n- `07案件相似度\u002Fpattern.csv`\n- `07案件相似度\u002F类似案件.txt`\n\n## 12. 常见问题\n\n### 12.1 提示“未安装 pyltp”\n说明你当前机器没有安装 LTP Python 接口。可以：\n\n1. 先继续使用仓库已有缓存结果\n2. 或者自己安装 `pyltp` 并设置 `LTP_DATA_DIR`\n\n### 12.2 提示 `crf_test` 不可用\n常见原因是：\n- 没安装 CRF++\n- 当前系统是 macOS \u002F Linux，但仓库内自带的是 Windows 版 `crf_test.exe`\n- Windows 上的 `crf_test.exe` 和当前系统环境不匹配\n\n这时项目会尽量使用已有缓存结果继续执行。\n\n### 12.3 为什么有些步骤没有重新计算？\n因为项目默认优先使用缓存，目的是降低初次运行门槛。如果你想强制重新生成，请使用：\n\n```bash\npython run_project.py --no-cache\n```\n\n### 12.4 哪一步最容易出问题？\n通常是：\n- LTP 模型路径没配置好\n- CRF++ 不可执行\n- Python 环境缺少依赖\n\n建议先运行：\n\n```bash\npython run_project.py --step check\n```\n\n## 13. 推荐命令顺序\n如果你希望先确认环境，再逐步执行主流程，推荐命令顺序如下：\n\n```bash\npython run_project.py --step check\npython run_project.py --skip-train\npython run_project.py\n```\n","# 针对法律裁判文书的案情抽取及其应用\n\n## 1. 项目简介\n本项目以交通肇事案件裁判文书为研究对象，完成一条完整的法律文本处理流程：\n\n1. 数据预处理\n2. 分词、词性标注、命名实体识别\n3. 基于 CRF 的事件要素抽取\n4. 基于抽取结果的判决结果预测\n5. 案件相似度分析\n\n这个仓库按“处理步骤”组织目录，而不是按标准 Python 包组织。\n\n## 2. 目录说明\n- `01数据预处理\u002F`：清洗原始案件文本，生成预处理结果\n- `02分词\u002F`：分词算法实验，主流程使用 LTP\n- `03基于CRF的事件要素抽取\u002F`：CRF 训练、测试、结果展示\n- `04应用\u002F`：案件相似度应用示例\n- `05其他工具\u002F`：数据库导出、Excel 合并、标注检查等工具\n- `06判决结果预测\u002F`：特征提取、多分类、回归\n- `07案件相似度\u002F`：针对单个案件抽取特征并查找相似案件\n\n## 3. 先理解两种运行目标\n这个项目有两种常见使用方式：\n\n### 方式 A：先把项目跑通\n只安装基础 Python 依赖，尽量复用仓库中已有的中间结果。\n\n### 方式 B：完整重跑全部流程\n除了基础依赖，还需要自己安装：\n- `pyltp`\n- LTP 模型文件\n- `CRF++`\n\n建议先完成“方式 A”。\n\n## 4. 基础依赖安装\n基础依赖是指：\n\n- `numpy`\n- `scipy`\n- `gensim`\n- `torch`\n- `jieba`\n- `xlrd`\n- `xlwt`\n- `pymysql`\n\n仓库已经提供：\n\n```bash\npip install -r requirements.txt\n```\n\n## 5. macOS 安装说明\n\n### 5.1 推荐做法\n建议使用 Python 虚拟环境，不要直接装到系统 Python 里。\n\n### 5.2 创建虚拟环境\n在项目根目录执行：\n\n```bash\npython3 -m venv .venv\nsource .venv\u002Fbin\u002Factivate\npython -m pip install --upgrade pip\npip install -r requirements.txt\n```\n\n### 5.3 先检查环境\n```bash\npython run_project.py --step check\n```\n\n### 5.4 推荐首次运行方式\n```bash\npython run_project.py --skip-train\n```\n\n如果能正常执行，再尝试：\n\n```bash\npython run_project.py\n```\n\n### 5.5 macOS 上的额外说明\n- 仓库里自带的 `crf_test.exe` 是 Windows 版本，macOS 上通常不能直接运行\n- 因此在 macOS 上，项目会优先使用仓库已有的 CRF 缓存结果\n- `pyltp` 在新版本 macOS 上可能不容易直接安装成功，如果只是想先跑通项目，可以先不装\n\n### 5.6 如果你想在 macOS 上完整重跑\n你需要额外准备：\n\n1. 可用的 `pyltp`\n2. LTP 模型目录，例如 `ltp_data_v3.4.0`\n3. macOS 可执行版本的 `crf_test`\n\n然后设置环境变量：\n\n```bash\nexport LTP_DATA_DIR=\u002F你的路径\u002Fltp_data_v3.4.0\nexport CRF_TEST_BIN=\u002F你的路径\u002Fcrf_test\n```\n\n再执行：\n\n```bash\npython run_project.py --no-cache\n```\n\n## 6. Windows 安装说明\n\n### 6.1 推荐做法\n建议使用 `venv` 或 Conda。下面先给出最通用的 `venv` 方式。\n\n### 6.2 创建虚拟环境\n在项目根目录执行：\n\n```bat\npy -3 -m venv .venv\n.venv\\Scripts\\activate\npython -m pip install --upgrade pip\npip install -r requirements.txt\n```\n\n### 6.3 先检查环境\n```bat\npython run_project.py --step check\n```\n\n### 6.4 推荐首次运行方式\n```bat\npython run_project.py --skip-train\n```\n\n### 6.5 Windows 上的额外说明\n- 仓库中 `03基于CRF的事件要素抽取\u002F实验\u002F05\u002F` 下带有 `crf_test.exe`\n- 因此 Windows 上通常更容易重新跑 CRF 相关步骤\n- 但如果你的系统架构、权限或运行库不匹配，也可能还是无法直接运行，这时同样可以先使用缓存结果\n\n### 6.6 如果你想在 Windows 上完整重跑\n除了基础依赖，还需要准备：\n\n1. `pyltp`\n2. LTP 模型目录\n3. 可运行的 `crf_test.exe`\n\n设置环境变量示例：\n\n```bat\nset LTP_DATA_DIR=D:\\你的路径\\ltp_data_v3.4.0\nset CRF_TEST_BIN=D:\\你的路径\\crf_test.exe\n```\n\n然后执行：\n\n```bat\npython run_project.py --no-cache\n```\n\n## 7. LTP 和 CRF++ 的作用\n\n### 7.1 LTP 是做什么的\nLTP 负责：\n- 分词\n- 词性标注\n- 命名实体识别\n\n对应脚本：\n\n```bash\npython \"02分词\u002F分词算法\u002F05LTP分词\u002FLTP分词_词性标注_命名实体识别.py\"\n```\n\n### 7.2 CRF++ 是做什么的\nCRF++ 负责事件要素抽取，也就是把前一步的分词标注结果进一步转成结构化标签。\n\n如果没有可运行的 `crf_test`，仓库会尽量使用已有缓存结果继续执行。\n\n## 8. 第一次运行建议\n如果你只是想先把项目跑通，不要一开始就纠结所有依赖是否齐全。仓库中已经保留了一部分中间结果文件，脚本会优先复用这些缓存。\n\n推荐顺序如下：\n\n### 第一步：检查环境\n```bash\npython run_project.py --step check\n```\n\n这个命令会告诉你：\n- Python 路径\n- CRF 模型是否存在\n- `crf_test` 是否可用\n- 仓库里是否已有缓存结果\n\n### 第二步：先跑通主流程，不训练模型\n```bash\npython run_project.py --skip-train\n```\n\n这样可以先生成或复用中间数据，不必等待训练。\n\n### 第三步：再运行完整流程\n```bash\npython run_project.py\n```\n\n如果你的环境已经装好了 PyTorch、LTP、CRF++，这个命令会尽量完整执行整个主流程。\n\n## 9. 一键运行脚本说明\n统一入口是根目录下的：\n\n```bash\npython run_project.py\n```\n\n支持的常用参数：\n\n- `python run_project.py --step check`\n  - 只检查环境和缓存\n- `python run_project.py --step features`\n  - 只执行“事件抽取结果 -> 特征文件”这一步\n- `python run_project.py --skip-train`\n  - 执行主流程，但跳过模型训练\n- `python run_project.py --no-cache`\n  - 不使用仓库中的缓存结果，强制依赖真实环境重新计算\n\n## 10. 如果想按步骤单独运行\n\n### 10.1 数据预处理\n```bash\npython 01数据预处理\u002Fdata_preprocess.py\n```\n\n输入：\n- `01数据预处理\u002Foriginal_data.txt`\n\n输出：\n- `01数据预处理\u002Fpreprocessed_data.txt`\n- `01数据预处理\u002Fprocessed_data.txt`\n\n### 10.2 LTP 分词、词性标注、命名实体识别\n```bash\npython \"02分词\u002F分词算法\u002F05LTP分词\u002FLTP分词_词性标注_命名实体识别.py\"\n```\n\n输出：\n- `02分词\u002F分词算法\u002F05LTP分词\u002F分词_词性标注_命名实体识别_结果.txt`\n\n如果没有安装 `pyltp`，这一步可能无法重新执行，但不影响使用已有缓存继续学习后续流程。\n\n### 10.3 生成特征\n```bash\npython run_project.py --step features\n```\n\n输出：\n- `06判决结果预测\u002F特征提取\u002Fdata.csv`：分类任务数据\n- `06判决结果预测\u002F特征提取\u002Fdata_for_regression.csv`：回归任务数据\n\n### 10.4 生成多分类训练数据\n```bash\npython \"06判决结果预测\u002Fpytorch多分类\u002F数据预处理.py\"\n```\n\n输出目录：\n- `06判决结果预测\u002Fpytorch多分类\u002Fdata\u002F`\n\n### 10.5 训练多分类模型\n```bash\npython \"06判决结果预测\u002Fpytorch多分类\u002Fnet.py\"\n```\n\n结果文件：\n- `06判决结果预测\u002Fpytorch多分类\u002Fresult.csv`\n\n### 10.6 训练回归模型\n```bash\npython \"06判决结果预测\u002Fpytorch回归\u002F数据预处理.py\"\npython \"06判决结果预测\u002Fpytorch回归\u002Fnet.py\"\n```\n\n## 11. 相似案件分析怎么跑\n如果你想对单个案件做特征提取并查找相似案件：\n\n1. 把案件文本写入 `07案件相似度\u002Fcase.txt`\n2. 运行：\n\n```bash\npython \"07案件相似度\u002F案件特征提取.py\"\n```\n\n输出：\n- `07案件相似度\u002Fpattern.csv`\n- `07案件相似度\u002F类似案件.txt`\n\n## 12. 常见问题\n\n### 12.1 提示“未安装 pyltp”\n说明你当前机器没有安装 LTP Python 接口。可以：\n\n1. 先继续使用仓库已有缓存结果\n2. 或者自己安装 `pyltp` 并设置 `LTP_DATA_DIR`\n\n### 12.2 提示 `crf_test` 不可用\n常见原因是：\n- 没安装 CRF++\n- 当前系统是 macOS \u002F Linux，但仓库内自带的是 Windows 版 `crf_test.exe`\n- Windows 上的 `crf_test.exe` 和当前系统环境不匹配\n\n这时项目会尽量使用已有缓存结果继续执行。\n\n### 12.3 为什么有些步骤没有重新计算？\n因为项目默认优先使用缓存，目的是降低初次运行门槛。如果你想强制重新生成，请使用：\n\n```bash\npython run_project.py --no-cache\n```\n\n### 12.4 哪一步最容易出问题？\n通常是：\n- LTP 模型路径没配置好\n- CRF++ 不可执行\n- Python 环境缺少依赖\n\n建议先运行：\n\n```bash\npython run_project.py --step check\n```\n\n## 13. 推荐命令顺序\n如果你希望先确认环境，再逐步执行主流程，推荐命令顺序如下：\n\n```bash\npython run_project.py --step check\npython run_project.py --skip-train\npython run_project.py\n```","# Event-Extraction 快速上手指南\n\n本指南帮助开发者快速运行针对法律裁判文书（特别是交通肇事案件）的事件抽取与应用项目。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**：Windows \u002F macOS \u002F Linux\n- **Python 版本**：推荐 Python 3.6+\n- **虚拟环境**：强烈建议使用 `venv` 或 `Conda` 隔离环境\n\n### 前置依赖\n项目分为“基础运行”和“完整重跑”两种模式：\n\n1. **基础运行（推荐新手）**：\n   - 仅需安装基础 Python 库，直接复用仓库自带的中间结果缓存。\n   - 无需安装 LTP 模型或 CRF++ 二进制文件。\n\n2. **完整重跑（进阶）**：\n   - **pyltp**：用于分词、词性标注和命名实体识别。\n   - **LTP 模型文件**：如 `ltp_data_v3.4.0`。\n   - **CRF++**：用于事件要素抽取，需确保 `crf_test` 可执行。\n\n## 2. 安装步骤\n\n### 第一步：创建虚拟环境\n在项目根目录下执行以下命令：\n\n**macOS \u002F Linux:**\n```bash\npython3 -m venv .venv\nsource .venv\u002Fbin\u002Factivate\npython -m pip install --upgrade pip\n```\n\n**Windows:**\n```bat\npy -3 -m venv .venv\n.venv\\Scripts\\activate\npython -m pip install --upgrade pip\n```\n\n### 第二步：安装基础依赖\n使用国内镜像源加速安装（推荐）：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **注意**：若需完整重跑流程，请自行额外安装 `pyltp` 并配置 `LTP_DATA_DIR` 和 `CRF_TEST_BIN` 环境变量。\n\n## 3. 基本使用\n\n项目提供统一入口脚本 `run_project.py`，建议按以下顺序操作：\n\n### 3.1 检查环境状态\n确认 Python 路径、模型文件及缓存情况：\n```bash\npython run_project.py --step check\n```\n\n### 3.2 快速运行主流程（跳过训练）\n首次运行推荐使用此模式，利用现有缓存快速打通流程：\n```bash\npython run_project.py --skip-train\n```\n\n### 3.3 运行完整流程\n若环境已配置齐全（含 LTP 和 CRF++），可执行完整流程：\n```bash\npython run_project.py\n```\n\n### 3.4 单步功能示例\n\n**仅生成特征文件：**\n```bash\npython run_project.py --step features\n```\n\n**单案件相似度分析：**\n1. 将待分析案情文本写入 `07 案件相似度\u002Fcase.txt`\n2. 执行提取与匹配：\n```bash\npython \"07 案件相似度\u002F案件特征提取.py\"\n```\n输出结果位于 `07 案件相似度\u002F类似案件.txt`。\n\n### 3.5 强制重新计算\n若需忽略缓存并重新执行所有步骤：\n```bash\npython run_project.py --no-cache\n```","某地方法院智慧法庭项目组正试图从海量历史交通肇事裁判文书中挖掘数据价值，以辅助法官进行类案检索和量刑参考。\n\n### 没有 Event-Extraction 时\n- **人工提取效率极低**：法务助理需逐篇阅读冗长的判决书，手动摘录事故时间、地点、责任认定等关键要素，处理百份文档需耗时数周。\n- **数据结构混乱难用**：非结构化文本导致无法直接进行统计分析，不同文书对同一事实的描述差异巨大，难以建立统一的案件特征库。\n- **类案匹配依靠直觉**：法官在寻找相似案例时，仅能依赖关键词搜索，常因表述不同而漏掉关键判例，导致“同案不同判”风险增加。\n- **量刑预测缺乏依据**：由于缺乏结构化的事件要素作为特征输入，无法构建数学模型来辅助预测判决结果，只能完全依赖个人经验。\n\n### 使用 Event-Extraction 后\n- **自动化要素抽取**：Event-Extraction 利用 LTP 分词与 CRF 模型，秒级完成从原始文本到结构化事件要素（如肇事原因、赔偿金额）的转换，效率提升百倍。\n- **标准化数据沉淀**：自动将非结构化文书转化为标准 CSV 特征数据，直接生成可用于机器学习的高质量数据集，消除了人工标注的主观误差。\n- **精准类案智能推送**：基于抽取的结构化特征计算案件相似度，系统能精准推荐历史相似判例，帮助法官快速统一裁判尺度。\n- **量化辅助量刑决策**：利用提取的事件特征训练预测模型，为新收案件提供刑期或赔偿金额的量化参考区间，让判决更具科学依据。\n\nEvent-Extraction 通过将法律文本转化为可计算的结构化数据，实现了从“人工阅卷”到“智能辅助决策”的质的飞跃。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhang17173_Event-Extraction_8df0e4f7.png","zhang17173","如驴得水","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzhang17173_5afa1139.jpg",null,"zhangshiwei17173@outlook.com","https:\u002F\u002Fgithub.com\u002Fzhang17173",[79,83],{"name":80,"color":81,"percentage":82},"Python","#3572A5",93.1,{"name":84,"color":85,"percentage":86},"Perl","#0298c3",6.9,606,135,"2026-04-11T01:46:15",4,"macOS, Windows","未说明",{"notes":94,"python":95,"dependencies":96},"项目支持 macOS 和 Windows。若仅需跑通流程（方式 A），可利用仓库自带的缓存结果，无需安装 pyltp 和 CRF++；若需完整重跑（方式 B），则需额外安装 pyltp、LTP 模型文件及对应系统的 crf_test 可执行文件，并配置 LTP_DATA_DIR 和 CRF_TEST_BIN 环境变量。macOS 用户需注意仓库自带的 crf_test.exe 为 Windows 版本，无法直接运行。建议使用虚拟环境（venv 或 Conda）进行管理。","3.x (推荐使用 python3 或 py -3)",[97,98,99,100,101,102,103,104,105,106],"numpy","scipy","gensim","torch","jieba","xlrd","xlwt","pymysql","pyltp (可选，用于完整重跑流程)","CRF++ (可选，用于完整重跑流程)",[14,35],[109,110,111,112,113,114],"nlp","event-extraction","judgment","cnn-classification","word2vec","deep-learning","2026-03-27T02:49:30.150509","2026-04-12T13:58:52.446080",[118,123],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},30730,"进行事件抽取或命名实体识别（NER）时，是否需要对数据进行分词？","如果是为了做 NER（命名实体识别），在标注数据的时候一般是需要分词或者分字的，这有助于提高标注的准确性和模型的处理效果。","https:\u002F\u002Fgithub.com\u002Fzhang17173\u002FEvent-Extraction\u002Fissues\u002F7",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},30731,"如果 OpenLaw 等常用法律数据源无法访问，还有哪些渠道可以获取法律文书数据？","当 OpenLaw 等接口不可用时，可以尝试寻找可用的爬虫工具去抓取“裁判文书网”上的公开数据作为替代方案。","https:\u002F\u002Fgithub.com\u002Fzhang17173\u002FEvent-Extraction\u002Fissues\u002F6",[]]