[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-r2d4--rellm":3,"tool-r2d4--rellm":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":96,"github_topics":97,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":100,"updated_at":101,"faqs":102,"releases":103},5298,"r2d4\u002Frellm","rellm","Exact structure out of any language model completion.","rellm 是一款专为大语言模型设计的开源工具，旨在让 AI 生成的文本严格符合用户预设的结构格式。它通过引入正则表达式（Regular Expressions），解决了大模型在输出 JSON、XML、特定日期格式或固定模板时容易“自由发挥”、产生语法错误或无关内容的痛点。无论是需要精确的数据提取，还是希望模型仅回答“是”或“否”，rellm 都能确保输出结果完全匹配指定模式。\n\n该工具特别适合开发者和技术研究人员使用，尤其是那些需要将非结构化的大模型输出转化为可被程序直接解析的结构化数据的场景。其核心技术亮点在于“生成前过滤”机制：在模型生成每一个 token 之前，rellm 会利用正则表达式对所有可能的候选词进行实时测试，并屏蔽掉不符合模式的选项。这种方法不仅强制模型遵循语法约束，还能在某种程度上提升小参数模型的生成质量。通过简单的 Python 接口，用户即可轻松集成该功能，让大语言模型的输出变得更加可控、可靠且易于处理。","# ReLLM\nRegular Expressions for Language Model Completions.\n\n> *Some people, when confronted with a problem, think\n“I know, I'll use regular expressions.”   Now they have two problems.*\n\nExact structure out of any language model completion with regular expressions.\n\nReturn specific syntactic structure (e.g. JSON or XML), or specific semantic structure (e.g. a date or a number), or even complete templates (e.g. a sentence with a blank to fill in).\n\nHow does it work? ReLLM filters non-matching tokens pre-generation. For each token, ReLLM tests every possible completion against a partial regex. For the potential completions that do not match the pattern, ReLLM masks the logits so that the language model does not generate them.\n\n*If you are looking for a hosted version of ReLLM, check out the Thiggle Regex Completion API at [github.com\u002Fthiggle\u002Fapi](https:\u002F\u002Fgithub.com\u002Fthiggle\u002Fapi)*\n\n### Installation\n```\npip install rellm\n```\n\nThe preliminary results are interesting -- even for small models, constraining the token space with ReLLM can improve the quality of the completions. Not to mention the ability to more easily parse the output programmatically. Take a look at some of the [examples](examples). For an example of parsing a context-free grammar (like JSON) with ReLLM, see [r2d4\u002Fparserllm](https:\u002F\u002Fgithub.com\u002Fr2d4\u002Fparserllm).\n\n```python\nimport regex\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\nfrom rellm import complete_re\n\nmodel = AutoModelForCausalLM.from_pretrained(\"gpt2\")\ntokenizer = AutoTokenizer.from_pretrained(\"gpt2\")\n\nprompt = \"ReLLM, the best way to get structured data out of LLMs, is an acronym for \"\npattern = regex.compile(r'Re[a-z]+ L[a-z]+ L[a-z]+ M[a-z]+')\noutput = complete_re(tokenizer=tokenizer, \n                     model=model, \n                     prompt=prompt,\n                     pattern=pattern,\n                     do_sample=True,\n                     max_new_tokens=80)\nprint(output)\n```\n\n```\n> Realized Logistic Logistics Model\n```\n\n\n## Examples using GPT2 (124 million parameters)\n\n#\n\nUsing GPT2 (124m)\n\n**Prompt**: ReLLM, the best way to get structured data out of LLMs, is an acronym for\n\n**Pattern**: Re[a-z]+ L[a-z]+ L[a-z]+ M[a-z]+\n\n**ReLLM**: Realized Logistic Logistics Model\n\n**Without ReLLM**: Largest Largest Address Space (MELSP), which has its roots in the  Internet network, at least when compared\n#\n\n**Prompt**: Return the first three letters of the alphabet in a json array:\n\n**Pattern** \\[\\\"[a-z]\\\", \\\"[a-z]\\\", \\\"[a-z]\\\"\\]\n\n**ReLLM**: [\"a\", \"b\", \"c\"]\n\n**Without ReLLM**: { \"index\": 0, \"id\":\"1\", \"description\":\"\", \"text\": \"[{ \"id\": 0, \"name\":\n#\n**Prompt**: Fill in the sentence with an interesting story about the dentist:\n\n**Pattern**: Today I\\'m going to the [a-z]+ to [a-z]+ because ([a-z]+ )*\\.\n\n**ReLLM**: Today I'm going to the dentist to see because it is a very important day for me\n\n**Without ReLLM**: 'My family bought me an appointment with a dentist when I was 15. The dentist gave me one a year and then I was told on\n#\n\n**Prompt**: Is this a good demo?\n\n**Pattern**: (Yes|No)\n\n**ReLLM**: No.\n\n**Without ReLLM**: I don't know, but this is amazing! Even more amazing is how the design can take place on a small stage that uses LEDs.\nAs\n\n#\n\n**Prompt**: Convert the date May 4, 2023 to the format mm\u002Fdd\u002Fyyyy:\n\n**Pattern**: [0-9]{2}\u002F[0-9]{2}\u002F[0-9]{4}\n\n**ReLLM**: 00\u002F00\u002F0045\n\n**Without ReLLM**:  mm:ss\n\nA-Z, Z-A, W-H (0-9:9:19)\n\nZ-R\n\n#\n\n**Prompt**: Jeff Dean is a\n\n**Pattern** (Programmer|Computer Scientist|AGI)\n\n**ReLLM**: Computer Scientist\n\n**Without ReLLM**: former national basketball champion and a former professional basketball player. He currently serves as general counsel for the NCAA Office of the Vice President for Academic Affairs.\n\n#\n\n**Prompt**: I can eat \n\n**Pattern**: [0-9]{1,10} [a-z]* of [a-z]*\n\n**ReLLM**: 800 calories of coffee\n\n**Without ReLLM**: iced coffee here on the west side and do this, so can you?\"\n\n\"Why, I don't understand. What did you mean by","# ReLLM\n用于语言模型补全的正则表达式。\n\n> *有些人遇到问题时会想：“我知道了，我就用正则表达式。” 于是他们就有了两个问题。*\n\n通过正则表达式从任何语言模型的补全结果中提取精确的结构。\n\n可以返回特定的语法结构（如 JSON 或 XML）、特定的语义结构（如日期或数字），甚至完整的模板（如带空缺需要填充的句子）。\n\n它是如何工作的呢？ReLLM 在生成之前过滤掉不匹配的标记。对于每一个标记，ReLLM 都会将所有可能的补全与部分正则表达式进行测试。对于那些不符合模式的潜在补全，ReLLM 会屏蔽其 logits，从而阻止语言模型生成这些内容。\n\n*如果您正在寻找 ReLLM 的托管版本，请查看 Thiggle 正则补全 API：[github.com\u002Fthiggle\u002Fapi](https:\u002F\u002Fgithub.com\u002Fthiggle\u002Fapi)*\n\n### 安装\n```\npip install rellm\n```\n\n初步结果非常有趣——即使对于小型模型，使用 ReLLM 限制标记空间也能提升补全的质量。更不用说它还能更轻松地以编程方式解析输出。请查看一些 [示例](examples)。关于如何使用 ReLLM 解析上下文无关文法（如 JSON）的示例，请参阅 [r2d4\u002Fparserllm](https:\u002F\u002Fgithub.com\u002Fr2d4\u002Fparserllm)。\n\n```python\nimport regex\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\nfrom rellm import complete_re\n\nmodel = AutoModelForCausalLM.from_pretrained(\"gpt2\")\ntokenizer = AutoTokenizer.from_pretrained(\"gpt2\")\n\nprompt = \"ReLLM，从大语言模型中获取结构化数据的最佳方式，是以下缩写的首字母组合：\"\npattern = regex.compile(r'Re[a-z]+ L[a-z]+ L[a-z]+ M[a-z]+')\noutput = complete_re(tokenizer=tokenizer, \n                     model=model, \n                     prompt=prompt,\n                     pattern=pattern,\n                     do_sample=True,\n                     max_new_tokens=80)\nprint(output)\n```\n\n```\n> 实现的物流模型\n```\n\n\n## 使用 GPT2（1.24亿参数）的示例\n\n#\n\n使用 GPT2（1.24亿参数）\n\n**提示**：ReLLM，从大语言模型中获取结构化数据的最佳方式，是以下缩写的首字母组合：\n\n**模式**：Re[a-z]+ L[a-z]+ L[a-z]+ M[a-z]+\n\n**ReLLM**：实现的物流模型\n\n**无 ReLLM**：最大的最大地址空间（MELSP），其根源可追溯到互联网网络，至少在比较时是如此。\n#\n\n**提示**：以 JSON 数组的形式返回字母表的前三个字母：\n\n**模式** \\[\\\"[a-z]\\\", \\\"[a-z]\\\", \\\"[a-z]\\\"\\]\n\n**ReLLM**：[\"a\", \"b\", \"c\"]\n\n**无 ReLLM**：{ \"index\": 0, \"id\":\"1\", \"description\":\"\", \"text\": \"[{ \"id\": 0, \"name：\n#\n**提示**：用一个关于牙医的有趣故事填空：\n\n**模式**：今天我要去 [a-z]+ 去 [a-z]+，因为 ([a-z]+ )*\\。\n\n**ReLLM**：今天我要去看牙医，因为这对我来说是非常重要的一天。\n\n**无 ReLLM**：我15岁时，家人给我预约了一次看牙医的机会。牙医每年给我一次检查，后来我被告知……\n#\n\n**提示**：这是一个好的演示吗？\n\n**模式**：(Yes|No)\n\n**ReLLM**：否。\n\n**无 ReLLM**：我不知道，但这太棒了！更令人惊叹的是，这种设计竟然可以在一个使用 LED 灯的小舞台上呈现出来。作为……\n\n#\n\n**提示**：将日期 2023 年 5 月 4 日转换为 mm\u002Fdd\u002Fyyyy 格式：\n\n**模式**：[0-9]{2}\u002F[0-9]{2}\u002F[0-9]{4}\n\n**ReLLM**：00\u002F00\u002F0045\n\n**无 ReLLM**：mm:ss\n\nA-Z，Z-A，W-H（0-9:9:19）\n\nZ-R\n\n#\n\n**提示**：杰夫·迪恩是一位……\n\n**模式** (Programmer|Computer Scientist|AGI)\n\n**ReLLM**：计算机科学家\n\n**无 ReLLM**：他曾是国家篮球冠军，也是一名职业篮球运动员。目前担任 NCAA 学术事务副总裁办公室的总法律顾问。\n\n#\n\n**提示**：我可以吃……\n\n**模式**：[0-9]{1,10} [a-z]* 的 [a-z]*\n\n**ReLLM**：800 卡路里的咖啡\n\n**无 ReLLM**：西边这里有一杯冰咖啡，你可以这样做吗？”\n\n“为什么呢？我不明白。你刚才的意思是……”","# ReLLM 快速上手指南\n\nReLLM 是一个用于语言模型生成的正则表达式约束工具。它通过在生成过程中过滤不匹配的 token，强制大语言模型输出符合特定正则表达式格式的结构化数据（如 JSON、日期、特定模板等），从而提升输出质量并便于程序解析。\n\n## 环境准备\n\n- **系统要求**：支持 Python 3.8+ 的操作系统（Linux \u002F macOS \u002F Windows）\n- **前置依赖**：\n  - Python 包管理工具 `pip`\n  - 深度学习框架 `transformers`（用于加载模型）\n  - 正则表达式库 `regex`（注意：不是标准的 `re` 库）\n\n## 安装步骤\n\n使用 pip 直接安装 rellm：\n\n```bash\npip install rellm\n```\n\n如需加速安装，可使用国内镜像源（例如清华源）：\n\n```bash\npip install rellm -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n同时确保安装必要的依赖库：\n\n```bash\npip install transformers regex -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下是最简单的使用示例：利用 GPT-2 模型，根据指定的正则表达式模式生成符合格式的文本。\n\n```python\nimport regex\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\nfrom rellm import complete_re\n\n# 加载模型和分词器\nmodel = AutoModelForCausalLM.from_pretrained(\"gpt2\")\ntokenizer = AutoTokenizer.from_pretrained(\"gpt2\")\n\n# 定义提示词和正则模式\nprompt = \"ReLLM, the best way to get structured data out of LLMs, is an acronym for \"\npattern = regex.compile(r'Re[a-z]+ L[a-z]+ L[a-z]+ M[a-z]+')\n\n# 生成符合模式的输出\noutput = complete_re(\n    tokenizer=tokenizer, \n    model=model, \n    prompt=prompt,\n    pattern=pattern,\n    do_sample=True,\n    max_new_tokens=80\n)\n\nprint(output)\n```\n\n**预期输出示例**：\n```\nRealized Logistic Logistics Model\n```\n\n通过替换 `pattern` 中的正则表达式，你可以轻松约束模型输出为 JSON 数组、日期格式、选择题答案等任意结构化内容。","某电商数据团队需要每天从海量用户评论中自动提取“评分（1-5 分）”和“情感倾向（正面\u002F负面）”，以便快速生成日报仪表盘。\n\n### 没有 rellm 时\n- **格式混乱难解析**：模型常输出“我觉得大概是五分吧，挺好的”等非结构化文本，导致后续正则提取失败或报错。\n- **无效字符频出**：小参数模型容易生成乱码、多余标点或超出范围的数字（如\"6 分”、\"-1 分”），污染数据库字段。\n- **修复成本高昂**：开发人员必须编写复杂的后处理代码来清洗数据，甚至需要人工介入修正错误记录。\n- **响应不可控**：模型可能忽略指令开始闲聊，返回长篇大论而非所需的简短标签，浪费算力且增加延迟。\n\n### 使用 rellm 后\n- **强制结构输出**：通过预定义正则（如 `[1-5]\\t(正面 | 负面)`），rellm 在生成阶段直接屏蔽不匹配 token，确保输出严格符合`3\\t正面`格式。\n- **杜绝非法数据**：从根本上消除了范围外数值或无关文字的产生，保证入库数据 100% 合法，无需二次清洗。\n- **简化开发流程**：后端只需直接分割字符串即可入库，彻底移除了繁琐的异常捕获和数据清洗逻辑，代码更简洁。\n- **提升小模型表现**：即使使用轻量级模型，rellm 也能约束其发散思维，使其在特定任务上的准确率媲美大型模型。\n\nrellm 的核心价值在于将大语言模型的“概率猜测”转变为确定性的“结构化生成”，让非结构化数据提取变得像数据库查询一样精准可靠。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fr2d4_rellm_08948ec8.png","r2d4","Matt Rickard","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fr2d4_77aa2d62.jpg",null,"git@mattrickard.com","mattrickard","mattrickard.com","https:\u002F\u002Fgithub.com\u002Fr2d4",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,514,24,"2026-04-04T05:21:25","MIT",1,"未说明",{"notes":92,"python":90,"dependencies":93},"README 中未明确列出具体的操作系统、GPU、内存或 Python 版本要求。该工具通过 pip 安装，主要依赖 transformers 库加载模型（示例中使用 GPT-2）。其核心机制是在生成前根据正则表达式过滤不匹配的 token 并掩蔽 logits，因此实际资源需求取决于所加载的语言模型大小。",[94,95],"regex","transformers",[35,14,15],[98,99,95],"llm","huggingface-transformers","2026-03-27T02:49:30.150509","2026-04-08T10:01:06.810634",[],[104,108],{"id":105,"version":106,"summary_zh":75,"released_at":107},145596,"v0.0.4","2023-05-06T01:56:01",{"id":109,"version":110,"summary_zh":111,"released_at":112},145597,"v0.0.3","初始发布\n\n```\r\npip install rellm==0.0.3\r\n```","2023-05-05T03:53:53"]