[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-rlancemartin--auto-evaluator":3,"tool-rlancemartin--auto-evaluator":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":76,"owner_website":75,"owner_url":77,"languages":78,"stars":83,"forks":84,"last_commit_at":85,"license":75,"difficulty_score":32,"env_os":86,"env_gpu":87,"env_ram":86,"env_deps":88,"category_tags":95,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":97,"updated_at":98,"faqs":99,"releases":129},4427,"rlancemartin\u002Fauto-evaluator","auto-evaluator","Evaluation tool for LLM QA chains","auto-evaluator 是一款专为大语言模型（LLM）问答链设计的轻量级自动化评估工具。它主要解决了开发者在构建基于文档的问答系统时，难以高效、客观地验证不同配置效果的痛点。传统评估往往依赖人工构造测试集并逐条打分，耗时且主观性强，而 auto-evaluator 能自动从用户提供的文档中生成“问题 - 答案”对，并利用 LLM 自动对系统的回答进行评分，从而快速量化性能。\n\n这款工具非常适合 AI 应用开发者、研究人员以及需要优化 RAG（检索增强生成）流程的技术团队使用。其核心亮点在于全流程自动化：用户只需上传文档并设定分块、检索及模型等参数，auto-evaluator 即可自动生成测试数据、运行问答链，并调用 GPT-3.5-turbo 等模型将系统回答与标准答案对比打分。通过直观对比不同配置下的得分，用户可以轻松找到最优的系统组合策略。作为 LangChain 生态的一部分，auto-evaluator 以开源形式提供，支持本地部署，帮助技术人员以更低的成本实现高质量的模型迭代与调优。","# `Auto-evaluator` :brain: :memo:\n\n> **Note**\n> See the HuggingFace space for this app: https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Frlancemartin\u002Fauto-evaluator\n\n> **Note**\n> See the hosted app: https:\u002F\u002Fautoevaluator.langchain.com\u002F\n\n> **Note**\n> Code for the hosted app is also open source: https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Fauto-evaluator\n\nThis is a lightweight evaluation tool for question-answering using Langchain to:\n\n- Ask the user to input a set of documents of interest\n\n- Apply an LLM (`GPT-3.5-turbo`) to auto-generate `question`-`answer` pairs from these docs\n\n- Generate a question-answering chain with a specified set of UI-chosen configurations\n\n- Use the chain to generate a response to each `question`\n\n- Use an LLM (`GPT-3.5-turbo`) to score the response relative to the `answer`\n\n- Explore scoring across various chain configurations\n\n**Run as Streamlit app**\n\n`pip install -r requirements.txt`\n\n`streamlit run auto-evaluator.py`\n\n**Inputs**\n\n`num_eval_questions` - Number of questions to auto-generate (if the user does not supply an eval set)\n\n`split_method` - Method for text splitting\n\n`chunk_chars` - Chunk size for text splitting\n \n`overlap` - Chunk overlap for text splitting\n  \n`embeddings` - Embedding method for chunks\n \n`retriever_type` - Chunk retrieval method\n\n`num_neighbors` - Neighbors for retrieval \n\n`model` - LLM for summarization of retrieved chunks \n\n`grade_prompt` - Prompt choice for model self-grading\n\n**Blog**\n\nhttps:\u002F\u002Fblog.langchain.dev\u002Fauto-eval-of-question-answering-tasks\u002F\n\n**UI**\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frlancemartin_auto-evaluator_readme_eb5248bea91b.png)\n\n**Disclaimer**\n\n```You will need an OpenAI API key with access to `GPT-4` and an Anthropic API key to take advantage of all of the default dashboard model settings. However, additional models (e.g., from Hugging Face) can be easily added to the app.```\n","# `自动评估器` :brain: :memo:\n\n> **注意**\n> 请参阅此应用的 HuggingFace 空间：https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Frlancemartin\u002Fauto-evaluator\n\n> **注意**\n> 请访问托管应用：https:\u002F\u002Fautoevaluator.langchain.com\u002F\n\n> **注意**\n> 托管应用的代码同样是开源的：https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Fauto-evaluator\n\n这是一个轻量级的问答评估工具，使用 Langchain 实现以下功能：\n\n- 提示用户输入一组感兴趣的文档\n- 利用 LLM（`GPT-3.5-turbo`）从这些文档中自动生成 `问题`-`答案` 对\n- 根据用户在界面上选择的配置，构建一个问答链\n- 使用该问答链对每个 `问题` 生成响应\n- 再次利用 LLM（`GPT-3.5-turbo`）对生成的响应与 `答案` 进行评分\n- 探索不同问答链配置下的评分结果\n\n**作为 Streamlit 应用运行**\n\n`pip install -r requirements.txt`\n\n`streamlit run auto-evaluator.py`\n\n**输入参数**\n\n`num_eval_questions` - 自动生问题的数量（如果用户未提供评估数据集）\n`split_method` - 文本分割方法\n`chunk_chars` - 文本分割的块大小\n`overlap` - 文本分割的块重叠长度\n`embeddings` - 块的嵌入方法\n`retriever_type` - 块检索方法\n`num_neighbors` - 检索时考虑的邻居数量\n`model` - 用于总结检索到的块的 LLM\n`grade_prompt` - 模型自我评分所使用的提示模板\n\n**博客文章**\n\nhttps:\u002F\u002Fblog.langchain.dev\u002Fauto-eval-of-question-answering-tasks\u002F\n\n**用户界面**\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frlancemartin_auto-evaluator_readme_eb5248bea91b.png)\n\n**免责声明**\n\n```您需要拥有可访问 `GPT-4` 的 OpenAI API 密钥，以及 Anthropic API 密钥，才能充分利用仪表板中的默认模型设置。不过，您也可以轻松地将其他模型（例如来自 Hugging Face 的模型）添加到此应用中。```","# Auto-evaluator 快速上手指南\n\n`auto-evaluator` 是一个基于 LangChain 的轻量级评估工具，专为问答（QA）任务设计。它能自动从文档生成测试问题，利用大语言模型（LLM）生成回答并进行评分，帮助开发者快速验证和优化不同的检索与生成配置。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：支持 Linux、macOS 或 Windows。\n*   **Python 版本**：推荐 Python 3.8 及以上版本。\n*   **API 密钥**：\n    *   **OpenAI API Key**：必须拥有访问 `GPT-3.5-turbo` 或 `GPT-4` 的权限（用于生成问题、回答及评分）。\n    *   **Anthropic API Key**（可选）：如需使用默认仪表板中的部分模型设置，建议配置此密钥。\n    *   *注：该工具支持扩展其他模型（如 Hugging Face 模型），但默认配置依赖 OpenAI。*\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    首先从 GitHub 获取源代码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Fauto-evaluator.git\n    cd auto-evaluator\n    ```\n\n2.  **安装依赖**\n    创建虚拟环境（推荐）并安装所需库。国内用户如遇下载缓慢，可使用清华或阿里镜像源加速：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n## 基本使用\n\n安装完成后，您可以通过 Streamlit 启动本地 Web 界面进行操作。\n\n1.  **启动应用**\n    在项目根目录下运行以下命令：\n    ```bash\n    streamlit run auto-evaluator.py\n    ```\n\n2.  **配置与运行**\n    浏览器将自动打开应用界面（通常为 `http:\u002F\u002Flocalhost:8501`），按以下步骤操作：\n    *   **上传文档**：输入或上传您感兴趣的文档集合。\n    *   **设置参数**：在侧边栏配置评估参数，例如：\n        *   `num_eval_questions`：自动生成的问题数量。\n        *   `split_method` \u002F `chunk_chars`：文本分割策略及块大小。\n        *   `embeddings` \u002F `retriever_type`：嵌入模型与检索方法。\n        *   `model`：用于总结检索内容的 LLM。\n    *   **执行评估**：点击运行按钮，系统将自动执行以下流程：\n        1.  基于文档自动生成“问题 - 答案”对。\n        2.  根据配置的链（Chain）生成回答。\n        3.  调用 LLM 对比生成的回答与标准答案进行打分。\n    *   **查看结果**：在界面中探索不同配置下的评分表现，从而优化您的 QA 系统。\n\n更多详细技术原理与案例，可参考官方博客：https:\u002F\u002Fblog.langchain.dev\u002Fauto-eval-of-question-answering-tasks\u002F","某金融科技公司的算法团队正在构建基于内部合规文档的智能问答系统，急需验证不同检索策略对回答准确性的影响。\n\n### 没有 auto-evaluator 时\n- 测试数据依赖人工编写，耗时数天才能凑齐几十条覆盖全面的问答对，且难以保证问题多样性。\n- 调整分块大小或嵌入模型等参数后，无法快速量化效果变化，只能靠开发者肉眼抽查几条结果“凭感觉”判断优劣。\n- 缺乏统一的评分标准，不同开发人员对回答质量的评估主观性强，导致技术选型争论不休，决策效率低下。\n- 每次实验都需要手动运行脚本、记录日志并整理表格，重复性劳动占据了大量本应用于优化模型的时间。\n\n### 使用 auto-evaluator 后\n- 上传合规手册后，auto-evaluator 利用大模型自动生成上百条高质量的测试问答对，将数据准备时间从几天缩短至几分钟。\n- 通过界面一键切换分块策略、邻居数量或嵌入模型，系统自动批量运行测试并输出对比报告，参数调优变得直观高效。\n- 内置的 LLM 评分机制依据预设提示词对每个回答进行客观打分，消除了人为偏见，让团队能基于数据迅速锁定最佳配置。\n- 全流程自动化执行，从生成问题到最终评分无需人工干预，开发者可专注于分析异常案例而非处理繁琐的测试流程。\n\nauto-evaluator 将原本耗时数周的问答链路评估工作压缩为小时级的自动化闭环，让大模型应用迭代真正实现了数据驱动。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frlancemartin_auto-evaluator_eb5248be.png","rlancemartin","Lance Martin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Frlancemartin_7c704f45.jpg",null,"RLanceMartin","https:\u002F\u002Fgithub.com\u002Frlancemartin",[79],{"name":80,"color":81,"percentage":82},"Python","#3572A5",100,1089,92,"2026-03-30T18:53:06","未说明","非必需（主要依赖 OpenAI API 和 Anthropic API，若使用本地 Hugging Face 模型则取决于具体模型需求）",{"notes":89,"python":86,"dependencies":90},"该工具主要通过 API 调用运行（默认使用 GPT-3.5-turbo、GPT-4 和 Anthropic 模型），因此需要有效的 OpenAI API Key（访问 GPT-4 权限）和 Anthropic API Key。虽然默认配置无需本地 GPU，但 README 提到可以轻松添加 Hugging Face 模型，若启用此类本地模型，则需根据所选模型另行配置相应的计算资源。安装依赖需执行 `pip install -r requirements.txt`，并通过 `streamlit run auto-evaluator.py` 启动应用。",[91,92,93,94],"langchain","streamlit","openai","anthropic",[35,14,96],"其他","2026-03-27T02:49:30.150509","2026-04-06T22:01:56.494298",[100,105,110,115,120,125],{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},20131,"为什么传入 openai_api_key 后仍然报错提示未找到 API Key？","该错误通常是因为环境变量未正确设置。请确保在终端中执行 `export OPENAI_API_KEY=你的密钥`，然后再启动 Streamlit 应用。同时，请确认您的账户有足够的积分（credits）。注意，部分功能（如 GPT-4）可能需要特定权限的密钥才能访问。","https:\u002F\u002Fgithub.com\u002Frlancemartin\u002Fauto-evaluator\u002Fissues\u002F1",{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},20132,"如何处理上传大尺寸 PDF 文件时报错的问题？","这是由于模型的上下文窗口（context window）限制导致的。例如，GPT-3.5 的最大上下文长度为 4097 tokens。如果文档内容加上提示词超过了这个限制（例如达到 4280 tokens），就会报错。解决方法是减小输入消息的长度，或对 PDF 进行更细粒度的切片处理。","https:\u002F\u002Fgithub.com\u002Frlancemartin\u002Fauto-evaluator\u002Fissues\u002F15",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},20133,"是否有在线版本或 Hugging Face Space 可以直接使用，无需本地部署？","有的，项目已经部署在 Hugging Face Spaces 上，您可以直接访问以下链接使用：https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Frlancemartin\u002Fauto-evaluator。这适合希望快速体验而不想配置本地环境的用户。","https:\u002F\u002Fgithub.com\u002Frlancemartin\u002Fauto-evaluator\u002Fissues\u002F2",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},20134,"如何将 auto-evaluator 作为 API 暴露出来以便集成到外部服务中？","该项目已支持通过 API 调用。您可以参考 langchain-serve 的相关实现，或者直接访问更新后的仓库地址查看具体用法：https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Fauto-evaluator。","https:\u002F\u002Fgithub.com\u002Frlancemartin\u002Fauto-evaluator\u002Fissues\u002F12",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},20135,"SVM 检索器创建索引的速度太慢怎么办？","针对 SVM 检索器在处理大量切片时创建索引缓慢的问题（例如 2000 个切片耗时超过 10 分钟），维护者已经在 LangChain 库中提交了修复方案。您可以查看具体的 Pull Request 以获取优化后的代码逻辑：https:\u002F\u002Fgithub.com\u002Fhwchase17\u002Flangchain\u002Fpull\u002F3192。","https:\u002F\u002Fgithub.com\u002Frlancemartin\u002Fauto-evaluator\u002Fissues\u002F7",{"id":126,"question_zh":127,"answer_zh":128,"source_url":114},20136,"如何在 Hugging Face Spaces 上部署 Streamlit 应用？","Hugging Face 原生支持 Streamlit 应用部署。您可以参考官方文档了解重新组织代码和部署的具体流程：https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fhub\u002Fspaces-sdks-streamlit。按照文档指引配置 `requirements.txt` 和 `app.py` 即可。",[]]