local-deep-research
local-deep-research 是一款由用户完全掌控的 AI 深度研究助手,旨在提供私密、透明且高效的信息检索体验。它不仅能像专业研究员一样自主规划搜索路径、整合多方信息并生成带引用的报告,更在 SimpleQA 基准测试中取得了约 95% 的高准确率。
这款工具主要解决了传统在线 AI 服务存在的数据隐私泄露风险以及“黑盒”操作不透明的问题。通过支持本地化部署,所有数据处理和存储均在用户自己的设备上完成,并结合 SQLCipher 加密技术确保数据库安全,让用户真正拥有数据主权。同时,它打破了模型限制,既支持 Ollama 等本地大模型,也能灵活接入 Google、Anthropic 等云端服务。
local-deep-research 非常适合注重隐私的研究人员、需要处理敏感文档的企业开发者,以及希望构建个人知识库的技术爱好者。其独特亮点在于强大的混合搜索能力:能同时检索 arXiv、PubMed 等专业学术库、公开互联网以及用户上传的私有文档,将分散的信息源整合为统一的可搜索知识网络。无论是进行严谨的学术调研,还是分析内部业务资料,它都能提供一个安全、可靠且可解释的智能研究环境。
使用场景
某生物科技公司的高级研究员正在紧急撰写一份关于"CRISPR 基因编辑脱靶效应”的内部评估报告,需要综合最新学术论文、临床数据及公司私有实验记录。
没有 local-deep-research 时
- 信息孤岛严重:研究员需手动在 arXiv、PubMed 和公司加密硬盘间反复切换,难以将公开文献与内部私有数据关联分析。
- 隐私合规风险:使用云端 AI 工具处理未发表的实验数据时,面临敏感数据泄露的隐患,不符合公司严格的数据安全规定。
- 溯源效率低下:人工整理数十篇文献的引用来源耗时费力,且容易遗漏关键证据或出现引用错误,导致报告可信度存疑。
- 模型选择受限:被迫依赖单一云厂商的模型,无法根据任务难度灵活切换本地轻量模型或云端高性能模型以平衡成本与效果。
使用 local-deep-research 后
- 全域知识融合:local-deep-research 自动同时检索 arXiv、PubMed 等十余个公开源及本地加密文档,一键生成跨源头的深度综合分析。
- 数据本地闭环:所有数据处理、索引构建及推理过程均在本地完成并通过 SQLCipher 加密,确保核心实验数据绝不流出内网。
- 精准自动引证:工具生成的报告自带精确到段落的引用标注,直接对应原始文献或内部文档页码,大幅缩短事实核查时间。
- 灵活模型调度:研究员可自由配置后端,用本地 Ollama 处理常规摘要,仅在复杂推理时调用云端 GPT-4.1-mini,实现性能与隐私的最优解。
local-deep-research 让研究员在绝对安全的环境下,像拥有私人专家团队一样高效完成跨公私域数据的深度科研洞察。
运行环境要求
- Linux
- macOS
- Windows
- 非必需
- 支持通过 Docker Compose 覆盖文件启用 NVIDIA GPU(仅限 Linux),未指定具体型号、显存大小或 CUDA 版本要求
未说明

快速开始
本地深度研究
🚀 什么是本地深度研究?
一款由您掌控的 AI 研究助手。可在本地运行以保护隐私,支持任意大语言模型,并可构建您自己的可搜索知识库。数据完全归您所有,您可以清楚地了解其运作方式。
⚡ 快速入门
选项 1:Docker 运行(Linux)
# 第一步:拉取并运行 Ollama
docker run -d -p 11434:11434 --name ollama ollama/ollama
docker exec ollama ollama pull gpt-oss:20b
# 第二步:拉取并运行 SearXNG 以获得最佳搜索结果
docker run -d -p 8080:8080 --name searxng searxng/searxng
# 第三步:拉取并运行本地深度研究
docker run -d -p 5000:5000 --network host \
--name local-deep-research \
--volume "deep-research:/data" \
-e LDR_DATA_DIR=/data \
localdeepresearch/local-deep-research
选项 2:Docker Compose
仅 CPU(所有平台):
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml && docker compose up -d
配备 NVIDIA GPU(Linux):
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml && \
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.gpu.override.yml && \
docker compose -f docker-compose.yml -f docker-compose.gpu.override.yml up -d
约 30 秒后打开 http://localhost:5000。有关 GPU 设置、环境变量等更多信息,请参阅 Docker Compose 指南。
选项 3:pip 安装
pip install local-deep-research
支持 Windows、macOS 和 Linux。通过预编译的 wheel 包含 SQLCipher 加密功能,无需自行编译。 在 Windows 上导出 PDF 文件需要 Pango(设置指南)。 如果遇到加密问题,可设置
export LDR_BOOTSTRAP_ALLOW_UNENCRYPTED=true,以使用标准 SQLite 替代。
🏗️ 工作原理
研究
您提出一个复杂的问题。LDR:
- 自动为您完成研究
- 横跨网络、学术论文以及您自己的文档进行搜索
- 将所有内容综合成一份带有规范引用的报告
从 20 多种研究策略中选择,以获取快速事实、深入分析或进行学术研究。
新增:LangGraph 代理策略 — 一种自主的代理式研究模式,由大语言模型决定搜索内容、使用哪些专业引擎(如 arXiv、PubMed、Semantic Scholar 等),以及何时进行综合。初步结果令人鼓舞——它会根据所发现的内容自适应地切换搜索引擎,并收集到比基于流水线的策略多得多的资料。在设置中选择 langgraph-agent 即可尝试。
构建您的知识库
flowchart LR
R[研究] --> D[下载来源]
D --> L[(图书馆)]
L --> I[索引与嵌入]
I --> S[搜索您的文档]
S -.-> R
每次研究都会找到有价值的资料。您可以直接将其下载到您的加密图书馆中——例如来自 arXiv 的学术论文、PubMed 文章以及网页内容。LDR 会提取文本、建立索引,并使其可搜索。下次研究时,您可以同时查询您自己的文档和实时网络,从而实现知识的不断积累。
🛡️ 安全
flowchart LR
U1[用户 A] --> D1[(加密数据库)]
U2[用户 B] --> D2[(加密数据库)]
您的数据始终属于您。每位用户都拥有独立的、采用 AES-256 加密的 SQLCipher 数据库(信号级别的安全性)。由于不提供密码恢复功能,因此实现了真正的零知识保护——即使是服务器管理员也无法读取您的数据。您可以完全在本地运行 LDR,结合 Ollama 和 SearXNG,确保所有数据都不会离开您的设备。
内存中的凭据:如同所有在运行时使用敏感信息的应用程序一样——包括 密码管理器、浏览器和 API 客户端——凭据会在活动会话期间以明文形式存储在进程内存中。这是整个行业普遍接受的事实(参见 OWASP 密钥管理备忘录),并非 LDR 特有的问题:如果攻击者能够读取进程内存,他们同样可以获取任何正在使用的解密密钥。我们通过限制凭据的有效期仅限于当前会话,并排除核心转储文件来降低这一风险。如果您有进一步改进的想法,欢迎随时通过 GitHub Issues 提出。更多详情请参阅我们的 安全策略。
供应链安全:Docker 镜像已使用 Cosign 进行签名,包含 SLSA 来源证明,并附带 SBOM 文件。您可以通过以下命令验证:
cosign verify localdeepresearch/local-deep-research:latest
安全透明度:扫描器抑制规则及其理由均已记录在 安全警报评估、评分卡合规性、容器 CVE 抑制列表以及 SAST 规则依据中。部分警报(如 Dependabot 和代码扫描)只能在 GitHub 安全选项卡中被忽略或难以抑制,因此上述文件并未涵盖所有被忽略的发现。
🔒 隐私与数据
Local Deep Research 不包含任何遥测、分析或跟踪功能。我们不会收集、传输或存储关于您或您的使用情况的任何数据。没有分析 SDK,没有主动上报,没有崩溃报告,也没有外部脚本。使用指标仅保留在您本地的加密数据库中。
LDR 唯一的网络请求均由 您 主动发起:搜索查询(向您配置的搜索引擎发送)、LLM API 调用(向您选择的服务提供商发送)以及通知(仅当您设置了 Apprise 时才会发送)。
由于我们不收集任何使用数据,因此我们依赖您的反馈来了解哪些功能有效、哪些存在问题,以及您希望未来看到哪些新功能——无论是 错误报告、功能建议,还是您喜欢或从未使用过的功能,这些都能帮助我们不断改进 LDR。
📊 性能
SimpleQA 基准测试准确率约 95%(初步结果)
- 测试环境为 GPT-4.1-mini + SearXNG + 精准迭代策略
- 性能可与最先进的 AI 研究系统相媲美
- 本地模型在适当配置下也能达到类似效果
- 社区基准测试与排行榜 → | 在 Hugging Face 上浏览 →
✨ 核心功能
🔍 研究模式
- 快速摘要:在 30 秒至 3 分钟内获得带有引用的答案
- 详细研究:提供结构化的综合分析结果
- 报告生成:生成包含章节和目录的专业报告
- 文档分析:利用 AI 搜索您的私人文档
🛠️ 高级功能
- LangChain 集成 - 使用任何向量存储作为搜索引擎
- REST API - 带有用户专属数据库的认证 HTTP 访问
- 基准测试 - 测试并优化您的配置
- 分析仪表板 - 跟踪成本、性能和使用指标
- 实时更新 - 支持 WebSocket,可查看研究进度
- 导出选项 - 将结果下载为 PDF 或 Markdown 格式
- 研究历史 - 保存、搜索并重新访问过往的研究记录
- 自适应限流 - 智能重试系统,可学习最佳等待时间
- 键盘快捷键 - 高效导航(ESC、Ctrl+Shift+1-5)
- 用户加密数据库 - 为每位用户提供安全、隔离的数据存储
📰 新闻与研究订阅
- 自动化研究摘要 - 订阅感兴趣的主题,接收由 AI 驱动的研究摘要
- 可定制频率 - 每日、每周或自定义时间表获取研究更新
- 智能过滤 - AI 仅筛选并总结最相关的内容
- 多格式交付 - 可以以 Markdown 报告或结构化摘要的形式接收更新
- 主题与查询支持 - 追踪特定搜索或广泛的研究领域
🌐 搜索引擎
免费搜索引擎
- 学术类: arXiv、PubMed、Semantic Scholar
- 通用类: Wikipedia、SearXNG
- 技术类: GitHub、Elasticsearch
- 历史类: Wayback Machine
- 新闻类: The Guardian、Wikinews
付费搜索引擎
- Tavily - 基于 AI 的搜索引擎
- Google - 通过 SerpAPI 或 Programmable Search Engine
- Brave Search - 注重隐私的网页搜索引擎
自定义来源
- 本地文档 - 使用 AI 搜索您的文件
- LangChain 检索器 - 任何向量存储或数据库
- 元搜索引擎 - 智能整合多个引擎
LDR 会尊重 robots.txt 文件,并在抓取网页时如实声明身份——不使用任何隐身或反检测技术。在极少数情况下,这意味着会被阻止自动访问的页面将不会被抓取,我们认为这是合理的权衡。
📦 安装选项
对于大多数用户来说,上方的【快速入门】已足够。
| 方法 | 适用人群 | 指南 |
|---|---|---|
| Docker Compose | 多数用户(推荐) | Docker Compose 指南 |
| Docker | 极简部署 | 安装指南 |
| pip | 开发者、Python 集成 | pip 指南 |
| Unraid | Unraid 服务器 | Unraid 指南 |
💻 使用示例
Python API
from local_deep_research.api import LDRClient, quick_query
# 方案一:最简单——一行代码完成研究
summary = quick_query("username", "password", "什么是量子计算?")
print(summary)
# 方案二:适用于多次操作的客户端
client = LDRClient()
client.login("username", "password")
result = client.quick_research("量子计算领域的最新进展有哪些?")
print(result["summary"])
HTTP API
以下代码示例展示了基本的 API 结构——实际可用的示例请参见下方链接
import requests
from bs4 import BeautifulSoup
# 创建会话并进行认证
session = requests.Session()
login_page = session.get("http://localhost:5000/auth/login")
soup = BeautifulSoup(login_page.text, "html.parser")
login_csrf = soup.find("input", {"name": "csrf_token"}).get("value")
# 登录并获取 API CSRF 令牌
session.post("http://localhost:5000/auth/login",
data={"username": "user", "password": "pass", "csrf_token": login_csrf})
csrf = session.get("http://localhost:5000/auth/csrf-token").json()["csrf_token"]
# 发送 API 请求
response = session.post("http://localhost:5000/api/start_research",
json={"query": "您的研究问题"},
headers={"X-CSRF-Token": csrf})
🚀 开箱即用的 HTTP API 示例 → examples/api_usage/http/
- ✅ 自动创建用户——无需额外配置即可使用
- ✅ 完整的认证流程,包含 CSRF 处理
- ✅ 结果重试逻辑——等待研究完成后再返回结果
- ✅ 进度监控和错误处理
命令行工具
# 从命令行运行基准测试
python -m local_deep_research.benchmarks --dataset simpleqa --examples 50
# 管理限流设置
python -m local_deep_research.web_search_engines.rate_limiting status
python -m local_deep_research.web_search_engines.rate_limiting reset
🔗 企业级集成
将 LDR 连接到您现有的知识库:
from local_deep_research.api import quick_summary
# 使用您现有的 LangChain 检索器
result = quick_summary(
query="我们的部署流程是什么?",
retrievers={"company_kb": your_retriever},
search_tool="company_kb"
)
兼容:FAISS、Chroma、Pinecone、Weaviate、Elasticsearch 以及任何与 LangChain 兼容的检索器。
🔌 MCP 服务器(Claude 集成)
LDR 提供一个 MCP(模型上下文协议)服务器,允许像 Claude Desktop 和 Claude Code 这样的 AI 助手执行深度研究。
⚠️ 安全提示:此 MCP 服务器专为通过 STDIO 传输的本地使用而设计(例如,Claude Desktop)。它没有内置的身份验证或限流机制。请勿将其暴露在公共网络上,除非实施适当的安全控制措施。有关网络部署要求,请参阅 MCP 安全指南。
安装
# 安装时包含 MCP 扩展
pip install "local-deep-research[mcp]"
Claude Desktop 配置
在您的 claude_desktop_config.json 中添加:
{
"mcpServers": {
"local-deep-research": {
"command": "ldr-mcp",
"env": {
"LDR_LLM_PROVIDER": "openai",
"LDR_LLM_OPENAI_API_KEY": "sk-..."
}
}
}
}
Claude Code 配置
在您的 .mcp.json(项目级别)或 ~/.claude/mcp.json(全局级别)中添加:
{
"mcpServers": {
"local-deep-research": {
"command": "ldr-mcp",
"env": {
"LDR_LLM_PROVIDER": "ollama",
"LDR_LLM_OLLAMA_URL": "http://localhost:11434"
}
}
}
}
可用工具
| 工具 | 描述 | 耗时 | LLM 成本 |
|---|---|---|---|
search |
来自特定引擎的原始搜索结果(arxiv、pubmed、wikipedia 等) | 5-30秒 | 无 |
quick_research |
快速研究摘要 | 1-5分钟 | 是 |
detailed_research |
全面分析 | 5-15分钟 | 是 |
generate_report |
完整 Markdown 报告 | 10-30分钟 | 是 |
analyze_documents |
搜索本地文档库 | 30秒-2分钟 | 是 |
list_search_engines |
列出可用的搜索引擎 | 即时 | 无 |
list_strategies |
列出研究策略 | 即时 | 无 |
get_configuration |
获取当前配置 | 即时 | 无 |
各个搜索引擎
search 工具允许您直接查询特定的搜索引擎并获取原始结果(标题、链接、摘要片段)——无需 LLM 处理,不产生费用,速度极快。这尤其适用于 监控和订阅 场景,您希望定期检查新内容而无需消耗 LLM 的 token。
# 在 arXiv 上搜索近期论文
search(query="transformer 架构改进", engine="arxiv")
# 在 PubMed 上搜索医学文献
search(query="CRISPR 临床试验 2024", engine="pubmed")
# 在 Wikipedia 上搜索快速事实
search(query="量子纠错", engine="wikipedia")
# 在 OpenClaw 上搜索法律判例
search(query="版权合理使用先例", engine="openclaw")
# 使用 list_search_engines() 查看所有可用引擎
使用示例
"使用 quick_research 查找关于量子计算应用的信息"
"在 arxiv 上搜索关于扩散模型的最新论文"
"生成一份关于可再生能源趋势的详细研究报告"
📊 性能与分析
基准测试结果
早期在小型 SimpleQA 数据集样本上的实验:
| 配置 | 准确率 | 备注 |
|---|---|---|
| gpt-4.1-mini + SearXNG + focused_iteration | 90-95% | 样本量有限 |
| gpt-4.1-mini + Tavily + focused_iteration | 90-95% | 样本量有限 |
| gemini-2.0-flash-001 + SearXNG | 82% | 单次测试运行 |
注意:这些是初步测试的早期结果。性能会因查询类型、模型版本和配置的不同而显著变化。运行您自己的基准测试 →
完整的社区排行榜: 社区维护着一个不断增长的基准测试结果集合,涵盖不同模型、策略和搜索引擎,并通过 CI 验证提交和自动生成排行榜:
- GitHub: LearningCircuit/ldr-benchmarks — 在这里提交您的结果
- Hugging Face: local-deep-research/ldr-benchmarks — 浏览排行榜并下载 CSV 文件
基准测试贡献者
感谢为基准测试运行做出贡献的社区成员:
内置分析仪表板
通过详细的指标跟踪成本、性能和使用情况。了解更多 →
🤖 支持的 LLM
本地模型(通过 Ollama)
- Llama 3、Mistral、Gemma、DeepSeek
- LLM 处理完全在本地进行(搜索请求仍会发送到网络)
- 无 API 费用
云上模型
- OpenAI(GPT-4、GPT-3.5)
- Anthropic(Claude 3)
- Google(Gemini)
- 通过 OpenRouter 支持 100 多种模型
📚 文档
入门指南
核心功能
进阶功能
开发相关
示例与教程
📰 特别报道
“Local Deep Research 对于那些重视隐私的人来说值得特别提及……它经过优化,可以使用开源 LLM,在消费级 GPU 甚至 CPU 上运行。记者、研究人员或涉及敏感话题的企业可以在 查询从未触及外部服务器 的情况下进行信息调查。”
新闻与文章
- Korben.info - 法国科技博客(“数字夏洛克·福尔摩斯”)
- Roboto.fr - “OpenAI Deep Research 的免费开源替代方案”
- KDJingPai AI 工具 - AI 生产力工具专题报道
- AI Sharing Circle - AI 资源专题报道
社区讨论
- Hacker News - 获得 190 多个赞,引发社区讨论
- LangChain Twitter/X - LangChain 官方推广
- LangChain LinkedIn - 获得 400 多个赞
国际报道
🇨🇳 中文
- Juejin (掘金) - 开发者社区
- Cnblogs (博客园) - 开发者博客
- GitHubDaily (Twitter/X) - 有影响力的科技账号
- Zhihu (知乎) - 科技社区
- A姐分享 - AI资源
- CSDN - 安装指南
- NetEase (网易) - 科技新闻门户
🇯🇵 日语
- note.com: 调查革命:Local Deep Research彻底活用法 - 综合教程
- Qiita: Local Deep Researchを试す - Docker设置指南
- LangChainJP (Twitter/X) - 日本LangChain社区
🇰🇷 韩语
- PyTorch Korea Forum - 韩国机器学习社区
- GeekNews (Hada.io) - 韩国科技新闻
评论与分析
- BSAIL Lab: 学术界中Deep Research有多有用? - 贡献者@djpetti的学术评论
- The Art Of The Terminal: 现在就使用本地LLM吧! - 关于本地AI工具的全面评测,重点介绍了LDR的研究能力(嵌入现在已支持!)
相关项目
- SearXNG LDR-Academic - 面向学术界的SearXNG分支,内置12个研究引擎(arXiv、Google Scholar、PubMed等),专为LDR设计
- DeepWiki Documentation - 第三方文档和指南
注: 第三方项目和文章由独立维护。我们仅将其链接作为有用的资源,并不保证其代码质量或安全性。
🤝 社区与支持
- Discord - 获取帮助并分享研究技巧
- Reddit - 最新动态与成果展示
- GitHub Issues - 错误报告
🚀 贡献方式
我们欢迎各种形式的贡献——从修正错别字到新增功能。关键原则是:保持PR小而原子化(每个PR只包含一项更改)。对于较大的改动,请先提交问题或发起讨论——我们希望保护您的时间,并确保您的努力能成功合并,而不是导致方向不符的PR。请参阅我们的贡献指南以开始贡献。
致谢
Local Deep Research建立在众多开放获取倡议、学术数据库和开源项目的基础上。我们衷心感谢以下机构和个人:
学术与研究数据
| 来源 | 提供内容 | 许可协议 |
|---|---|---|
| OpenAlex | 约28万条学术元数据及约12万家机构信息,包括DOAJ状态 | CC0 |
| DOAJ | 开放获取期刊目录——通过OpenAlex进行开放获取验证 | CC0 |
| arXiv | 物理、数学、计算机科学等领域预印本 | 多种许可(详见arXiv许可) |
| PubMed / NCBI | 生物医学及生命科学文献 | 公有领域(美国政府) |
| Semantic Scholar | 跨学科学术搜索,附带引用数据 | 条款 |
| NASA ADS | 天体物理学、物理学和天文学论文 | 条款 |
| Zenodo | 开放研究数据、数据集和软件 | 每条记录许可各不相同 |
| PubChem | 化学与生物化学数据库 | 公有领域(美国政府) |
| Stop Predatory Journals | 攻击性期刊/出版商黑名单 | MIT |
| JabRef | 期刊缩写数据库 | CC0 |
知识与内容来源
Wikipedia • OpenLibrary • Project Gutenberg • GitHub • Stack Exchange • The Guardian • Wayback Machine
基础设施与框架
LangChain • Ollama • SearXNG • FAISS
支持开放获取
这些项目依靠捐赠和资助运行,而非付费墙。如果Local Deep Research对您有所帮助,请考虑回馈那些使其成为可能的开放获取生态系统:
- arXiv — 为物理、数学、计算机科学等领域提供免费预印本
- PubMed / NLM — 提供开放的生物医学文献
- Wikipedia / Wikimedia — 自由百科全书
- Internet Archive — Wayback Machine和开放数字图书馆
- DOAJ — 整理并验证全球范围内的开放获取期刊
- OpenAlex — 开放的学术元数据(由OurResearch赞助)
- Project Gutenberg — 自1971年以来一直提供免费电子书
📄 许可协议
MIT许可证 - 详见LICENSE文件。
依赖项: 所有第三方包均采用宽松许可(MIT、Apache-2.0、BSD等) - 详情见允许列表
版本历史
v1.5.62026/04/04v1.5.52026/04/02v1.5.42026/04/02v1.5.32026/04/01v1.5.22026/04/01v1.5.12026/03/31v1.5.02026/03/30v1.4.02026/03/28v1.3.602026/03/18v1.3.592026/03/11v1.3.582026/03/03v1.3.572026/02/27v1.3.562026/02/25v1.3.552026/02/24v1.3.542026/02/23v1.3.532026/02/22v1.3.522026/02/21v1.3.512026/02/20v1.3.502026/02/17v1.3.492026/02/03相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

