[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-dzhng--deep-seek":3,"tool-dzhng--deep-seek":62},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":74,"owner_website":79,"owner_url":80,"languages":81,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":24,"env_os":98,"env_gpu":98,"env_ram":98,"env_deps":99,"category_tags":105,"github_topics":107,"view_count":24,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":118,"updated_at":119,"faqs":120,"releases":121},10115,"dzhng\u002Fdeep-seek","deep-seek","LLM powered retrieval engine designed to process a ton of sources to collect a comprehensive list of entities.","DeepSeek 是一款基于大语言模型构建的实验性互联网检索引擎，旨在突破传统\"问答型”AI 的局限。与 Perplexity 等致力于汇总信息以给出单一“标准答案”的工具不同，DeepSeek 的核心目标是遍历海量网络来源，提取并整理出一份全面、结构化的实体列表，最终生成包含丰富字段的数据表格而非简单的研究报告。\n\n它主要解决了在需要大规模数据采集和对比分析时，传统 AI 难以提供完整清单且缺乏数据置信度评估的痛点。例如，在处理复杂查询时，DeepSeek 能自动浏览数百个来源，提取数十条记录，并为每个数据单元格生成置信度评分，直观标记出因来源冲突或缺失而导致的低可信度数据，帮助用户快速识别潜在误差。\n\n该工具特别适合开发者、数据分析师及研究人员使用，尤其是那些需要从非结构化网络信息中构建数据集、进行市场调研或竞品分析的专业人群。其独特的技术亮点在于采用了“流程工程（Flow Engineering）”架构，将任务拆解为规划、搜索、提取和增强四个步骤，并结合关键词与神经搜索技术，实现了从模糊查询到结构化表格的自动化转换。虽然目前运行成本较高且处于实验阶段，但它为大规模网络信息结构化处","DeepSeek 是一款基于大语言模型构建的实验性互联网检索引擎，旨在突破传统\"问答型”AI 的局限。与 Perplexity 等致力于汇总信息以给出单一“标准答案”的工具不同，DeepSeek 的核心目标是遍历海量网络来源，提取并整理出一份全面、结构化的实体列表，最终生成包含丰富字段的数据表格而非简单的研究报告。\n\n它主要解决了在需要大规模数据采集和对比分析时，传统 AI 难以提供完整清单且缺乏数据置信度评估的痛点。例如，在处理复杂查询时，DeepSeek 能自动浏览数百个来源，提取数十条记录，并为每个数据单元格生成置信度评分，直观标记出因来源冲突或缺失而导致的低可信度数据，帮助用户快速识别潜在误差。\n\n该工具特别适合开发者、数据分析师及研究人员使用，尤其是那些需要从非结构化网络信息中构建数据集、进行市场调研或竞品分析的专业人群。其独特的技术亮点在于采用了“流程工程（Flow Engineering）”架构，将任务拆解为规划、搜索、提取和增强四个步骤，并结合关键词与神经搜索技术，实现了从模糊查询到结构化表格的自动化转换。虽然目前运行成本较高且处于实验阶段，但它为大规模网络信息结构化处理提供了极具潜力的新范式。","# DeepSeek\n\nThis is a new experimental architecture for a llm powered internet scale _retrieval engine_. This architecture is very different from current research agents, which are designed as _answer engines_.\n\nYou can see some example results here: [https:\u002F\u002Fdeep-seek.vercel.app\u002F](https:\u002F\u002Fdeep-seek.vercel.app\u002F) (Note that this won't let you do real queries, since I won't be able to afford it 😅)\n\nThe main difference between the 2 concepts breaks down to:\n\n- Answer engine: aggregate a ton of sources to find the one _correct_ answer. This is what \"research agents\" have converged on recently. Examples include [perplexity](https:\u002F\u002Fperplexity.ai), [gpt-researcher](https:\u002F\u002Fgithub.com\u002Fassafelovic\u002Fgpt-researcher), or [aomni](https:\u002F\u002Faomni.com).\n- Retrieval engine: process a ton of sources to collect a _comprehensive_ list of entities. So far there haven't been any serious attempts to do this yet (afaik).\n\nThe end result for an answer engine is a research report, the end result for a retrieval engine is a table with all the retrieved entities and enriched columns.\n\nHere's what the end result looks like (zoomed out for scale):\n![screenshot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdzhng_deep-seek_readme_eff7e9cbb2a8.png)\n\nThis is infact a small portion of the result for this query. The actual result is so large it's impossible to screenshot. There are 94 records in the final result, which the agent gathered & enriched after browsing through 356 sources.\n\nThe agent also generates a confidence score for the data in the table cells as it is enriching. Note that there are certain cells highlighted in yellow - those are cells with low confidence. Those are cases where the sources may conflict, or there are no sources at all so the agent made a best guess. This is actually a number between 0 - 1, so there can definitely be better & more creative UI to showcase the score in higher fidelity.\n\n## Getting Started\n\n### Installation\n\nInstall any one of the following package managers\n\n- npm\n- yarn\n- pnpm\n- bun\n\nFollow the instructions in [Install](docs\u002Finstall.md) to install the package manager and the project dependencies\n\nTo run the dev server, use one of the following commands according to your package manager\n\n```bash\nnpm run dev\n# or\nyarn dev\n# or\npnpm dev\n# or\nbun dev\n```\n\nOpen [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000) with your browser to start searching or explore the pre-built examples. Note that the examples won't actually run the agent (it costs a lot of $), it's more there to show the power and the flaws of the architecture by letting you inspect the results.\n\nIf you have the environment variables set, you can run it for yourself. Note that it takes ~5 min and could cost anywhere between $0.1 - $3 worth of credits, depending on number of entities retrieved and amount of data that needs to be enriched.\n\nWhen running the agent, check the terminal to see logs of what's happening behind the scenes.\n\n### Environment Variables\n\nMake sure you have API keys for [Anthropic](https:\u002F\u002Fanthropic.com) and [Exa](https:\u002F\u002Fexa.ai).\n\nCreate a .env file, and put in the following environment variables:\n\n```\nANTHROPIC_KEY=\"anthropic_api_key\"\nEXA_KEY=\"exa_api_key\"\n```\n\n## Architecture\n\nThe system works as a multi-step research agent. The initial user query is broken down into a plan and the answer is constructed iterately as it flows through the system. Another name for this type of architecture is [flow engineering](https:\u002F\u002Fx.com\u002Fkarpathy\u002Fstatus\u002F1748043513156272416?s=20).\n\nThe research pipeline is split into 4 main steps:\n\n1. Plan - based on the user query, the planner constructs what the shape of the end result would look like. It does this by defining the type of entity to extract, as well as the different columns in the resulting table. The columns represent additional data that is relevant for the user's query relating to the entities.\n\n2. Search - we use both standard keyword search and neural search to find relevant content to process (both types of search are provided by [Exa](https:\u002F\u002Fexa.ai)). Keyword search is great at finding user generated content talking about the entities to be found (e.g. reviews, listicles.. etc). Neural search is great at finding specific entities themselves (e.g. companies, papers.. etc).\n\n3. Extract - all content found in search is processed via LLM to extract specific entities and its associated contents. This is done via a new technique I'm testing out where special tokens are inserted between sentences (split via winkNLP's small language model) in the content, and the LLM is tasked with defining the range of content to extract by indicating the start & end tokens. This is super fast & token efficient.\n\n4. Enrich - we do actually have a smaller answer agent within this bigger retrieval agent, whose job is to enrich all the columns defined by the planner for every entity. This is the most time consuming part of the entire process, but it is also the reason why this agent is extremely thorough.\n\nHere's a more detailed flow of how it works:\n![flow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdzhng_deep-seek_readme_558d69a1a3c1.png)\n\n## Examples\n\nFor anyone exploring this architecture - if you find a good or interesting use case, please add it to the examples list so other people can check it out! There's an `examples.ts` file under `app` with all the raw data of the examples. You can get the raw data via browser console after a query has finished running (just copy it into the examples file).\n\n## Future Work\n\n- Sorting \u002F ranking the retrieved entities by relevance - this is especially important for queries with qualifiers like \"best\" or \"newest\"... etc. This should be added as an additional step at the end of the pipeline.\n\n- Better entity resolution to detect duplicated entities - the agent still get stumped by things like M2 vs M3 Macbooks sometimes, there are techniques to [better format entity titles](https:\u002F\u002Feugeneyan.com\u002Fwriting\u002Fproduct-categorization-api-part-2-data-preparation\u002F) that could lead to better performance here.\n\n- Related to previous point, better verification of sources when enriching to ensure that it is connected to the orginal entity.\n\n- Support for deep browsing of sources - sometimes the agent should click around the web page to really drill into the content, this will be required to do a good job on searching through research papers on arxiv, for example.\n\n- Support for streaming in the data - it would be amazing to see the list populated & cells being enriched in real-time in the UI. Right now you can only get a sense of progress by watching the logs on the terminal.\n\nIf you'd like to collaborate on this or just want to discuss ideas, feel free to email me at [david@aomni.com](mailto:david@aomni.com) or ping me on [twitter](https:\u002F\u002Ftwitter.com\u002Fdzhng).\n","# DeepSeek\n\n这是一个用于互联网规模 _检索引擎_ 的新型实验性架构，由大语言模型驱动。该架构与当前的研究型代理截然不同，后者被设计为 _答案引擎_。\n\n你可以在这里查看一些示例结果：[https:\u002F\u002Fdeep-seek.vercel.app\u002F](https:\u002F\u002Fdeep-seek.vercel.app\u002F)（请注意，这里无法进行真实的查询，因为我负担不起费用 😅）\n\n这两种概念的主要区别在于：\n\n- 答案引擎：聚合大量来源以找到唯一 _正确_ 的答案。这正是近期“研究型代理”所趋向的方向。例如 [Perplexity](https:\u002F\u002Fperplexity.ai)、[GPT-Researcher](https:\u002F\u002Fgithub.com\u002Fassafelovic\u002Fgpt-researcher) 或 [Aomni](https:\u002F\u002Faomni.com)。\n- 检索引擎：处理大量来源以收集一份 _全面_ 的实体列表。到目前为止，尚未有严肃的尝试来实现这一点（据我所知）。\n\n答案引擎的最终输出是一份研究报告，而检索引擎的最终输出则是一个包含所有检索到的实体及丰富列的数据表。\n\n以下是最终结果的样子（为了展示规模而缩小了视图）：\n![截图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdzhng_deep-seek_readme_eff7e9cbb2a8.png)\n\n实际上，这只是本次查询结果的一小部分。真实的结果非常庞大，根本无法截屏。最终结果共有94条记录，这些记录是由代理在浏览了356个来源后收集并丰富得到的。\n\n在丰富数据的过程中，代理还会为表格中的每个单元格生成一个置信度分数。请注意，有些单元格被标为黄色——这些是置信度较低的单元格。出现这种情况的原因可能是来源之间存在冲突，或者根本没有相关来源，因此代理只能做出最佳猜测。这个分数其实介于0到1之间，所以完全可以采用更优秀、更具创意的UI来以更高保真度展示这一分数。\n\n## 快速开始\n\n### 安装\n\n安装以下任一包管理工具：\n\n- npm\n- yarn\n- pnpm\n- bun\n\n按照 [安装](docs\u002Finstall.md) 中的说明安装包管理工具和项目依赖。\n\n要运行开发服务器，请根据你使用的包管理工具执行以下命令之一：\n\n```bash\nnpm run dev\n# 或者\nyarn dev\n# 或者\npnpm dev\n# 或者\nbun dev\n```\n\n使用浏览器打开 [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000)，即可开始搜索或探索预建的示例。需要注意的是，这些示例并不会真正运行代理（因为成本很高），它们更多的是通过让你检查结果来展示该架构的强大之处及其不足。\n\n如果你已经设置了环境变量，就可以自行运行它。请注意，整个过程大约需要5分钟，费用可能在0.1至3美元之间，具体取决于检索到的实体数量以及需要丰富数据的量。\n\n运行代理时，请查看终端以了解后台正在发生的事情。\n\n### 环境变量\n\n请确保你拥有 [Anthropic](https:\u002F\u002Fanthropic.com) 和 [Exa](https:\u002F\u002Fexa.ai) 的API密钥。\n\n创建一个 `.env` 文件，并添加以下环境变量：\n\n```\nANTHROPIC_KEY=\"anthropic_api_key\"\nEXA_KEY=\"exa_api_key\"\n```\n\n## 架构\n\n该系统作为一个多步骤的研究型代理运作。初始用户查询会被分解为一个计划，答案则会随着流程在系统中逐步构建。这种架构也被称为 [流式工程](https:\u002F\u002Fx.com\u002Fkarpathy\u002Fstatus\u002F1748043513156272416?s=20)。\n\n研究流程分为四个主要步骤：\n\n1. 计划——基于用户查询，规划器会确定最终结果的形态。它通过定义要提取的实体类型以及结果表中的不同列来实现这一点。这些列代表与实体相关的、对用户查询有意义的附加数据。\n   \n2. 搜索——我们同时使用标准关键词搜索和神经网络搜索来寻找待处理的相关内容（这两种搜索均由 [Exa](https:\u002F\u002Fexa.ai) 提供）。关键词搜索擅长发现关于待查实体的用户生成内容（如评论、清单文章等）。而神经网络搜索则擅长直接找到特定的实体本身（如公司、论文等）。\n   \n3. 提取——搜索中找到的所有内容都会通过大语言模型进行处理，以提取特定的实体及其相关内容。这是我在测试的一种新技术：在内容中（通过winkNLP的小型语言模型进行分句）插入特殊标记，然后让大语言模型通过指示起始和结束标记来确定需要提取的内容范围。这种方法速度极快且token效率极高。\n   \n4. 丰富——在这个更大的检索代理内部，实际上还有一个较小的答案代理，它的任务是为每个实体丰富规划器所定义的所有列。这是整个过程中最耗时的部分，但同时也正是这个代理极其全面的原因所在。\n\n以下是其更详细的流程图：\n![流程](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdzhng_deep-seek_readme_558d69a1a3c1.png)\n\n## 示例\n\n对于任何探索此架构的人：如果你发现了一个好的或有趣的用例，请将其添加到示例列表中，以便其他人也能查看！`app` 目录下有一个 `examples.ts` 文件，其中包含了所有示例的原始数据。查询完成后，你可以通过浏览器控制台获取这些原始数据，然后将其复制到示例文件中。\n\n## 未来工作\n\n- 根据相关性对检索到的实体进行排序\u002F排名——这对于带有“最佳”或“最新”等限定词的查询尤其重要。这应该作为流程末尾的一个额外步骤加入。\n  \n- 改进实体解析能力，以检测重复实体——有时代理仍然会被M2与M3 MacBook之类的问题难住。有一些技术可以 [更好地格式化实体标题](https:\u002F\u002Feugeneyan.com\u002Fwriting\u002Fproduct-categorization-api-part-2-data-preparation\u002F)，从而提升这方面表现。\n  \n- 与上一点相关，在丰富数据时进一步验证来源，以确保其确实与原始实体相关联。\n  \n- 支持对来源的深度浏览——有时代理需要在网页上点击浏览，才能真正深入内容。例如，在ArXiv上搜索研究论文时，就需要这样的功能才能做好工作。\n  \n- 支持数据的流式传输——如果能在UI中实时看到列表填充和单元格丰富的过程，那将非常棒。目前你只能通过观察终端日志来大致了解进度。\n\n如果你想就此合作，或只是想讨论想法，欢迎发送邮件至 [david@aomni.com](mailto:david@aomni.com) 或在 [Twitter](https:\u002F\u002Ftwitter.com\u002Fdzhng) 上联系我。","# DeepSeek 快速上手指南\n\nDeepSeek 是一个实验性的、由大语言模型（LLM）驱动的互联网级**检索引擎**。与旨在寻找单一“正确答案”的研究代理（如 Perplexity）不同，DeepSeek 旨在处理海量来源，收集实体并生成包含丰富列数据的综合表格。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：支持 Linux、macOS 或 Windows。\n*   **Node.js**：建议安装最新 LTS 版本。\n*   **包管理器**：需安装以下任意一种：\n    *   npm\n    *   yarn\n    *   pnpm\n    *   bun\n*   **API 密钥**：您需要拥有以下服务的 API Key：\n    *   [Anthropic](https:\u002F\u002Fanthropic.com) (用于 LLM 推理)\n    *   [Exa](https:\u002F\u002Fexa.ai) (用于搜索引擎)\n\n> **注意**：运行完整的检索代理需要消耗 API 额度。根据检索实体数量和数据丰富程度，单次查询成本约为 $0.1 - $3，耗时约 5 分钟。\n\n## 安装步骤\n\n### 1. 克隆项目并安装依赖\n\n首先克隆仓库（假设您已获取源码），然后使用您选择的包管理器安装依赖。\n\n```bash\n# 使用 npm\nnpm install\n\n# 或使用 yarn\nyarn install\n\n# 或使用 pnpm\npnpm install\n\n# 或使用 bun\nbun install\n```\n\n### 2. 配置环境变量\n\n在项目根目录下创建 `.env` 文件，并填入您的 API 密钥：\n\n```env\nANTHROPIC_KEY=\"your_anthropic_api_key\"\nEXA_KEY=\"your_exa_api_key\"\n```\n\n## 基本使用\n\n### 启动开发服务器\n\n使用以下命令启动本地开发服务器：\n\n```bash\nnpm run dev\n# 或\nyarn dev\n# 或\npnpm dev\n# 或\nbun dev\n```\n\n### 运行查询\n\n1.  打开浏览器访问 [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000)。\n2.  您可以浏览预置示例以了解架构能力（预置示例不会实际运行代理以节省成本）。\n3.  **执行真实查询**：在搜索框输入您的问题并提交。\n    *   系统将根据您的查询自动规划、搜索、提取实体并丰富数据列。\n    *   最终结果将呈现为一个包含所有检索实体及其详细信息的表格。\n    *   表格中黄色高亮的单元格表示低置信度数据（来源冲突或缺失）。\n4.  **监控进度**：运行过程中，请查看终端日志以了解后台处理步骤（规划、搜索、提取、丰富）。\n\n### 预期结果\n\n成功运行后，您将得到一个结构化的数据表。例如，针对特定查询，代理可能浏览了 356 个来源，最终整理出 94 条记录，并为每条记录填充了多个维度的增强数据。","某风险投资机构的分析师正在对“生成式 AI 医疗初创公司”进行尽职调查，需要快速构建一份包含所有相关实体及其关键指标的完整名录。\n\n### 没有 deep-seek 时\n- **信息碎片化严重**：分析师需手动在数百个新闻源、数据库和报告中搜索，难以确保覆盖所有潜在目标，极易遗漏非头部初创企业。\n- **数据结构混乱**：收集到的信息散落在不同网页和文档中，格式不一，人工整理成统一表格（如公司名称、融资轮次、核心技术）耗时数天且易出错。\n- **缺乏可信度评估**：面对冲突的数据源（如不同媒体报道的融资金额不一致），人工难以快速判断真伪，只能凭经验猜测或标记待查。\n- **扩展性差**：一旦查询范围扩大（如从“医疗”扩展到“生命科学”），人工处理成本呈指数级上升，无法应对大规模检索需求。\n\n### 使用 deep-seek 后\n- **全量实体自动捕获**：deep-seek 自动遍历 300+ 个来源，一次性提取出 94 家符合条件的初创公司，确保名录的全面性，无遗漏死角。\n- **结构化数据直出**：直接生成包含公司名称、融资阶段、技术栈等列的标准化表格，将原本数天的清洗整理工作缩短至几分钟。\n- **智能置信度评分**：deep-seek 为每个数据单元格自动生成 0-1 的置信度分数，并用高亮标记低置信度数据（如来源冲突项），让分析师精准聚焦需人工复核的疑点。\n- **规模化处理能力**：无论查询范围如何扩大，deep-seek 均能保持稳定的处理效率，轻松应对行业级的大规模实体挖掘任务。\n\ndeep-seek 将原本耗时数天的人工“大海捞针”转变为分钟级的自动化数据工程，让决策者基于全景数据而非抽样印象做出判断。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdzhng_deep-seek_eff7e9cb.png","dzhng","David Zhang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdzhng_8363bc63.jpg","Co-founder & CEO @ Duet (duet.so)",null,"https:\u002F\u002Fduet.so","https:\u002F\u002Fgithub.com\u002Fdzhng",[82,86,90],{"name":83,"color":84,"percentage":85},"TypeScript","#3178c6",99.7,{"name":87,"color":88,"percentage":89},"CSS","#663399",0.2,{"name":91,"color":92,"percentage":93},"JavaScript","#f1e05a",0.1,512,54,"2026-04-17T14:17:00","MIT","未说明",{"notes":100,"python":98,"dependencies":101},"该项目是一个基于 LLM 的检索引擎原型，主要依赖外部 API（Anthropic 和 Exa），而非本地运行大型模型，因此无明确本地 GPU\u002F内存硬性要求。需安装 Node.js 包管理器（npm, yarn, pnpm 或 bun）之一。必须配置 ANTHROPIC_KEY 和 EXA_KEY 环境变量方可运行实际任务。运行代理任务耗时约 5 分钟，且会产生 API 调用费用（约 0.1-3 美元）。",[102,103,104],"npm\u002Fyarn\u002Fpnpm\u002Fbun (包管理器)","@anthropic-ai\u002Fsdk (隐含)","exa-js (隐含)",[36,106,16,13,14,15],"其他",[108,109,110,111,112,113,114,115,116,117],"agent","agentic","ai","anthropic","knowledge-graph","llm","openai","search","research-age","data-retrieval","2026-03-27T02:49:30.150509","2026-04-20T19:22:16.965064",[],[]]