[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hrishioa--lumentis":3,"tool-hrishioa--lumentis":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":79,"owner_twitter":75,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":10,"env_os":96,"env_gpu":97,"env_ram":98,"env_deps":99,"category_tags":106,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":144},1373,"hrishioa\u002Flumentis","lumentis","AI powered one-click comprehensive docs from transcripts and text.","Lumentis 是一款基于人工智能的开源工具，旨在帮助用户一键将会议录音转录稿、视频字幕或非结构化文本转化为结构清晰、排版精美的技术文档。它有效解决了从海量杂乱信息中手动整理笔记耗时费力、难以提炼核心内容的痛点，让知识沉淀变得高效轻松。\n\n无论是需要快速整理技术分享会的开发者、希望将播客内容转化为文章的研究人员，还是想要记录设计评审要点的设计师，甚至是从未接触过复杂文档工具的普通用户，都能通过 Lumentis 轻松上手。只需在终端运行简单命令，按照提示输入素材并选择目标受众，即可自动生成大纲并最终输出完整文档。\n\n其独特亮点在于支持灵活切换不同的 AI 模型（如 GPT-4 Omni、Gemini Flash 等）以适应不同处理阶段，并在运行前动态预估成本，让用户对费用心中有数。此外，生成的文档可直接部署到 Vercel 进行在线展示。Lumentis 以极低的成本和极简的操作流程，为个人和团队提供了一条从“原始录音”到“可读文档”的快捷路径。","\u003Ch1 align=\"center\">\n  \u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhrishioa_lumentis_readme_c61596887528.png\" alt=\"Lumentis\" width=\"200\">\u003C\u002Fa>\n  \u003Cbr>\n\u003Ccode>npx lumentis\u003C\u002Fcode>\n  \u003Cbr>\n\u003C\u002Fh1>\n\n\u003Ch3 align=\"center\">Generate beautiful docs from your transcripts and unstructured information with a single command.\u003C\u002Fh3>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F8853\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhrishioa_lumentis_readme_4cc089988f35.png\" alt=\"hrishioa%2Flumentis | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\nA simple way to generate comprehensive, easy-to-skim docs from your meeting transcripts and large documents. Now supports GPT-4 Omni and Gemini Flash!\n\n[![Twitter Follow](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002Fhrishi?style=social)](https:\u002F\u002Ftwitter.com\u002Fhrishioa)\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n![lumentis](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhrishioa_lumentis_readme_6a8dad4e4c06.png)\n\n\u003C\u002Fdiv>\n\n## How to use\n\n1. Run `npx lumentis` in an empty directory. That's really it. You can skip the rest of this README.\n(Known issue if you've run Lumentis before: clear your npx cache with `npx clear-npx-cache` or you might get link errors. If you don't want to, you can also run `npx lumentis@0.2.1-dev`.)\n(DON'T run lumentis in the cloned repo!)\n2. Feed it a transcript, doc or notes when asked.\n3. Answer some questions about themes and audience.\n4. Pick what you like from the generated outline.\n5. Wait for your docs to be written up!\n6. [Deploy your docs to Vercel](https:\u002F\u002Fvercel.com\u002Fdocs\u002Fdeployments\u002Foverview) by pushing your folder and following the guide.\n\n## Examples\n\nLumentis lets you swap models between stages. Here's some docs exactly as Lumentis generated them, no editing. I just hit Enter a few times.\n\n1. **[The Feynman Lectures on Physics](https:\u002F\u002Ffeynman-lectures.vercel.app\u002F)** - taken from the [5 hour Feynman Lectures](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=kEx-gRfuhhk), this is Sonnet doing the hard work for 72 cents, and Haiku writing it out for 38 cents.\n2. **[Designing Frictionless Interfaces for Google](https:\u002F\u002Fdesigning-better-ui.vercel.app\u002F)** - Mustafa Kurtuldu gave a wonderful talk on design and UX I wish more people would watch. Now you can read it. [(Do still watch it)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Drf5ZKd4aVY) but this is Haiku doing the whole thing for less than 8 (not eighty) cents!\n3. **[How the AI in Spiderman 2 works](https:\u002F\u002Fspiderman-2-ai-mechanics.vercel.app\u002F)** - from [something that's been on my list](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=LxWq65CZBU8) for a long time. Opus took about $3.80 to do the whole thing.\n4. **[Sam Altman and Lex Friedman on GPT-5](https:\u002F\u002Fsam-lex-gpt5.vercel.app\u002F)** - Sam and Lex [had a conversation](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=jvqFAi7vkBc) recently. Here's Opus doing the hard work for $2.3, and Sonnet doing the rest for $2.5. This is the expensive option.\n5. **[Self-Discover in DSPy with Chris Dossman](https:\u002F\u002Flumentis-autogen-dspy-weviate-podcast.vercel.app\u002F)** - [an interesting conversation between Chris Dossman and Weviate](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=iC64q1gFWiY) about DSPy and structured reasoning, one of the core concepts behind the framework. [Eugene](https:\u002F\u002Fgithub.com\u002Feugene-yaroslavtsev) splurged something like $25 on this 😱 because he wanted to see how Lumentis would do at its best.\n6. **[John Shulman OpenAI Podcast with GPT-4o](https:\u002F\u002Fjohn-shulman-gpt4o-gpt4o.vercel.app\u002F)** - generated for about $1 in less than 20 seconds with GPT-4 Omni, from [this awesome podcast](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Wo95ob_s_NI)!\n7. **[John Shulman Podcast with GPT-4o and Gemini Flash](https:\u002F\u002Fjohn-shulman-gpt4o-gemini-flash.vercel.app\u002F)** - generated for about the same in less than 10 seconds with GPT-4 Omni and Gemini Flash.\n\n## Features\n\n- Cost before run: Lumentis will dynamically tell you what each operation costs.\n- Switch models: Use a smarter model to do the hard parts, and a cheaper model for long-form work. See the examples.\n- Easy to change: Ctrl+C at any time and restart. Lumentis remembers your responses, and lets you change them.\n- Everything in the open: want to know how it works? Check the `.lumentis` folder to see every message and response to the AI.\n- Super clean: Other than `.lumentis` with the prompts and state, you have a clean project to do anything with. Git\u002FVercel\u002FCamera ready.\n- Super fast: (If you run with `bun`. Can't vouch for npm.)\n\n## How it works\n\nLumentis reads your transcript and:\n\n1. Asks you some questions to understand the themes and audience. Also to surf the latent space or things.\n2. Generates an outline and asks you to select what you want to keep.\n3. Auto generates structure from the information and further refines it with your input, while self-healing things.\n4. Generates detailed pages with visual variety, formatting and styles.\n\n## Coming soon (when I have a free night)\n\n1. Folders\n2. PDFs\n3. Auto-transcription with a rubber ducky\n4. Scraping entire websites\n5. Scientific papers\n6. Recursive summarisation and expansion\n7. Continuously updating docs\n\n## Development\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis.git\ncd lumentis\nbun install\nbun run run\n```\n\nUsing bun because it's fast. You can also use npm or yarn if you prefer.\n\n## How to help\n\nTry it out and let me know the URL so I can add it here! There's also some badly organized things in `TODO.md` that I need to get around to.\n\n# Contributors\n\n1. [HebeHH](https:\u002F\u002Fgithub.com\u002FHebeHH) for adding OpenAI support, folder parsing, favicons 🫶\n2. [Eugene](https:\u002F\u002Fgithub.com\u002Feugene-yaroslavtsev) for adding biome and providing type safety fixes, and adding a fully-Opus example.\n3. [Calm-Rock](https:\u002F\u002Fgithub.com\u002FCalm-Rock) for fixing the repo links!\n","\u003Ch1 align=\"center\">\n  \u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhrishioa_lumentis_readme_c61596887528.png\" alt=\"Lumentis\" width=\"200\">\u003C\u002Fa>\n  \u003Cbr>\n\u003Ccode>npx lumentis\u003C\u002Fcode>\n  \u003Cbr>\n\u003C\u002Fh1>\n\n\u003Ch3 align=\"center\">只需一条命令，即可从您的会议记录和非结构化信息中生成精美的文档。\u003C\u002Fh3>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F8853\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhrishioa_lumentis_readme_4cc089988f35.png\" alt=\"hrishioa%2Flumentis | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n一种简单的方式，可从您的会议记录和大型文档中自动生成内容全面、易于快速浏览的文档。现支持 GPT-4 Omni 和 Gemini Flash！\n\n[![Twitter 关注](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002Fhrishi?style=social)](https:\u002F\u002Ftwitter.com\u002Fhrishioa)\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n![lumentis](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhrishioa_lumentis_readme_6a8dad4e4c06.png)\n\n\u003C\u002Fdiv>\n\n## 使用方法\n\n1. 在一个空目录中运行 `npx lumentis`。仅此而已。您无需再阅读本 README 的其余部分。\n（如果您之前已经运行过 Lumentis，可能会遇到一个已知问题：请使用 `npx clear-npx-cache` 清除 npx 缓存，否则可能会出现链接错误。如果您不想这样做，也可以直接运行 `npx lumentis@0.2.1-dev`。）\n（请勿在克隆的仓库中运行 lumentis！）\n2. 当系统提示时，向其提供您的会议记录、文档或笔记。\n3. 回答一些关于主题和受众的问题。\n4. 从生成的概要中选择您喜欢的内容。\n5. 等待文档生成完成！\n6. 通过推送您的文件夹并按照指南操作，将您的文档部署到 Vercel 上（[部署概述](https:\u002F\u002Fvercel.com\u002Fdocs\u002Fdeployments\u002Foverview)）。\n\n## 示例\n\nLumentis 允许您在不同阶段之间切换模型。以下是完全按照 Lumentis 生成的文档，无需任何编辑。我只按了几次 Enter 键。\n\n1. **[费曼物理学讲义](https:\u002F\u002Ffeynman-lectures.vercel.app\u002F)** - 源自 [5 小时费曼讲座](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=kEx-gRfuhhk)，由 Sonnet 以 72 美分完成了繁重的工作，而 Haiku 则以 38 美分完成了文字的撰写。\n2. **[为 Google 设计无摩擦界面](https:\u002F\u002Fdesigning-better-ui.vercel.app\u002F)** - Mustafa Kurtuldu 进行了一场精彩的设计与用户体验演讲，真希望更多人能观看。现在您也可以阅读了。[(仍建议观看)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Drf5ZKd4aVY)，但这次是 Haiku 以不到 8 美分（而不是 80 美分）完成了整篇内容！\n3. **[蜘蛛侠 2 中的人工智能是如何工作的](https:\u002F\u002Fspiderman-2-ai-mechanics.vercel.app\u002F)** - 来自 [一直在我待办清单上的某件事](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=LxWq65CZBU8)。Opus 完成整件事大约花费了 3.80 美元。\n4. **[萨姆·阿尔特曼与莱克斯·弗里德曼谈 GPT-5](https:\u002F\u002Fsam-lex-gpt5.vercel.app\u002F)** - 萨姆和莱克斯最近进行了一次对话（[视频链接](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=jvqFAi7vkBc)）。这里由 Opus 以 2.3 美元完成了繁重的工作，而 Sonnet 则以 2.5 美元完成了剩余部分。这是更昂贵的选择。\n5. **[克里斯·多斯曼在 DSPy 中进行自我探索](https:\u002F\u002Flumentis-autogen-dspy-weviate-podcast.vercel.app\u002F)** - [克里斯·多斯曼与 Weviate 之间的一次有趣对话](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=iC64q1gFWiY)——讨论了 DSPy 以及结构化推理，而这正是该框架背后的核心概念之一。[Eugene](https:\u002F\u002Fgithub.com\u002Feugene-yaroslavtsev) 为此投入了大约 25 美元 😱，因为他想看看 Lumentis 在最佳状态下会表现如何。\n6. **[约翰·舒尔曼 OpenAI 播客，附 GPT-4o](https:\u002F\u002Fjohn-shulman-gpt4o-gpt4o.vercel.app\u002F)** - 仅用不到 20 秒的时间，借助 GPT-4 Omni 就完成了生成，而且成本仅为 1 美元！这要归功于 [这个超棒的播客](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Wo95ob_s_NI)！\n7. **[约翰·舒尔曼播客，结合 GPT-4o 与 Gemini Flash](https:\u002F\u002Fjohn-shulman-gpt4o-gemini-flash.vercel.app\u002F)** - 用 GPT-4 Omni 和 Gemini Flash，同样在不到 10 秒内完成了生成，成本也大致相同。\n\n## 功能特点\n\n- 运行前的成本：Lumentis 会动态为您计算每项操作的具体费用。\n- 模型切换：使用更智能的模型来处理繁重的任务，而对长篇内容则采用更经济实惠的模型。请参阅示例。\n- 易于修改：随时按下 Ctrl+C 重新开始。Lumentis 会记住您的回复，并允许您随时进行调整。\n- 一切公开透明：想了解它的运作原理吗？只需查看 `.lumentis` 文件夹，就能看到所有发送给 AI 的消息及其响应。\n- 极其简洁：除了包含提示和状态的 `.lumentis` 文件夹外，您还可以自由地使用这个干净的项目，开展各种各样的工作。准备好使用 Git、Vercel 或相机。\n- 非常快速：（如果您使用 bun 运行，那么 npm 或 yarn 也完全适用。）\n- 工作原理\n\nLumentis 会读取您的会议记录，并：\n\n1. 向您提出一些问题，以深入了解主题和受众。同时，帮助您探索潜在的空间或隐藏的线索。\n2. 生成一份大纲，并请您选择想要保留的内容。\n3. 根据所获取的信息自动构建结构，并在您的输入指导下进一步优化，同时实现自我修复。\n4. 生成包含丰富视觉元素、格式化设计和多种风格的详细页面。\n\n## 即将推出（等我有空闲的夜晚）\n\n1. 文件夹\n2. PDF 文档\n3. 自动转录功能，借助“橡胶鸭”工具\n4. 自动抓取整个网站\n5. 科学论文\n6. 递归式摘要与扩展\n7. 持续更新文档\n\n## 开发\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis.git\ncd lumentis\nbun install\nbun run run\n```\n\n我们使用 bun，因为它运行速度很快。如果您更喜欢 npm 或 yarn，也可以选择使用它们。\n\n## 如何提供帮助\n\n请试用一下，并将网址告知我，这样我就可以将其添加到这里！此外，`.TODO.md` 中还有一些组织得不太完善的事项，我需要尽快处理。\n\n# 贡献者\n\n1. [HebeHH](https:\u002F\u002Fgithub.com\u002FHebeHH) 为新增 OpenAI 支持、文件夹解析以及图标添加贡献 🫶\n2. [Eugene](https:\u002F\u002Fgithub.com\u002Feugene-yaroslavtsev) 为新增生物体相关功能，并提供了类型安全修复，还添加了一个完整的 Opus 示例。\n3. [Calm-Rock](https:\u002F\u002Fgithub.com\u002FCalm-Rock) 为修复仓库链接做出了贡献！","# Lumentis 快速上手指南\n\nLumentis 是一款开源 AI 工具，只需一条命令即可将会议录音转录稿、非结构化文档或笔记转化为精美、易读的技术文档。它支持动态切换模型（如 GPT-4 Omni, Gemini Flash, Claude 系列），以平衡成本与质量。\n\n## 环境准备\n\n*   **操作系统**：macOS, Linux, Windows (需支持 Node.js 环境)\n*   **前置依赖**：\n    *   **Node.js**：建议安装最新 LTS 版本。\n    *   **包管理器**：推荐使用 `bun` 以获得最佳速度体验，同时也支持 `npm` 或 `yarn`。\n    *   **API Key**：使用前请确保已配置好 OpenAI、Anthropic 或 Google Cloud 的 API Key（通常通过环境变量设置）。\n\n> **提示**：虽然官方推荐 `bun`，但使用 `npx` 运行时无需手动安装依赖，Node.js 环境即可直接启动。\n\n## 安装步骤\n\nLumentis 设计为免安装工具，可直接通过 `npx` 运行。\n\n### 方式一：直接使用 npx（推荐）\n\n在终端中直接运行以下命令即可启动向导：\n\n```bash\nnpx lumentis\n```\n\n> **注意**：\n> 1. 请在**空目录**下运行此命令。\n> 2. **切勿**在克隆后的源码仓库根目录直接运行，以免产生冲突。\n> 3. 如果之前运行过旧版本遇到链接错误，请先清理缓存：`npx clear-npx-cache`，或指定版本运行：`npx lumentis@0.2.1-dev`。\n\n### 方式二：本地开发安装（可选）\n\n如果你希望修改源码或使用 `bun` 加速运行：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis.git\ncd lumentis\nbun install\nbun run run\n```\n\n## 基本使用\n\n运行工具后，跟随交互式向导即可完成文档生成，全程仅需几分钟。\n\n### 1. 启动工具\n在空文件夹中执行：\n```bash\nnpx lumentis\n```\n\n### 2. 输入素材\n当程序提示时，粘贴你的**会议转录稿**、**长文档内容**或**笔记文本**。\n\n### 3. 设定主题与受众\n回答几个关于文档主题、目标受众风格的问题，帮助 AI 理解上下文。\n\n### 4. 确认大纲\n工具会生成一份文档大纲，你可以浏览并选择保留哪些章节，剔除不需要的内容。\n\n### 5. 等待生成\n确认后，Lumentis 将自动调用 AI 模型撰写详细内容。\n*   **成本透明**：运行过程中会实时显示每一步操作的预估费用。\n*   **模型切换**：支持在“复杂逻辑处理”阶段使用高性能模型（如 Opus\u002FGPT-4），在“长篇写作”阶段使用低成本模型（如 Haiku\u002FGemini Flash），以优化成本。\n\n### 6. 查看与部署\n生成完成后，当前目录下将得到一套结构清晰、格式精美的静态文档文件。\n*   **本地预览**：直接打开生成的 HTML 文件查看。\n*   **一键部署**：将该文件夹推送到 Git 仓库，并按照 [Vercel 部署指南](https:\u002F\u002Fvercel.com\u002Fdocs\u002Fdeployments\u002Foverview) 进行部署，即可在线分享。\n\n### 高级技巧\n*   **中途修改**：在任何步骤按 `Ctrl+C` 中断，重新运行命令，Lumentis 会记住之前的回答，允许你修改特定步骤的配置。\n*   **调试透明**：所有与 AI 的交互记录（Prompt 和 Response）均保存在 `.lumentis` 文件夹中，方便审查和调试。","某技术团队需要将一场长达 3 小时的产品架构评审会议录音，快速转化为供全员查阅的结构化技术文档。\n\n### 没有 lumentis 时\n- 人工整理逐字稿耗时极长，开发人员需花费数小时反复听录音以提取关键决策点。\n- 非结构化的对话内容杂乱无章，难以区分背景介绍、核心争论与最终结论，阅读效率低下。\n- 手动编写文档容易遗漏细节或产生理解偏差，导致后续执行层对架构意图理解不一致。\n- 缺乏统一的格式标准，不同人员整理的会议纪要风格迥异，难以形成可沉淀的知识库。\n- 从录音到产出可用文档的周期过长，往往文档完成时项目已进入下一阶段，失去指导意义。\n\n### 使用 lumentis 后\n- 只需运行 `npx lumentis` 并导入录音文本，几分钟内即可自动生成逻辑清晰、排版精美的完整文档。\n- AI 自动识别会议中的主题脉络，将散乱的对话重组为“背景”、“方案对比”、“最终决议”等标准章节。\n- 支持在生成过程中交互式调整大纲，确保输出的技术术语准确无误，完美还原架构师的核心观点。\n- 一键生成适配 Web 阅读的静态站点源码，可直接部署至 Vercel，让团队即刻拥有在线知识库。\n- 动态显示各阶段 API 成本，允许灵活切换模型（如用 GPT-4o 处理难点，Haiku 处理常规内容），大幅降低费用。\n\nlumentis 将原本需要数天的人工整理工作压缩至分钟级，让杂乱的会议录音瞬间转化为高价值的团队知识资产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhrishioa_lumentis_d5593e42.png","hrishioa","Hrishi Olickel","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhrishioa_98903bd4.jpg","Defragmenting schemas at southbridge.ai",null,"San Francisco \u002F Singapore","olickel.com","https:\u002F\u002Fgithub.com\u002Fhrishioa",[84,88],{"name":85,"color":86,"percentage":87},"TypeScript","#3178c6",60.9,{"name":89,"color":90,"percentage":91},"JavaScript","#f1e05a",39.1,1696,94,"2026-04-04T15:29:37","NOASSERTION","Linux, macOS, Windows","不需要本地 GPU（基于云端 API 运行）","未说明",{"notes":100,"python":101,"dependencies":102},"该工具是一个基于命令行的 Node.js 应用，通过 npx 直接运行。它不调用本地 AI 模型，而是依赖外部 API（如 OpenAI GPT-4\u002FGPT-3.5、Anthropic Claude、Google Gemini），因此需要配置相应的 API Key 并产生按量付费的成本。推荐使用 bun 以获得更快的运行速度，首次使用前可能需要清理 npx 缓存以避免链接错误。","不需要 Python（基于 Node.js 运行时）",[103,104,105],"Node.js","npm\u002Fnpx","bun (可选，用于加速)",[15,36],"2026-03-27T02:49:30.150509","2026-04-06T05:37:50.394278",[110,115,120,125,130,135,139],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},6310,"错误信息直接输出到 stdout 导致界面混乱，如何处理？","建议的错误处理方式是在实际错误信息前添加一行提示，例如：“注意：以下操作导致了错误：”，以便更清晰地区分正常输出和错误报告。这有助于避免错误信息干扰正常的标准输出流。","https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis\u002Fissues\u002F21",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},6305,"在 WSL 中运行时遇到 'Unexpected identifier' 错误怎么办？","这通常是由于 Node.js 版本过低导致的。建议将 Node.js 升级到 v14 或更高版本（推荐 v20+）。此外，尝试使用 `bunx lumentis` 代替 `npx lumentis` 命令通常能更好地解决问题。","https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis\u002Fissues\u002F9",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},6306,"如何在本地运行生成的文档服务器进行预览？","请注意，主仓库的 `package.json` 不包含运行文档服务器的脚本。当你使用 `npx lumentis` 生成文档文件夹后，进入该文件夹，那里会有独立的 `package.json` 和运行脚本。请参考生成的项目结构（例如：https:\u002F\u002Fgithub.com\u002Feugene-yaroslavtsev\u002Flumentis-autogen-dspy-weviate-podcast）来运行本地服务。如果在开发模式下遇到配置未生成的问题，请确保先完成初始化步骤。","https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis\u002Fissues\u002F7",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},6307,"是否支持 OpenAI 模型？","是的，OpenAI 支持已经发布并可用。现在你可以直接在配置中使用 OpenAI 提供商。","https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis\u002Fissues\u002F14",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},6308,"是否支持 Ollama 或本地开源模型（如 Llama3）？","目前可以通过配置 OpenAI 提供商并将端口替换为 Ollama 的端口来实现基本支持。但需要注意，大多数开源模型的上下文长度有限，可能无法处理大文件，且生成质量可能不如商业模型。对于需要长上下文的场景，建议使用 OpenAI 或 Gemini 等模型。","https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis\u002Fissues\u002F27",{"id":136,"question_zh":137,"answer_zh":138,"source_url":114},6309,"输入消息在复制粘贴或建议后出现重复显示怎么办？","这是一个已知的显示问题，特别是在拖拽文件夹或文本文件时，提示语可能会重复出现。维护者正在调查具体复现步骤以修复此问题。如果遇到此情况，请尝试提供具体的复现操作示例以便开发者定位。",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},6311,"使用 JSON 续传功能时，成本统计（Token 计数）不准确怎么办？","当使用 JSON 续传（JSON continuance）时，系统会重新调用 Anthropic 接口，导致输入 Token 包含上次调用的输出 Token。虽然底层计算逻辑可能需要调整，但确保 `outputTokens` 根据每次调用的结果正确更新是解决成本统计偏差的关键步骤。","https:\u002F\u002Fgithub.com\u002Fhrishioa\u002Flumentis\u002Fissues\u002F25",[]]