[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-lks-ai--anynode":3,"tool-lks-ai--anynode":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":104,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":105,"updated_at":106,"faqs":107,"releases":136},3287,"lks-ai\u002Fanynode","anynode","A Node for ComfyUI that does what you ask it to do","AnyNode 是专为 ComfyUI 设计的一款智能节点，它利用大语言模型（LLM）的强大能力，让用户只需通过自然语言描述需求，即可自动编写并执行 Python 代码，从而实现任意类型的输入处理与输出生成。无论是数据格式转换、复杂逻辑计算，还是动态连接其他节点，AnyNode 都能灵活应对，有效解决了传统工作流中因缺乏特定功能节点而需手动编程或寻找插件的痛点。\n\n这款工具特别适合希望提升工作流灵活性的设计师、AI 研究人员以及具备一定基础的开发人员使用。对于普通用户，它降低了在 ComfyUI 中实现自定义功能的门槛；对于开发者，它则提供了快速原型验证的便利。\n\nAnyNode 的核心亮点在于其“所想即所得”的交互模式：用户连接好输入输出端口并写下指令，节点便会实时生成对应代码完成任务。它支持多种后端模型，包括 OpenAI、Google Gemini 以及本地部署的 Ollama 或 vLLM 等服务，赋予了用户极高的自由度。同时，出于安全考虑，AnyNode 内置了代码清洗机制，在执行外部生成的代码前进行严格过滤，以防止潜在风险。不过，由于其能直接操作底层逻辑，使用时仍需谨慎规划","AnyNode 是专为 ComfyUI 设计的一款智能节点，它利用大语言模型（LLM）的强大能力，让用户只需通过自然语言描述需求，即可自动编写并执行 Python 代码，从而实现任意类型的输入处理与输出生成。无论是数据格式转换、复杂逻辑计算，还是动态连接其他节点，AnyNode 都能灵活应对，有效解决了传统工作流中因缺乏特定功能节点而需手动编程或寻找插件的痛点。\n\n这款工具特别适合希望提升工作流灵活性的设计师、AI 研究人员以及具备一定基础的开发人员使用。对于普通用户，它降低了在 ComfyUI 中实现自定义功能的门槛；对于开发者，它则提供了快速原型验证的便利。\n\nAnyNode 的核心亮点在于其“所想即所得”的交互模式：用户连接好输入输出端口并写下指令，节点便会实时生成对应代码完成任务。它支持多种后端模型，包括 OpenAI、Google Gemini 以及本地部署的 Ollama 或 vLLM 等服务，赋予了用户极高的自由度。同时，出于安全考虑，AnyNode 内置了代码清洗机制，在执行外部生成的代码前进行严格过滤，以防止潜在风险。不过，由于其能直接操作底层逻辑，使用时仍需谨慎规划节点连接，避免造成系统崩溃。","# AnyNode v0.1 (🍄 beta)\n\nA ComfyUI Node that uses the power of LLMs to do anything with your input to make any type of output.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_2a21699afd59.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_bf5c9768e98a.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_c203d6b6b80b.png)\n\n[![Watch the video](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_7e3c1505d57b.jpg)](https:\u002F\u002Fyoutu.be\u002Ff52K5pkbZy8)\n\n### [📺 More Tutorials on AnyNode at YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=f52K5pkbZy8&list=PL-EiB44NKrkcxJnR9MwD4hOSZOTlHn6Tr)\n\n### [Join our Discord](https:\u002F\u002Fdiscord.gg\u002FRFpe6gsK5x)\n\n## Install\n\n1. Clone this repository into `comfy\u002Fcustom_nodes` *or* Just search for `AnyNode` on ComfyUI Manager\n2. If you're using openAI API, follow the OpenAI instructions\n3. If you're using Gemini, follow the Gemini Instructions\n4. If you're using LocalLLMs API, make sure your LLM server (ollama, etc.) is running\n5. Restart Comfy\n6. In ComfyUI double-click and search for `AnyNode` or you can find it in Nodes > utils\n\n### OpenAI Instructions\n1. Make sure you have the `openai` module installed through pip: `pip install openai`\n2. Add your `OPENAI_API_KEY` variable to your Environment Variables. [How to get your OpenAI API key](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fquickstart)\n\n`AnyNode 🍄` Is the node that directly uses OpenAI with the latest ChatGPT (whichever that may be at the time)\n\n### Gemini Instructions\n1. You don't need any extra module, so don't worry about that\n2. Add your `GOOGLE_API_KEY` variable to your Environment Variables. [How to get your Google API key](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey)\n\n`AnyNode 🍄 (Gemini)` is still being tested so it probably contains bugs. I will update this today.\n\n## Local LLMs\n![Screenshot from 2024-05-27 13-32-58](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_43bf29003d85.png)\nWe now have an `AnyNode 🍄 (Gemini)` Node and our big star: The `AnyNode 🍄 (Local LLM)` Node.\nThis was the most requested feature since Day 1. The classic `AnyNode 🍄` will still use OpenAI directly.\n- You can set each LocalLLM node to use a different local or hosted service as long as it's OpenAI compatible\n- This means you can use [Ollama](https:\u002F\u002Follama.com\u002F), [vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002F) and any other LocalLLM server from wherever you want\n\n### A Note about Security for the Local LLM variant\nThe way that AnyNode works, is that it executes code which happens externally from python that is coming back from the `server` on a ChatCompletions endpoint. To put that into perspective, wherever you point it, you are giving some sort of control in python to that place. **BE CAREFUL** that if you are not pointing it to `localhost` that you absolutely trust the address that you put into `server`.\n\n## How it Works\n\n1. Put in what you want the node to do with the input and output.\n2. Connect it up to anything on both sides\n3. Hit `Queue Prompt` in ComfyUI\n\nAnyNode codes a python function based on your request and whatever input you connect to it to generate the output you requested which you can then connect to compatible nodes.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_dca9199e9367.png)\n\n## Update: It can make you a sandwich\n![Courtesy of Synthetic Ape](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_012d8a77b9e2.png)\n*Courtesy of [synthetic ape](https:\u002F\u002Fwww.tiktok.com\u002F@synthetic.ape)*\n\n**Warning**: Because of the ability to link *ANY* node, you can crash ComfyUI if you are not careful.\n\n### 🛡️ Security Features\nYou shouldn't trust an LLM with your computer, and we don't either.\n\n**Code Sanizitzer**\nEvery piece of code that the LLM outputs [goes through a sanitizer](https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fblob\u002Fd2d466bdcf6ef162aef503b3c79e135b7a33c349\u002Fnodes\u002Futils.py#L149) before being allowed to be loaded into the environment or executed. You will see errors about dangerous code... that's the sanitizer.\n\n**No Internet, No Files, No Command Line**\nAs a safety feature, AnyNode does not have the ability to generate functions that browse the internet or touch the files on your computer. If you need to load something into comfy or get stuff from the internet, there are plenty of loader nodes available in popular node packs on Manager. \n\n**Curated Imports**\nWe only let AnyNode use libraries from the list of [Allowed Imports](https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fblob\u002Fd2d466bdcf6ef162aef503b3c79e135b7a33c349\u002Fnodes\u002Fany.py#L120). Anything else will not even be within the function's runtime environment and will give you an error. This is a feature. If you want libraries you don't see in that list to be added to AnyNode, let us know on the Discord or open an Issue.\n\n**Note**: AnyNode can use the openai and google generativeAI libraries in the functions it generates, so you can ask it to use the latest from OpenAI by pasting an example from their API and get it to stream a TTS audio file to your computer, that is a supported library and it's fine.\n\n## 🤔 Caveats\n- I have no idea how far you can take this nor it's limits\n- LLMs can't read your mind. To make complex stuff in one node you'd have to know a bit about programming\n- The smaller the LLM you use to code your nodes, the less coding skills it might have\n- Right now you can only see code the LLM generates in the console\n- ~~Can't make a sandwich~~\n\n## 💪 Strengths\n- Use OpenAI `AnyNode 🍄`, Local LLMs `AnyNode 🍄 (Local LLM)`, Gemini `AnyNode 🍄 (Gemini)`\n- You can use as many of these as you want in your workflow creating possibly complex node groups\n- Really great at single purpose nodes\n- Uses OpenAI API for simple access to the latest and greatest in generation models\n- Technically you could point this at vLLM. LM Studio or Ollama for you LocalLLM fans\n- Can use most of the popular python libraries and most standard like (numpy, torch, collections, re)\n- Ability to make more complex nodes that use inputs like MODEL, VAE and CLIP with input type awareness\n- Error Mitigation: Auto-correct errors it made in code (just press `Queue Prompt` again)\n- Incremental Code editing (the last generated function serves as example for next generation)\n- Copy cool nodes you prompt is as easy as copying the workflow\n- Saves generated functions registry `json` to `output\u002Fanynode` so you can bundle it with workflow\n- Can make more complex functions with two optional inputs to the node.\n- **IT CAN MAKE A SANDWICH!**\n\n## 🛣️ Roadmap\n- **Export to Node**: Compile a new comfy node from your AnyNode (Requires restart to use your new node)\n- Downstream Error Mitigation: Perform error mitigation on outputs to other nodes (expectation management)\n- RAG based function storage and semantic search across comfy modules (not a pipe dream)\n- Persistent data storage in the AnyNode (functions store extra data for iterative processing or persistent memory)\n- Expanding [*NodeAware*](https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fblob\u002Fmain\u002Fnodes\u002Futil_nodeaware.py#L1) to include full Workspace Awareness\n- Node Recommendations: AnyNode will recommend you or even load some nodes into the workflow based on your input\n\n## Coding Errors you Might Encounter\nAs with any LLMs or text generating language model, when it comes to coding, it can sometimes make mistakes that it can't fix by itself even if you show it the error of it's ways. A lot of these can be mitigated by modifying your prompt. If you encounter some of the known ones, we have some prompt engineering solutions here for you.\n\nFor this I recommend that you [Join our Discord](https:\u002F\u002Fdiscord.gg\u002FRFpe6gsK5x) and report the bug there. Often times AnyNode will fix the bug if it happened within your generated function if you just click `Queue Prompt` again.\n\n## If you're still here\nLet's enjoy some stuff I made while up all night!\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_51afa4e3e50c.png)\nThis one, well... the prompts explain it all, but TLDR; It takes an image as input and outputs only the red channel of that image.\n\n![Screenshot from 2024-05-26 01-30-40](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_3e42f9e30b5f.png)\nHere I use three AnyNodes: One to load a file, one to summarize the text in that file, and the other to just do some parsing of that text. No coding needed.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_64c7014168ee.png)\nI took that Ant example a bit further and added in the normal nodes to do img2img with my color transforms from AnyNode\n\n![Screenshot from 2024-05-26 20-45-57](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_c00ec5493d88.png)\nHere I ask for an instagram-like sepia tone filter for my AnyNode ... I titled the node Image Filter just so I can remember what it's supposed to be doing in the workflow\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_2034893c908f.png)\nLet's try a much more complex description of an HSV transform, but still in plain english. And we get a node that will randomly filter HSV every time it's run!\n[Here's that workflow](workflows\u002Fanynode_hsl-tweak.json)\n\n![Screenshot from 2024-05-26 21-05-25](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_9cb8aa5321a5.png)\nThen I ask for a more legacy instagram filter (normally it would pop the saturation and warm the light up, which it did!)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_66f56d0fd834.png)\nHow about a psychedelic filter?\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_1828e37686d3.png)\nHere I ask it to make a \"sota edge detector\" for the output image, and it makes me a pretty cool Sobel filter. And I pretend that I'm on the moon.\n[Here's that workflow](workflows\u002Fsobel-charcoal.json)\n","# AnyNode v0.1 (🍄 测试版)\n\n一个基于 ComfyUI 的节点，利用大语言模型的强大能力，根据你的输入完成任何任务，并生成任意类型的输出。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_2a21699afd59.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_bf5c9768e98a.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_c203d6b6b80b.png)\n\n[![观看视频](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_7e3c1505d57b.jpg)](https:\u002F\u002Fyoutu.be\u002Ff52K5pkbZy8)\n\n### [📺 更多 AnyNode 教程请访问 YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=f52K5pkbZy8&list=PL-EiB44NKrkcxJnR9MwD4hOSZOTlHn6Tr)\n\n### [加入我们的 Discord](https:\u002F\u002Fdiscord.gg\u002FRFpe6gsK5x)\n\n## 安装\n\n1. 将此仓库克隆到 `comfy\u002Fcustom_nodes` 目录下，或者直接在 ComfyUI Manager 中搜索 `AnyNode`。\n2. 如果你使用 OpenAI API，请按照 OpenAI 的说明进行操作。\n3. 如果你使用 Gemini，请按照 Gemini 的说明进行操作。\n4. 如果你使用 LocalLLMs API，请确保你的 LLM 服务器（如 Ollama 等）正在运行。\n5. 重启 Comfy。\n6. 在 ComfyUI 中双击并搜索 `AnyNode`，或者你可以在 Nodes > utils 中找到它。\n\n### OpenAI 使用说明\n1. 确保你已通过 pip 安装了 `openai` 模块：`pip install openai`。\n2. 将你的 `OPENAI_API_KEY` 变量添加到环境变量中。[如何获取 OpenAI API 密钥](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fquickstart)\n\n`AnyNode 🍄` 是直接使用 OpenAI 和最新 ChatGPT 的节点（具体版本以当时为准）。\n\n### Gemini 使用说明\n1. 你不需要安装任何额外的模块，所以无需担心。\n2. 将你的 `GOOGLE_API_KEY` 变量添加到环境变量中。[如何获取 Google API 密钥](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey)\n\n`AnyNode 🍄 (Gemini)` 目前仍在测试中，可能包含一些 bug。我将在今天更新相关信息。\n\n## 本地 LLM\n![Screenshot from 2024-05-27 13-32-58](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_43bf29003d85.png)\n我们现在有了 `AnyNode 🍄 (Gemini)` 节点，以及我们的明星节点：`AnyNode 🍄 (Local LLM)` 节点。这是自项目启动以来用户呼声最高的功能。经典的 `AnyNode 🍄` 仍然会直接使用 OpenAI。\n\n- 你可以为每个 LocalLLM 节点配置不同的本地或托管服务，只要它们兼容 OpenAI 协议即可。\n- 这意味着你可以使用 [Ollama](https:\u002F\u002Follama.com\u002F)、[vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002F) 以及其他任何你想要的 LocalLLM 服务器。\n\n### 关于 Local LLM 版本的安全提示\nAnyNode 的工作原理是执行从 `server` 的 ChatCompletions 端点返回的外部 Python 代码。换句话说，无论你将它指向哪里，你都在赋予那个位置对 Python 的某种程度的控制权。**请务必小心**，如果你没有将其指向完全信任的 `localhost`，那么一定要确认你输入的 `server` 地址是安全可靠的。\n\n## 工作原理\n\n1. 输入你希望节点如何处理输入和输出。\n2. 将其与两侧的任何节点连接起来。\n3. 在 ComfyUI 中点击 `Queue Prompt`。\n\nAnyNode 会根据你的请求以及你连接的输入，生成一个 Python 函数来产生你所需的输出，然后你可以将该输出连接到兼容的节点上。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_dca9199e9367.png)\n\n## 更新：它甚至可以帮你做三明治\n![由 Synthetic Ape 提供](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_012d8a77b9e2.png)\n*由 [synthetic ape](https:\u002F\u002Fwww.tiktok.com\u002F@synthetic.ape) 提供*\n\n**警告**：由于 AnyNode 可以连接 *任意* 节点，如果你不小心，可能会导致 ComfyUI 崩溃。\n\n### 🛡️ 安全特性\n你不应该把你的电脑交给 LLM 来“掌控”，我们也不这样做。\n\n**代码净化器**\nLLM 输出的每一行代码都会经过一个净化器处理[见此处](https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fblob\u002Fd2d466bdcf6ef162aef503b3c79e135b7a33c349\u002Fnodes\u002Futils.py#L149)，只有通过净化的代码才会被加载到环境中或执行。如果出现关于危险代码的错误信息，那就是净化器在起作用。\n\n**无网络、无文件、无命令行**\n作为一项安全措施，AnyNode 不具备生成能够浏览互联网或访问你电脑文件的功能。如果你需要加载某些内容到 Comfy 或从网上获取资源，Manager 上有许多流行的节点包中都提供了相应的加载节点。\n\n**精选导入库**\n我们只允许 AnyNode 使用 [允许导入的库列表](https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fblob\u002Fd2d466bdcf6ef162aef503b3c79e135b7a33c349\u002Fnodes\u002Fany.py#L120)中的库。其他任何库都不会进入函数的运行环境，你会收到错误提示。这也是一个设计上的特点。如果你想让不在该列表中的库也能被 AnyNode 使用，请在 Discord 上告诉我们，或者提交一个 Issue。\n\n**注意**：AnyNode 可以在其生成的函数中使用 OpenAI 和 Google 的生成式 AI 库，因此你可以要求它使用 OpenAI 的最新功能，比如粘贴一个来自其 API 的示例代码，让它为你生成一段 TTS 音频文件并保存到你的电脑上——这些都是受支持的库，完全可以放心使用。\n\n## 🤔 注意事项\n- 我无法预知你能将这个工具用到什么程度，也没有明确的限制。\n- LLM 并不能读懂你的心思。要在单个节点中实现复杂功能，你至少需要具备一定的编程知识。\n- 你使用的 LLM 越小，它在编写代码方面的能力可能就越有限。\n- 目前你只能在控制台中查看 LLM 生成的代码。\n- ~~暂时还不能做三明治~~\n\n## 💪 优势\n- 可以使用 OpenAI 的 `AnyNode 🍄`、本地 LLM 的 `AnyNode 🍄 (Local LLM)` 以及 Gemini 的 `AnyNode 🍄 (Gemini)`。\n- 你可以在工作流中随意组合这些节点，创建复杂的节点组。\n- 非常适合用于单一用途的节点。\n- 使用 OpenAI API，轻松接入最新的生成模型。\n- 技术上，你也可以将其指向 vLLM、LM Studio 或 Ollama，满足本地 LLM 爱好者的需求。\n- 可以使用大多数流行的 Python 库，包括标准库如 numpy、torch、collections 和 re。\n- 能够创建更复杂的节点，支持 MODEL、VAE 和 CLIP 等输入类型感知。\n- 错误缓解：自动纠正代码中的错误（只需再次点击 `Queue Prompt`）。\n- 逐步编辑代码：上次生成的函数可作为下次生成的参考。\n- 复制你生成的酷炫节点就像复制整个工作流一样简单。\n- 会将生成的函数注册表以 `json` 格式保存到 `output\u002Fanynode` 目录下，方便你与工作流一起打包。\n- 可以通过两个可选输入使节点功能更加复杂。\n- **它真的可以做三明治！**\n\n## 🛣️ 路线图\n- **导出到 Node**：从你的 AnyNode 编译一个新的 comfy 节点（需要重启才能使用新节点）\n- 下游错误缓解：对输出到其他节点的结果进行错误缓解（期望管理）\n- 基于 RAG 的函数存储和跨 comfy 模块的语义搜索（并非空想）\n- 在 AnyNode 中实现持久化数据存储（函数可存储额外数据，用于迭代处理或持久化记忆）\n- 扩展 [*NodeAware*](https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fblob\u002Fmain\u002Fnodes\u002Futil_nodeaware.py#L1) 功能，使其包含完整的 Workspace 意识\n- 节点推荐：AnyNode 会根据你的输入为你推荐，甚至自动将某些节点加载到工作流中\n\n## 你可能会遇到的编码错误\n与任何大语言模型或文本生成模型一样，在编写代码时，有时会出现它自身无法修复的错误，即便你指出了它的错误所在。许多此类问题可以通过调整提示词来缓解。如果你遇到了已知的问题，我们在这里为你提供一些提示工程解决方案。\n\n为此，我建议你[加入我们的 Discord](https:\u002F\u002Fdiscord.gg\u002FRFpe6gsK5x)，并在那里报告问题。通常情况下，如果错误发生在你生成的函数内部，只需再次点击 `Queue Prompt`，AnyNode 就会自动修复该问题。\n\n## 如果你还在这里\n让我们一起欣赏一下我在通宵熬夜时制作的一些作品吧！\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_51afa4e3e50c.png)\n这个例子嘛……提示词已经解释了一切，简单来说：它接收一张图片作为输入，并只输出该图片的红色通道。\n\n![Screenshot from 2024-05-26 01-30-40](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_3e42f9e30b5f.png)\n这里我使用了三个 AnyNode：一个用于加载文件，一个用于总结文件中的文本，另一个则用于对文本进行简单的解析。完全无需编写任何代码。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_64c7014168ee.png)\n我把之前的蚂蚁示例又推进了一步，加入了常规节点，用 AnyNode 生成的颜色变换效果来进行 img2img 处理。\n\n![Screenshot from 2024-05-26 20-45-57](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_c00ec5493d88.png)\n这次我让 AnyNode 为我的图像添加一种类似 Instagram 的棕褐色滤镜……我给这个节点取名为“图像滤镜”，这样在工作流中就能清楚地记住它的用途。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_2034893c908f.png)\n接下来，我们尝试用更复杂的描述来定义一个 HSV 变换，但仍然使用通俗易懂的英文。结果，我们得到了一个每次运行都会随机应用 HSV 滤镜的节点！\n[这是该工作流](workflows\u002Fanynode_hsl-tweak.json)\n\n![Screenshot from 2024-05-26 21-05-25](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_9cb8aa5321a5.png)\n随后，我又请求了一个更具复古感的 Instagram 滤镜（通常这种滤镜会提高饱和度并使光线更温暖——而它确实做到了！）。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_66f56d0fd834.png)\n那再来个迷幻风格的滤镜怎么样呢？\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_readme_1828e37686d3.png)\n这一次，我要求它为输出图像制作一个“最先进的边缘检测器”，结果它真的生成了一个很酷的 Sobel 滤镜。我还假装自己正站在月球上。\n[这是该工作流](workflows\u002Fsobel-charcoal.json)","# AnyNode 快速上手指南\n\nAnyNode 是一个强大的 ComfyUI 自定义节点，它利用大语言模型（LLM）的能力，根据你的自然语言描述动态生成 Python 代码，从而处理输入数据并产生任意类型的输出。无需手动编写代码，即可创建定制化的图像处理、数据转换或逻辑控制节点。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和前置依赖：\n\n*   **ComfyUI**: 已安装并可正常运行的 ComfyUI 环境。\n*   **Python 依赖**:\n    *   若使用 OpenAI 模型，需安装 `openai` 库：\n        ```bash\n        pip install openai\n        ```\n    *   若使用 Google Gemini 模型，无需额外安装特定 Python 库（由节点内部处理）。\n    *   若使用本地大模型（Local LLM），需确保本地推理服务（如 Ollama, vLLM, LM Studio 等）已启动且支持 OpenAI 兼容接口。\n*   **API 密钥 (环境变量)**:\n    *   **OpenAI**: 需在系统环境变量中设置 `OPENAI_API_KEY`。\n    *   **Gemini**: 需在系统环境变量中设置 `GOOGLE_API_KEY`。\n    *   *注：获取密钥请访问对应平台的官方文档。*\n\n## 安装步骤\n\n你可以通过以下两种方式之一安装 AnyNode：\n\n### 方式一：使用 ComfyUI Manager（推荐）\n\n1.  打开 ComfyUI 界面，点击右侧菜单的 **Manager** 按钮。\n2.  选择 **Install Custom Nodes**。\n3.  在搜索框中输入 `AnyNode`。\n4.  找到插件并点击 **Install**。\n5.  安装完成后，**重启 ComfyUI**。\n\n### 方式二：手动克隆仓库\n\n1.  进入 ComfyUI 的自定义节点目录：\n    ```bash\n    cd path\u002Fto\u002FComfyUI\u002Fcustom_nodes\n    ```\n2.  克隆仓库：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode.git\n    ```\n3.  安装依赖（如需）：\n    ```bash\n    pip install openai\n    ```\n4.  **重启 ComfyUI**。\n\n## 基本使用\n\n安装并重启后，按照以下步骤创建你的第一个动态节点：\n\n### 1. 添加节点\n在 ComfyUI 画布空白处双击，搜索 `AnyNode`。你会看到以下几个主要变体：\n*   `AnyNode 🍄`: 直接使用 OpenAI ChatGPT。\n*   `AnyNode 🍄 (Gemini)`: 使用 Google Gemini 模型（测试版）。\n*   `AnyNode 🍄 (Local LLM)`: 使用本地或托管的兼容 OpenAI 接口的 LLM 服务。\n\n### 2. 配置节点\n选中节点后，在属性面板中进行如下设置：\n*   **Prompt (指令)**: 用自然语言描述你希望节点完成的任务。\n    *   *示例*: \"接收一张图片，只保留其红色通道并输出。\"\n    *   *示例*: \"接收一个字符串列表，返回其中长度大于 5 的字符串。\"\n*   **Server (仅 Local LLM 模式)**: 输入本地服务的地址（例如 `http:\u002F\u002Flocalhost:11434\u002Fv1`）。\n*   **Model (可选)**: 指定使用的具体模型名称。\n\n### 3. 连接工作流\n*   **输入端**: 将上游节点（如加载图像的 `Load Image` 或文本节点）连接到 AnyNode 的输入接口。AnyNode 会自动识别输入类型（如 `IMAGE`, `STRING`, `MODEL` 等）。\n*   **输出端**: 将 AnyNode 的输出连接到下游兼容的节点。\n\n### 4. 运行与调试\n*   点击 ComfyUI 的 **Queue Prompt** 按钮。\n*   AnyNode 会根据你的描述实时生成 Python 函数并执行。\n*   **注意**:\n    *   生成的代码会在控制台（Console）中显示，便于排查错误。\n    *   如果生成的代码报错，通常只需再次点击 **Queue Prompt**，节点会尝试自动修正错误。\n    *   出于安全考虑，该节点禁止访问互联网、读写本地文件系统或执行命令行操作，仅允许使用预定义的白名单库（如 `numpy`, `torch`, `re` 等）。\n\n### 简单示例：图像红通道提取\n1.  放置一个 `Load Image` 节点加载图片。\n2.  放置一个 `AnyNode 🍄` 节点。\n3.  在 Prompt 中输入：\"Take the input image and return only the red channel as an image output.\"\n4.  连接 `Load Image` -> `AnyNode` -> `Save Image`。\n5.  点击 **Queue Prompt**，即可得到仅含红色通道的图像。","一位数字艺术家正在 ComfyUI 中构建复杂的图像生成工作流，需要动态处理大量非结构化的文本提示词并转换为特定的图像参数。\n\n### 没有 anynode 时\n- **开发门槛高**：若需根据输入故事自动提取“光影风格”或“镜头焦段”，必须手动编写 Python 自定义节点，对不懂代码的艺术家极不友好。\n- **流程僵化**：硬编码的逻辑无法适应多变的创意需求，每次调整提取规则（如从提取“颜色”改为提取“情绪”）都需要修改代码并重启服务。\n- **维护成本大**：为了连接不同数据格式的节点，往往需要串联多个转换插件，导致工作流连线杂乱如“蜘蛛网”，难以排查错误。\n- **响应滞后**：面对新的数据处理需求（如将自然语言描述转为具体的 ControlNet 参数），只能等待社区更新现成插件，无法即时解决。\n\n### 使用 anynode 后\n- **自然语言编程**：只需在 anynode 中输入“从文本中提取风格关键词并格式化为列表”，它便自动调用 LLM 生成并执行对应的 Python 代码，无需人工写码。\n- **动态灵活适配**：想改变处理逻辑时，直接修改 anynode 中的指令即可，无需触碰底层代码或重新部署环境，实现“所想即所得”。\n- **链路极简高效**：anynode 能直接理解并转换任意输入输出格式，将原本需要五六个节点完成的数据清洗工作压缩为一个节点，工作流清晰整洁。\n- **即时能力扩展**：遇到新需求（如根据天气描述自动生成对应的色调参数），anynode 可立即利用大模型能力现场“编写”功能，零等待上线。\n\nanynode 通过将自然语言指令实时转化为可执行代码，打破了传统工作流的硬编码限制，让非程序员也能拥有无限定制的数据处理能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flks-ai_anynode_2a21699a.png","lks-ai","LK Studio","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flks-ai_795fdb35.png","LLM based solutions",null,"https:\u002F\u002Fgithub.com\u002Flks-ai",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,549,41,"2026-03-25T04:28:36","MIT","未说明 (作为 ComfyUI 节点，支持 ComfyUI 运行的所有平台)","非必需。若使用本地大语言模型 (Local LLM)，需根据所选模型配置相应的 GPU；若使用 OpenAI 或 Gemini API，则无需本地 GPU。","未说明 (取决于是否运行本地大语言模型及模型大小)",{"notes":95,"python":96,"dependencies":97},"1. 该工具是 ComfyUI 的一个自定义节点，需先安装 ComfyUI。2. 支持三种模式：OpenAI API、Google Gemini API 和本地大语言模型 (如 Ollama, vLLM)。3. 使用 API 模式需在环境变量中配置 `OPENAI_API_KEY` 或 `GOOGLE_API_KEY`。4. 使用本地模型模式需确保本地推理服务器 (如 Ollama) 已运行且兼容 OpenAI 接口。5. 出于安全考虑，代码执行受到严格限制：禁止访问互联网、文件系统或命令行，仅允许导入白名单中的 Python 库。6. 本地模型模式下，若服务器地址非 localhost，存在安全风险，需谨慎配置。","未说明 (需与 ComfyUI 环境兼容)",[98,99,100,101,102,103],"openai (使用 OpenAI 时需通过 pip 安装)","google-generativeai (隐含，使用 Gemini 时可能需要)","numpy","torch","collections","re",[15,36],"2026-03-27T02:49:30.150509","2026-04-06T05:17:49.514432",[108,113,118,123,128,132],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},15102,"`safe_exec` 函数是否存在安全风险？如何确保代码执行的安全性？","维护者已采纳建议，参考 `restrictedpython` 的思路在 `utils.py` 中实现了更安全的执行机制。虽然完全的安全很难保证（攻击者可能通过诱导性提示如“读取特定路径文件并发送”来绕过），但已更新管理器数据库并改进了白名单\u002F黑名单策略以提升安全性。相关代码实现可查看：https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fblob\u002Fff7fe3b44ae1262147590f601304bf037d317631\u002Fnodes\u002Futils.py#L149","https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fissues\u002F3",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},15103,"遇到错误 'The model `gpt-4o` does not exist or you do not have access to it' (404) 怎么办？","该问题已在最新更新中修复。现在可以在 OpenAI  vanilla AnyNode 节点中手动选择模型，不再硬编码为 `gpt-4o`。请执行 `git pull` 拉取最新代码即可解决。","https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fissues\u002F10",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},15104,"LLM 生成的代码无法正确操作图像或输出随机噪声怎么办？","这是因为 ComfyUI 不使用常规图像格式，而是将数据封装在 Tensor 中。解决方法是提供具体的示例提示（Prompt Engineering）：\n1. 更新到最新版本以修复 LLM 只说话不生成代码的问题。\n2. 参考官方提供的 HSL Tweak 工作流示例：https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fblob\u002Fmain\u002Fworkflows\u002Fanynode_hsl-tweak.json\n3. 复制该节点并修改提示词的上半部分，明确给出输入输出的形状和内容示例，引导 LLM 生成正确的 Tensor 操作代码。","https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fissues\u002F2",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},15105,"AnyNode 无法连接到本地 LLM (Ollama)，似乎被硬编码锁定为 'gpt-4o' 怎么办？","这是一个已知问题，旧版本中模型名称被硬编码。维护者已在最新版本中修复了此问题，现在支持配置本地 LLM（如 llama3）。请直接运行 `git pull` 更新到最新版本即可恢复本地连接功能。","https:\u002F\u002Fgithub.com\u002Flks-ai\u002Fanynode\u002Fissues\u002F17",{"id":129,"question_zh":130,"answer_zh":131,"source_url":122},15106,"在 Windows 11 上使用 Ollama 或独立节点时报错，该如何解决？","这通常是由于版本过旧导致的兼容性问题。请运行 `git pull` 命令更新到最新版本，该更新修复了 Windows 环境下的一些特定错误以及 LLM 尝试对话而非生成代码的问题。",{"id":133,"question_zh":134,"answer_zh":135,"source_url":117},15107,"为什么即使充值了 OpenAI 账户，仍然提示无法访问 gpt-4o 模型？","除了账户权限外，这可能是插件版本过旧导致默认请求了错误的模型端点。最新的更新允许用户在节点界面自由选择模型。如果问题依旧，请确保执行 `git pull` 更新插件，并在节点设置中显式选择您有权限访问的模型。",[]]