[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-marcelo-earth--generative-manim":3,"tool-marcelo-earth--generative-manim":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":32,"env_os":101,"env_gpu":102,"env_ram":101,"env_deps":103,"category_tags":112,"github_topics":114,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":127,"updated_at":128,"faqs":129,"releases":159},9029,"marcelo-earth\u002Fgenerative-manim","generative-manim","🎨 GPT for video generation ⚡️","Generative Manim 是一款创新的开源工具，旨在让任何人只需输入文字描述，就能自动生成高质量的数学与科学动画视频。它巧妙结合了大语言模型（如 GPT-4o、Claude）的代码生成能力与 Manim 引擎强大的动画渲染技术，将自然语言直接转化为可执行的动画代码并渲染成片。\n\n过去，制作精美的教学动画通常需要掌握复杂的编程技能或专业的视频编辑知识，门槛较高。Generative Manim 彻底解决了这一痛点，用户无需编写任何代码，也无需具备视频制作经验，仅需像聊天一样描述想要的画面，即可轻松获得专业级的动画成果。\n\n这款工具非常适合教育工作者、科普创作者、学生以及需要快速制作演示视频的研究人员使用。同时，对于希望探索\"AI+ 动画”前沿技术的开发者，它也提供了灵活的 API 接口和多种模型选择（包括微调后的 GPT-3.5 及开源的 Qwen、DeepSeek 等），支持深度定制与二次开发。其核心亮点在于通过定制化的系统提示词（System Prompt）和多模型适配策略，显著提升了 AI 生成动画代码的准确率与物理逻辑合理性，让创意到视频的转化过程更加流畅高效。","\u003Cp align=\"center\">\n  \u003Cb>English\u003C\u002Fb> | \u003Ca href=\"README_CN.md\">中文说明\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n\u003Cp align=\"center\">\n  \u003Cimg\n    src=\".github\u002Flogo.png\"\n    align=\"center\"\n    width=\"100\"\n    alt=\"Generative Manim\"\n    title=\"Generative Manim\"\n  \u002F>\n  \u003Ch1 align=\"center\">Generative Manim\u003C\u002Fh1>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  🎨 GPT-4o powered generative videos. Concept. ⚡️ \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FSNdbPU2AMM\">Join our Discord server here!\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgenerative-manim.vercel.app\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Demo&message=Generative%20Manim&color=000000&logo=vercel&style=flat\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fanimo.video\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Platform&message=Animo&color=E11D48&logo=openai&style=flat\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=OpenAI%20API&message=GPT-4o&color=000000&logo=openai&style=flat\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Anthropic&message=Claude&color=000000&logo=anthropic&style=flat\" \u002F>\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n![Preview](.\u002F.github\u002Fpreview.jpg)\n\n## 🚀 Concept\n\n**Generative Manim** (GM) is a suite of tools that allows you to create videos with Manim using LLMs (Large Language Models) like GPT-4 or Claude. The idea is to enable anyone to create wonderful animations from text ✨.\n\nIt began as a prototype of a web app that uses [GPT-4](https:\u002F\u002Fopenai.com\u002Fresearch\u002Fgpt-4) to generate videos with [Manim](https:\u002F\u002Fwww.manim.community). The idea behind this project is taking advantage of the power of LLMs in programming, the understanding of human language and the animation capabilities of Manim to generate a tool that could be used by anyone to create videos. Regardless of their programming or video editing skills.\n\n- 🖐️ [Generative Manim Demo](https:\u002F\u002Fgenerative-manim.vercel.app\u002F): Check out the demo of Generative Manim!\n- 🔬 [Generative Manim API](https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim\u002Ftree\u002Fmain\u002Fapi): Build over the Animation Processing Interface, or API.\n- 🧑‍💻 [Generative Manim Developers](https:\u002F\u002Fdiscord.gg\u002FHkbYEGybGv): Join our Discord server, learn new things, share your creations and more!\n- 🍎 [Generative Manim Streamlit (Legacy)](https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim\u002Ftree\u002Fmain\u002Fstreamlit): First LLM exploration of LLMs and Animation.\n\n## 💻 Models\n\n**Models** are the core of Generative Manim. A model is a way to convert text to code, that can later be rendered in a video.\n\n| Name                          | Description                                                               | Engine                     | Phase |\n| ----------------------------- | ------------------------------------------------------------------------- | -------------------------- | ----- |\n| GM GPT-4o                     | Latest GPT model from OpenAI powered by a custom System Prompt            | GPT-4o                     | ✅    |\n| GM GPT-3.5 Fine Tuned         | First Fine-tuned model of GPT-3.5                                         | GPT-3.5                    | ✅    |\n| GM GPT-3.5 Physics Fine Tuned | Fine-tuned GPT-3.5 model trained to generate Physics animations           | GPT-3.5                    | ✅    |\n| GM Claude Sonnet              | Claude Sonnet 3 model from Sonnet adapted with our custom System Prompt   | claude-3-sonnet-20240229   | ✅    |\n| GM Claude Sonnet 3.5          | Claude Sonnet 3.5 model from Sonnet adapted with our custom System Prompt | claude-3-5-sonnet-20240620 | ✅    |\n| GM Qwen 2.5 Coder 7B          | Open-source model fine-tuned with SFT + DPO + GRPO pipeline              | Qwen2.5-Coder-7B-Instruct | 🚧    |\n| GM DeepSeek Coder V2 Lite      | Open-source model fine-tuned with SFT + DPO + GRPO pipeline              | DeepSeek-Coder-V2-Lite     | 🚧    |\n| GM CodeLlama 7B                | Open-source model fine-tuned with SFT + DPO + GRPO pipeline              | CodeLlama-7b-Instruct      | 🚧    |\n\n### 📡 New Models\n\nIf you want to suggest a new model, please open an issue in the [repository](https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim\u002Fissues) or talk with us in our [Discord server](https:\u002F\u002Fdiscord.gg\u002FHkbYEGybGv).\n\n## 🧠 Training Pipeline\n\nWe're training **open-source models** to generate Manim code using a 3-stage pipeline that distills from GPT-4o:\n\n1. **SFT** (Supervised Fine-Tuning) — Train on 5,000+ validated prompt→code pairs\n2. **DPO** (Direct Preference Optimization) — Learn from render success\u002Ffailure pairs\n3. **GRPO** (Group Relative Policy Optimization) — RL with the Manim renderer as a deterministic reward signal\n\nThe key insight: Manim is a **deterministic verifier** — code either renders or crashes. This replaces the need for a reward model, similar to how DeepSeek-R1 uses math answer checkers.\n\n**Base models**: Qwen 2.5 Coder 7B, DeepSeek Coder V2 Lite, CodeLlama 7B — all using QLoRA (4-bit) to fit on free Kaggle T4 GPUs.\n\n## 📏 Benchmark\n\nGenerative Manim now includes an executable benchmark MVP for expert Manim code generation under [`training\u002Fbenchmarks`](.\u002Ftraining\u002Fbenchmarks).\n\nThe benchmark is built around the right primitives for programming evaluation:\n\n- a frozen task suite\n- render-based scoring\n- Manim-specific structural checks\n- pass@k for stochastic code generation\n- reproducible JSONL and JSON reports\n\nStart here:\n\n```bash\ncd training\npython -m benchmarks.run export \\\n  --suite benchmarks\u002Ftasks\u002Fcore_v1.jsonl \\\n  --output .\u002Foutputs\u002Fbenchmarks\u002Fcore_v1_prompts.jsonl\n```\n\nThen use the generated prompt file with `python -m eval.generate_responses ...`, or run the full flow with:\n\n```bash\nbash .\u002Fscripts\u002Frun_benchmark.sh qwen2.5-coder-7b .\u002Foutputs\u002Fgrpo\u002Fqwen2.5-coder-7b benchmarks\u002Ftasks\u002Fcore_v1.jsonl grpo 5 0.8 1,5\n```\n\nSee [`training\u002Fbenchmarks\u002FREADME.md`](.\u002Ftraining\u002Fbenchmarks\u002FREADME.md) for the benchmark design and workflow.\n\nOnce you have multiple benchmark runs, compare them with:\n\n```bash\ncd training\npython -m benchmarks.compare --results-dir .\u002Foutputs\u002Fbenchmarks --suite core_v1\n```\n\nOr run a whole benchmark matrix from a manifest:\n\n```bash\ncd training\npython -m benchmarks.matrix --manifest benchmarks\u002Fmanifests\u002Fopen_source_core_v1.json --dry-run\n```\n\n## ✨ Sponsors\n\n**Generative Manim** is currently sponsored by **The Astronomical Software Company**.\n\n## 🤲 Contributing\n\nGenerative Manim is an open source project.\n\nIf you want to be the author of a new feature, fix a bug or contribute with something new.\n\nFork the repository and make changes as you like. [Pull requests](https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim\u002Fpulls) are warmly welcome. Remember you can also join our [Discord server](https:\u002F\u002Fdiscord.gg\u002FHkbYEGybGv) to discuss new features, bugs or any other topic.\n","\u003Cp align=\"center\">\n  \u003Cb>English\u003C\u002Fb> | \u003Ca href=\"README_CN.md\">中文说明\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n\u003Cp align=\"center\">\n  \u003Cimg\n    src=\".github\u002Flogo.png\"\n    align=\"center\"\n    width=\"100\"\n    alt=\"Generative Manim\"\n    title=\"Generative Manim\"\n  \u002F>\n  \u003Ch1 align=\"center\">Generative Manim\u003C\u002Fh1>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  🎨 由 GPT-4o 驱动的生成式视频。概念。 ⚡️ \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FSNdbPU2AMM\">在这里加入我们的 Discord 服务器！\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgenerative-manim.vercel.app\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Demo&message=Generative%20Manim&color=000000&logo=vercel&style=flat\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fanimo.video\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Platform&message=Animo&color=E11D48&logo=openai&style=flat\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=OpenAI%20API&message=GPT-4o&color=000000&logo=openai&style=flat\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Anthropic&message=Claude&color=000000&logo=anthropic&style=flat\" \u002F>\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n![预览](.\u002F.github\u002Fpreview.jpg)\n\n## 🚀 概念\n\n**Generative Manim**（GM）是一套工具，允许您使用 GPT-4 或 Claude 等大型语言模型（LLM）通过 Manim 创建视频。其理念是让任何人都能仅凭文本创作出精彩的动画内容✨。\n\n该项目最初是一个基于 [GPT-4](https:\u002F\u002Fopenai.com\u002Fresearch\u002Fgpt-4) 生成 [Manim](https:\u002F\u002Fwww.manim.community) 视频的 Web 应用原型。该想法旨在利用 LLM 在编程、自然语言理解方面的强大能力，结合 Manim 的动画制作功能，打造一款人人皆可使用的视频创作工具，无论其编程或视频编辑技能如何。\n\n- 🖐️ [Generative Manim 演示](https:\u002F\u002Fgenerative-manim.vercel.app\u002F)：查看 Generative Manim 的演示！\n- 🔬 [Generative Manim API](https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim\u002Ftree\u002Fmain\u002Fapi)：基于动画处理接口（API）进行开发。\n- 🧑‍💻 [Generative Manim 开发者社区](https:\u002F\u002Fdiscord.gg\u002FHkbYEGybGv)：加入我们的 Discord 服务器，学习新知识、分享您的作品等！\n- 🍎 [Generative Manim Streamlit（旧版）](https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim\u002Ftree\u002Fmain\u002Fstreamlit)：首次探索 LLM 与动画结合的可能性。\n\n## 💻 模型\n\n**模型**是 Generative Manim 的核心。模型的作用是将文本转换为代码，随后这些代码可以渲染成视频。\n\n| 名称                          | 描述                                                               | 引擎                     | 阶段 |\n| ----------------------------- | ------------------------------------------------------------------------- | -------------------------- | ----- |\n| GM GPT-4o                     | OpenAI 最新的 GPT 模型，基于自定义系统提示词驱动            | GPT-4o                     | ✅    |\n| GM GPT-3.5 微调               | GPT-3.5 的首个微调模型                                         | GPT-3.5                    | ✅    |\n| GM GPT-3.5 物理微调           | 经过微调、专为生成物理动画而训练的 GPT-3.5 模型           | GPT-3.5                    | ✅    |\n| GM Claude Sonnet              | 基于 Sonnet 的 Claude Sonnet 3 模型，并结合我们自定义的系统提示词   | claude-3-sonnet-20240229   | ✅    |\n| GM Claude Sonnet 3.5          | 基于 Sonnet 的 Claude Sonnet 3.5 模型，并结合我们自定义的系统提示词 | claude-3-5-sonnet-20240620 | ✅    |\n| GM Qwen 2.5 Coder 7B          | 使用 SFT + DPO + GRPO 流程微调的开源模型              | Qwen2.5-Coder-7B-Instruct | 🚧    |\n| GM DeepSeek Coder V2 Lite      | 使用 SFT + DPO + GRPO 流程微调的开源模型              | DeepSeek-Coder-V2-Lite     | 🚧    |\n| GM CodeLlama 7B                | 使用 SFT + DPO + GRPO 流程微调的开源模型              | CodeLlama-7b-Instruct      | 🚧    |\n\n### 📡 新模型\n\n如果您希望建议新的模型，请在 [仓库](https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim\u002Fissues) 中提交问题，或在我们的 [Discord 服务器](https:\u002F\u002Fdiscord.gg\u002FHkbYEGybGv) 中与我们交流。\n\n## 🧠 训练流程\n\n我们正在训练 **开源模型**，以使用从 GPT-4o 提炼而来的三阶段流程生成 Manim 代码：\n\n1. **SFT**（监督微调）——基于 5,000 多个经过验证的提示词到代码对进行训练。\n2. **DPO**（直接偏好优化）——从渲染成功\u002F失败对中学习。\n3. **GRPO**（群体相对策略优化）——以 Manim 渲染器作为确定性奖励信号的强化学习。\n\n关键洞察：Manim 是一个 **确定性验证器**——代码要么成功渲染，要么崩溃。这取代了对奖励模型的需求，类似于 DeepSeek-R1 使用数学答案检查器的方式。\n\n**基础模型**：Qwen 2.5 Coder 7B、DeepSeek Coder V2 Lite、CodeLlama 7B——均采用 QLoRA（4 位）技术，以便在免费的 Kaggle T4 GPU 上运行。\n\n## 📏 基准测试\n\nGenerative Manim 现已包含用于专家级 Manim 代码生成的可执行基准测试 MVP，位于 [`training\u002Fbenchmarks`](.\u002Ftraining\u002Fbenchmarks) 目录下。\n\n该基准测试围绕编程评估的正确基元构建：\n\n- 冻结的任务集\n- 基于渲染的评分\n- Manim 特有的结构检查\n- 随机代码生成的 pass@k\n- 可重现的 JSONL 和 JSON 报告\n\n从这里开始：\n\n```bash\ncd training\npython -m benchmarks.run export \\\n  --suite benchmarks\u002Ftasks\u002Fcore_v1.jsonl \\\n  --output .\u002Foutputs\u002Fbenchmarks\u002Fcore_v1_prompts.jsonl\n```\n\n然后使用生成的提示文件运行 `python -m eval.generate_responses ...`，或者通过以下命令运行完整流程：\n\n```bash\nbash .\u002Fscripts\u002Frun_benchmark.sh qwen2.5-coder-7b .\u002Foutputs\u002Fgrpo\u002Fqwen2.5-coder-7b benchmarks\u002Ftasks\u002Fcore_v1.jsonl grpo 5 0.8 1,5\n```\n\n有关基准测试的设计和工作流程，请参阅 [`training\u002Fbenchmarks\u002FREADME.md`](.\u002Ftraining\u002Fbenchmarks\u002FREADME.md)。\n\n当您完成多次基准测试后，可以通过以下命令进行比较：\n\n```bash\ncd training\npython -m benchmarks.compare --results-dir .\u002Foutputs\u002Fbenchmarks --suite core_v1\n```\n\n或者从清单文件中运行整个基准矩阵：\n\n```bash\ncd training\npython -m benchmarks.matrix --manifest benchmarks\u002Fmanifests\u002Fopen_source_core_v1.json --dry-run\n```\n\n## ✨ 赞助商\n\n**Generative Manim** 目前由 **The Astronomical Software Company** 赞助。\n\n## 🤲 贡献\n\nGenerative Manim 是一个开源项目。\n\n如果您想成为新功能的作者、修复 bug 或做出其他贡献，\n\n请 fork 该仓库并根据需要进行修改。我们热烈欢迎 [pull requests](https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim\u002Fpulls)。同时，您也可以加入我们的 [Discord 服务器](https:\u002F\u002Fdiscord.gg\u002FHkbYEGybGv)，讨论新功能、bug 或其他话题。","# Generative Manim 快速上手指南\n\nGenerative Manim 是一个利用大语言模型（如 GPT-4o、Claude 等）自动生成 Manim 动画代码的工具套件。它让无需编程或视频编辑经验的用户也能通过文本描述创建精美的数学和物理动画。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows (推荐 WSL2)\n*   **Python**: 版本 3.8 或更高\n*   **Manim 社区版**: 需预先安装 Manim 渲染引擎\n*   **API Key**: 需要 OpenAI API Key 或 Anthropic API Key（取决于您选择的模型）\n*   **FFmpeg**: 用于视频编码（通常随 Manim 自动安装，若报错请手动安装）\n\n**前置依赖安装 (Manim):**\n```bash\npip install manim\n# 验证安装\nmanim --version\n```\n\n> **提示**: 国内用户若遇到 PyPI 下载缓慢，可使用清华源加速：\n> `pip install manim -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 安装步骤\n\n克隆项目仓库并安装必要的 Python 依赖：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim.git\ncd generative-manim\n\n# 安装核心依赖\npip install -r requirements.txt\n```\n\n若需使用特定的微调模型或进行本地推理，请参考 `api\u002F` 目录下的具体文档配置相应环境。\n\n## 基本使用\n\nGenerative Manim 的核心流程是：**输入自然语言提示词 -> LLM 生成 Manim 代码 -> 渲染为视频**。\n\n### 1. 配置 API Key\n\n在使用前，请在终端设置您的 API 密钥（以 OpenAI 为例）：\n\n```bash\nexport OPENAI_API_KEY=\"your-sk-xxxxxx\"\n# 如果使用 Claude\nexport ANTHROPIC_API_KEY=\"your-key-xxxxxx\"\n```\n\n### 2. 生成并渲染动画\n\n虽然项目包含 Web Demo 和 Streamlit 界面，最直接的用法是通过命令行调用生成脚本。以下是一个基于 Python 脚本调用的最小化示例逻辑：\n\n创建一个名为 `generate_video.py` 的文件：\n\n```python\nimport os\nfrom generative_manim.core import generate_code, render_video\n\n# 1. 定义提示词\nprompt = \"Create an animation showing a circle transforming into a square.\"\n\n# 2. 调用 LLM 生成 Manim 代码 (以 GPT-4o 为例)\n# 注意：具体函数名可能随版本更新变化，此处为核心逻辑示意\ncode = generate_code(\n    prompt=prompt,\n    model=\"gpt-4o\", \n    system_prompt=\"You are an expert Manim developer.\"\n)\n\n# 将生成的代码保存为 .py 文件\nwith open(\"scene.py\", \"w\") as f:\n    f.write(code)\n\n# 3. 使用 Manim 渲染视频\n# 等价于命令行: manim -pql scene.py MainScene\nrender_output = os.system(f\"manim -pql scene.py MainScene\")\n\nif render_output == 0:\n    print(\"视频生成成功！\")\nelse:\n    print(\"渲染失败，请检查生成的代码。\")\n```\n\n运行脚本：\n```bash\npython generate_video.py\n```\n\n### 3. 使用官方基准测试工具 (进阶)\n\n如果您想评估不同模型生成代码的能力，可以使用内置的 Benchmark 工具：\n\n```bash\ncd training\n\n# 导出测试任务集\npython -m benchmarks.run export \\\n  --suite benchmarks\u002Ftasks\u002Fcore_v1.jsonl \\\n  --output .\u002Foutputs\u002Fbenchmarks\u002Fcore_v1_prompts.jsonl\n\n# 运行完整基准测试流程 (以 Qwen2.5-Coder-7B 为例)\nbash .\u002Fscripts\u002Frun_benchmark.sh qwen2.5-coder-7b .\u002Foutputs\u002Fgrpo\u002Fqwen2.5-coder-7b benchmarks\u002Ftasks\u002Fcore_v1.jsonl grpo 5 0.8 1,5\n```\n\n生成的视频文件通常位于项目根目录或 `media\u002F` 文件夹下。您可以加入项目的 Discord 社区获取更多高级用法和模型微调细节。","一位高中物理老师想要制作一段关于“简谐运动与波形关系”的动画视频，用于在线课程讲解，但他完全不懂编程，也不熟悉复杂的视频编辑软件。\n\n### 没有 generative-manim 时\n- **技术门槛极高**：必须手动学习 Python 和 Manim 库的复杂语法，光是配置环境和理解坐标系转换就可能耗费数天。\n- **迭代效率低下**：若想调整动画速度、颜色或数学公式，需要反复修改代码并重新渲染，一次试错成本高达数十分钟。\n- **创意受限**：由于缺乏编程能力，脑海中生动的动态演示构想无法落地，只能被迫使用网上现成的、未必贴合教学逻辑的素材。\n- **外包成本昂贵**：若委托专业人员制作，不仅沟通成本高，且针对特定知识点的定制费用远超普通教师的预算。\n\n### 使用 generative-manim 后\n- **自然语言驱动**：老师只需用中文描述“展示弹簧振子运动如何转化为正弦波”，generative-manim 即可自动调用 GPT-4o 生成对应的 Manim 代码。\n- **即时反馈与调整**：对生成的动画不满意时，直接回复“把波形颜色改成红色并放慢两倍速度”，工具能迅速理解意图并更新视频。\n- **零代码实现创意**：无需编写一行代码，即可将抽象的物理概念转化为精确、流畅的数学动画，完美契合教学设计。\n- **低成本快速产出**：从构思到获得高清视频仅需几分钟，让教师能将精力集中在课程内容打磨而非技术实现上。\n\ngenerative-manim 彻底打破了编程与动画制作之间的壁垒，让任何拥有专业知识的人都能通过自然语言轻松创造出高质量的科普视频。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarcelo-earth_generative-manim_917cb4fb.jpg","marcelo-earth","Marcelo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmarcelo-earth_7603c0ee.png",null,"Peru","marcelo_earth","marcelo.earth","https:\u002F\u002Fgithub.com\u002Fmarcelo-earth",[82,86,90,93],{"name":83,"color":84,"percentage":85},"Python","#3572A5",77.6,{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",21,{"name":91,"color":92,"percentage":42},"Shell","#89e051",{"name":94,"color":95,"percentage":96},"Dockerfile","#384d54",0.3,825,118,"2026-04-17T16:22:05","Apache-2.0","","训练阶段：需要 NVIDIA GPU (如 Kaggle T4)，使用 QLoRA (4-bit) 量化；推理阶段：未明确说明，但依赖 Manim (需 FFmpeg) 和 LLM API 或本地开源模型",{"notes":104,"python":101,"dependencies":105},"该项目核心是利用 LLM (如 GPT-4o, Claude, Qwen, DeepSeek 等) 生成 Manim 代码。运行方式分为两种：1. 调用云端 API (需配置 OpenAI 或 Anthropic Key)；2. 本地部署开源模型 (文中提到训练时使用 QLoRA 技术以适应免费 T4 GPU)。生成视频需要系统安装 Manim 及其依赖 (如 FFmpeg, LaTeX, Cairo 等)。文中未提供具体的 Python 版本、操作系统限制或详细的内存需求，仅提及训练流程在 Kaggle T4 GPU 上可行。",[106,107,108,109,110,111],"manim","openai","anthropic","transformers","peft","bitsandbytes",[113,35,13],"视频",[115,116,117,118,119,120,106,107,121,122,123,124,125,126],"2d","animation","gpt","gpt-4","gpt3","gpt3-turbo","python-3","rendering","streamlit","video","prompt2manim","text2manim","2026-03-27T02:49:30.150509","2026-04-18T22:33:50.996774",[130,135,140,144,149,154],{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},40493,"为什么在高并发或多次请求时，生成的场景视频会混合或文件名错误？","这是因为 Manim 默认行为会复用第一个场景的名称。解决方法是在配置中设置 `force_output_as_scene_name = True`。这将强制输出文件名与场景类名一致，避免不同场景之间的文件冲突。虽然这可能会略微影响渲染缓存机制，但在生成不同场景时是必要的。","https:\u002F\u002Fgithub.com\u002Fmarcelo-earth\u002Fgenerative-manim\u002Fissues\u002F23",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},40494,"ChatGPT 生成的代码不完整导致动画无法渲染怎么办？","这是由于 ChatGPT 的 token 限制导致代码被截断。目前的变通方法包括：1. 等待 GPT-4 发布，其 token 限制提升至约 30,000；2. 尝试让 ChatGPT 使用 NumPy 等库来处理数组，减少代码复杂度；3. 允许 ChatGPT 生成包含必要 import 的完整文件，但需在运行前验证所需包已安装。目前无法通过简单的“下一块”指令让 ChatGPT 分段输出可执行的代码片段。","https:\u002F\u002Fgithub.com\u002Fmarcelo-earth\u002Fgenerative-manim\u002Fissues\u002F1",{"id":141,"question_zh":142,"answer_zh":143,"source_url":139},40495,"如何优化 ChatGPT 生成 Manim 代码的准确性？","建议在提示词中明确指定代码必须适用于 'ManimCE' (Community Edition)，因为 ChatGPT 有时会混淆 CE 和 GL (Graphics Library) 版本。此外，可以提供一个成功的提示词和响应列表作为参考。尽管做了这些指定，ChatGPT 仍可能偶尔出错，最终的高质量解决方案可能需要等待更强大的模型（如 GPT-4）公开释放。",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},40496,"Generative Manim 支持哪些不同的生成引擎？","项目规划了多种引擎以评估不同的视频生成方法，包括：基于 DSL 的引擎、基于 LangGraph 的引擎（已完成）、OpenAI 微调模型、以及结合 Few-Shot Learning、Zero-Shot Learning 或本体论\u002FRAG 的 GPT-4 引擎。用户可以通过 API 选项在未来切换不同的引擎。","https:\u002F\u002Fgithub.com\u002Fmarcelo-earth\u002Fgenerative-manim\u002Fissues\u002F6",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},40497,"使用 GPT-4 生成代码的成本大概是多少？","根据 OpenAI 的定价，GPT-4 的输入成本约为每 1000 tokens 3 美分，生成成本约为每 1000 tokens 6 美分。这意味着大约 30 美元可以购买 100 万 tokens 的额度。用户在使用时应注意 token 消耗量以控制成本。","https:\u002F\u002Fgithub.com\u002Fmarcelo-earth\u002Fgenerative-manim\u002Fissues\u002F2",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},40498,"如果在线服务 (generative-manim.vercel.app) 不可用，可以自行托管吗？","目前该项目主要旨在让用户使用官方实例，自托管功能并未作为重点开发，因此没有明显的自托管指南或简易流程。如果遇到服务宕机（如返回 500 错误），通常建议等待维护者修复，因为官方实例会恢复上线。","https:\u002F\u002Fgithub.com\u002Fmarcelo-earth\u002Fgenerative-manim\u002Fissues\u002F35",[160,165],{"id":161,"version":162,"summary_zh":163,"released_at":164},323939,"v2.0.0","之前是通过 exec 函数生成代码，但现在改为通过创建并执行一个 Python 文件来生成。\n\n- 新增下载按钮，用于查看生成的 Python 文件\n- 改进提示：添加 `math` 包\n- 增加令牌数量：使用免费 API 密钥时为 400 个，使用自定义 API 密钥时为 1200 个\n\n","2023-03-24T20:18:37",{"id":166,"version":167,"summary_zh":168,"released_at":169},323940,"v1.0.0","**完整更新日志**: https:\u002F\u002Fgithub.com\u002F360macky\u002Fgenerative-manim\u002Fcommits\u002Fv1.0.0","2023-03-23T17:26:01"]