[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MoonshotAI--Kimi-Dev":3,"tool-MoonshotAI--Kimi-Dev":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":100,"github_topics":78,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":101,"updated_at":102,"faqs":103,"releases":139},9667,"MoonshotAI\u002FKimi-Dev","Kimi-Dev","open-source coding LLM for software engineering tasks","Kimi-Dev 是由月之暗面团队推出的开源代码大语言模型，专为解决软件工程中的实际问题而设计。它核心专注于自动修复代码缺陷（Issue Resolution），在权威的 SWE-bench Verified 基准测试中取得了 60.4% 的优异成绩，刷新了开源模型的最高纪录。\n\n针对传统 AI 编程助手往往只能生成片段代码、难以通过完整项目测试的痛点，Kimi-Dev 采用了大规模强化学习进行优化。其独特之处在于能够在真实的 Docker 容器环境中自主操作代码仓库，只有当修改后的代码通过全部测试套件时才会获得奖励。这种机制确保了它生成的解决方案不仅逻辑正确，而且具备极高的鲁棒性，完全符合真实世界的开发标准。在执行策略上，Kimi-Dev 采用高效的“文件定位 + 代码编辑”两阶段框架，能智能识别需修改的关键文件并进行精准修复或单元测试编写。\n\n这款工具非常适合软件开发者、技术研究人员以及希望提升自动化运维效率的工程团队使用。无论是需要快速排查复杂 Bug 的资深工程师，还是致力于研究 AI 代理能力的学者，都能通过 Kimi-Dev 获得强大的辅助支持。目前模型已在 Hugging","Kimi-Dev 是由月之暗面团队推出的开源代码大语言模型，专为解决软件工程中的实际问题而设计。它核心专注于自动修复代码缺陷（Issue Resolution），在权威的 SWE-bench Verified 基准测试中取得了 60.4% 的优异成绩，刷新了开源模型的最高纪录。\n\n针对传统 AI 编程助手往往只能生成片段代码、难以通过完整项目测试的痛点，Kimi-Dev 采用了大规模强化学习进行优化。其独特之处在于能够在真实的 Docker 容器环境中自主操作代码仓库，只有当修改后的代码通过全部测试套件时才会获得奖励。这种机制确保了它生成的解决方案不仅逻辑正确，而且具备极高的鲁棒性，完全符合真实世界的开发标准。在执行策略上，Kimi-Dev 采用高效的“文件定位 + 代码编辑”两阶段框架，能智能识别需修改的关键文件并进行精准修复或单元测试编写。\n\n这款工具非常适合软件开发者、技术研究人员以及希望提升自动化运维效率的工程团队使用。无论是需要快速排查复杂 Bug 的资深工程师，还是致力于研究 AI 代理能力的学者，都能通过 Kimi-Dev 获得强大的辅助支持。目前模型已在 Hugging Face 和 GitHub 开放下载与部署，欢迎社区共同探索其在实际开发场景中的潜力。","\u003C!-- # Kimi-Dev -->\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMoonshotAI_Kimi-Dev_readme_8fb5f4cf25a3.png\" alt=\"Kimi Logo\" width=\"400\" \u002F>\n\u003Ch2>\u003Ca href=\"https:\u002F\u002Fmoonshotai.github.io\u002FKimi-Dev\u002F\">\nIntroducing Kimi-Dev: \u003Cbr>A Strong and Open-source Coding LLM for Issue Resolution\u003C\u002Fa>\u003C\u002Fh2>\n\u003C\u002Fa>\u003C\u002Fh2>\n\u003Cb>Kimi-Dev Team\u003C\u002Fb>\n\u003Cbr>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2509.23045\">\n    \u003Cb>📄 Tech Report (Arxiv)\u003C\u002Fb>\n  \u003C\u002Fa> &nbsp;|&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-Dev-72B\">\n    \u003Cb>🤗 Huggingface\u003C\u002Fb>\n  \u003C\u002Fa> &nbsp;|&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmoonshotai\u002FKimi-Dev-72B\">\n    \u003Cb>💻 Demo (HF Space)\u003C\u002Fb>\n  \u003C\u002Fa> &nbsp;\n\u003C\u002Fdiv>\n\u003Cbr>\n\u003Cbr>\n\n\nWe introduce Kimi-Dev-72B, our new open-source coding LLM for software engineering tasks. Kimi-Dev-72B achieves a new state-of-the-art on SWE-bench Verified among open-source models.\n\n- Kimi-Dev-72B achieves 60.4% performance on SWE-bench Verified. It surpasses the runner-up, setting a new state-of-the-art result among open-source models.\n\n\n- Kimi-Dev-72B is optimized via large-scale reinforcement learning. It autonomously patches real repositories in Docker and gains rewards only when the entire test suite passes. This ensures correct and robust solutions, aligning with real-world development standards.\n\n\n- Kimi-Dev-72B is available for download and deployment on Hugging Face and GitHub. We welcome developers and researchers to explore its capabilities and contribute to development.\n\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMoonshotAI_Kimi-Dev_readme_89598dc03eda.png\" alt=\"Kimi Logo\" width=\"600\" \u002F>\n  \u003Cp>\u003Cb>Performance of Open-source Models on SWE-bench Verified.\u003C\u002Fb>\u003C\u002Fp>\n\n\u003C\u002Fdiv>\n\n\n\u003C!-- ## 💡 Introduction -->\n\n\u003C!-- ## 🔥 News -->\n\n\n\n## ⚙️ Installation\n\n```bash\n# clone repo\ngit clone https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev.git\n# create env\nconda create -n kimidev python=3.12\n# local install\npip install -e .\n```\n\n## 🛠️ How to use\n\n### Prepare repo structure [From [Agentless](https:\u002F\u002Fgithub.com\u002FOpenAutoCoder\u002FAgentless\u002F)]\nSince for each issue in the benchmark (both SWE-Bench Lite and SWE-Bench Verified) we need to checkout the repository and process the files, you might want to save some time by downloading the preprocessed data here: [swebench_repo_structure.zip](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F15-4XjTmY48ystrsc_xcvtOkMs3Fx8RoW\u002Fview). After downloading, please unzip and export the location as such \n```bash\nexport PROJECT_FILE_LOC={folder which you saved}\n``` \n\n### Deploy vLLM Model\n\n#### Installation\n```\n# Install vLLM with CUDA 12.8.\n# If you are using pip.\npip install vllm --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu128\n# If you are using uv.\nuv pip install vllm --torch-backend=auto\n```\n\n#### Serving\n```\nvllm serve Kimi-Dev-72B --served-model-name kimi-dev --host 0.0.0.0 --port 8000 --gpu-memory-utilization 0.95 --max-seq-len-to-capture 131072 --tensor-parallel-size 8\n```\n\n### Rollout\nKimi-Dev adopts a simplified two-stage framework for handling code repair and test writing tasks:\n\n1. **File Localization**: Intelligently identify key files that need modification based on problem descriptions and repository structure\n2. **Code Editing**: Perform precise code modifications on the located files, including bug fixes or unit test insertions\n\nCompared to multi-step localization methods, we perform localization at the file level and then pass the complete file to the repair step for more detailed reasoning.\n\nRun rollout script:\n\n```\nconda activate kimidev\n# Bugfixer\npython kimidev\u002Fexamples\u002Frollout_messages_bugfixer.py --model_name {vllm_serve_model}\n# Testwriter\npython kimidev\u002Fexamples\u002Frollout_messages_testwriter.py --model_name {vllm_serve_model}\n```\n\n## 👀 Example Results\nWe provide some example result files as well as the files required for test-time scaling [here](.\u002Fresources\u002F).\n\nYou can also download these files from [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Tv4u9_CjCAOIhyZC1pOmpHFx3q0Ui8ru\u002Fview?usp=drive_link).\n\n## 💪 Contributing\n\nWelcome to submit Pull Requests or create Issues to help improve the project.\n\n\n## 😺 Contact\n\nIf you have any questions, please feel free to submit a GitHub issue or contact zhuhan@moonshot.cn.\n\n## 📝 Citation\nIf you find our code and models useful, please kindly cite the following information.\n```\n@misc{yang2025kimidevagentlesstrainingskill,\n      title={Kimi-Dev: Agentless Training as Skill Prior for SWE-Agents}, \n      author={Zonghan Yang and Shengjie Wang and Kelin Fu and Wenyang He and Weimin Xiong and Yibo Liu and Yibo Miao and Bofei Gao and Yejie Wang and Yingwei Ma and Yanhao Li and Yue Liu and Zhenxing Hu and Kaitai Zhang and Shuyi Wang and Huarong Chen and Flood Sung and Yang Liu and Yang Gao and Zhilin Yang and Tianyu Liu},\n      year={2025},\n      eprint={2509.23045},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2509.23045}, \n}\n","\u003C!-- # Kimi-Dev -->\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMoonshotAI_Kimi-Dev_readme_8fb5f4cf25a3.png\" alt=\"Kimi Logo\" width=\"400\" \u002F>\n\u003Ch2>\u003Ca href=\"https:\u002F\u002Fmoonshotai.github.io\u002FKimi-Dev\u002F\">\n隆重推出 Kimi-Dev：一款强大且开源的代码生成大模型，专为问题修复而设计\u003C\u002Fa>\u003C\u002Fh2>\n\u003C\u002Fa>\u003C\u002Fh2>\n\u003Cb>Kimi-Dev 团队\u003C\u002Fb>\n\u003Cbr>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2509.23045\">\n    \u003Cb>📄 技术报告（Arxiv）\u003C\u002Fb>\n  \u003C\u002Fa> &nbsp;|&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-Dev-72B\">\n    \u003Cb>🤗 Hugging Face\u003C\u002Fb>\n  \u003C\u002Fa> &nbsp;|&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmoonshotai\u002FKimi-Dev-72B\">\n    \u003Cb>💻 演示（HF Space）\u003C\u002Fb>\n  \u003C\u002Fa> &nbsp;\n\u003C\u002Fdiv>\n\u003Cbr>\n\u003Cbr>\n\n\n我们推出了 Kimi-Dev-72B，这是一款全新的开源代码生成大模型，专为软件工程任务设计。Kimi-Dev-72B 在 SWE-bench Verified 数据集上取得了开源模型中的最新SOTA成绩。\n\n- Kimi-Dev-72B 在 SWE-bench Verified 上达到了60.4%的通过率，超越了排名第二的模型，创下了开源模型中的新纪录。\n\n\n- Kimi-Dev-72B 通过大规模强化学习进行优化。它能够在 Docker 环境中自主修复真实仓库中的问题，并且仅当整个测试套件全部通过时才会获得奖励。这种机制确保了解决方案的正确性和鲁棒性，完全符合实际开发标准。\n\n\n- Kimi-Dev-72B 已在 Hugging Face 和 GitHub 上开放下载与部署。我们诚挚欢迎开发者和研究人员探索其能力并参与项目贡献。\n\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMoonshotAI_Kimi-Dev_readme_89598dc03eda.png\" alt=\"Kimi Logo\" width=\"600\" \u002F>\n  \u003Cp>\u003Cb>开源模型在 SWE-bench Verified 数据集上的性能对比。\u003C\u002Fb>\u003C\u002Fp>\n\n\u003C\u002Fdiv>\n\n\n\u003C!-- ## 💡 引言 -->\n\n\u003C!-- ## 🔥 新闻 -->\n\n\n\n## ⚙️ 安装\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev.git\n# 创建环境\nconda create -n kimidev python=3.12\n# 本地安装\npip install -e .\n```\n\n## 🛠️ 使用方法\n\n### 准备代码库结构 [参考自 [Agentless](https:\u002F\u002Fgithub.com\u002FOpenAutoCoder\u002FAgentless\u002F)]\n由于基准测试中的每个问题（包括 SWE-Bench Lite 和 SWE-Bench Verified）都需要检出仓库并处理文件，您可以节省时间，直接下载预处理好的数据：[swebench_repo_structure.zip](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F15-4XjTmY48ystrsc_xcvtOkMs3Fx8RoW\u002Fview)。下载后，请解压并将路径导出如下：\n```bash\nexport PROJECT_FILE_LOC={您保存的文件夹}\n``` \n\n### 部署 vLLM 模型\n\n#### 安装\n```\n# 使用 CUDA 12.8 安装 vLLM。\n# 如果使用 pip：\npip install vllm --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu128\n# 如果使用 uv：\nuv pip install vllm --torch-backend=auto\n```\n\n#### 服务启动\n```\nvllm serve Kimi-Dev-72B --served-model-name kimi-dev --host 0.0.0.0 --port 8000 --gpu-memory-utilization 0.95 --max-seq-len-to-capture 131072 --tensor-parallel-size 8\n```\n\n### 推理流程\nKimi-Dev 采用简化的两阶段框架来处理代码修复和测试用例编写任务：\n\n1. **文件定位**：根据问题描述和仓库结构，智能识别需要修改的关键文件。\n2. **代码编辑**：对定位到的文件进行精确的代码修改，包括修复缺陷或插入单元测试。\n\n相比多步定位的方法，我们直接在文件级别进行定位，然后将整个文件传递给修复步骤，以实现更细致的推理。\n\n运行推理脚本：\n\n```\nconda activate kimidev\n# 缺陷修复器\npython kimidev\u002Fexamples\u002Frollout_messages_bugfixer.py --model_name {vllm_serve_model}\n# 测试用例生成器\npython kimidev\u002Fexamples\u002Frollout_messages_testwriter.py --model_name {vllm_serve_model}\n```\n\n## 👀 示例结果\n我们提供了一些示例结果文件以及测试时缩放所需的文件，详见 [此处](.\u002Fresources\u002F)。\n\n您也可以从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Tv4u9_CjCAOIhyZC1pOmpHFx3q0Ui8ru\u002Fview?usp=drive_link) 下载这些文件。\n\n## 💪 贡献\n欢迎提交 Pull Request 或创建 Issue，帮助改进项目。\n\n\n## 😺 联系方式\n如有任何疑问，请随时提交 GitHub Issue 或联系 zhuhan@moonshot.cn。\n\n## 📝 引用\n如果您认为我们的代码和模型有所帮助，请引用以下信息：\n```\n@misc{yang2025kimidevagentlesstrainingskill,\n      title={Kimi-Dev: 无代理训练作为 SWE 代理的技能先验}, \n      author={杨宗翰、王圣杰、付克林、何文洋、熊伟民、刘一博、苗一博、高博飞、王业杰、马英伟、李彦浩、刘悦、胡振兴、张凯泰、王淑怡、陈华荣、宋弗洛德、刘阳、高扬、杨志林、刘天宇},\n      year={2025},\n      eprint={2509.23045},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2509.23045}, \n}","# Kimi-Dev 快速上手指南\n\nKimi-Dev-72B 是一款专为软件工程任务设计的开源代码大模型，在 SWE-bench Verified 基准测试中取得了开源模型的最佳性能（60.4%）。它通过大规模强化学习优化，能够自主在 Docker 环境中修复真实仓库的代码问题。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐 Ubuntu)\n*   **Python 版本**: 3.12\n*   **GPU 要求**: 部署 72B 模型建议使用多卡环境（示例命令中配置了 8 张显卡），需安装 CUDA 12.8。\n*   **依赖管理**: 推荐使用 `conda` 管理虚拟环境。\n*   **存储**: 需预留足够空间存放模型权重及预处理后的仓库结构数据。\n\n## 安装步骤\n\n### 1. 克隆项目与创建环境\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev.git\ncd Kimi-Dev\n\n# 创建 Python 3.12 虚拟环境\nconda create -n kimidev python=3.12\nconda activate kimidev\n\n# 本地安装项目依赖\npip install -e .\n```\n\n### 2. 准备仓库结构数据\n\n为了加速处理 SWE-Bench 相关任务，建议下载预处理的仓库结构数据：\n\n1.  下载 [swebench_repo_structure.zip](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F15-4XjTmY48ystrsc_xcvtOkMs3Fx8RoW\u002Fview)。\n2.  解压文件。\n3.  设置环境变量指向解压后的文件夹路径：\n\n```bash\nexport PROJECT_FILE_LOC={你保存解压文件的文件夹路径}\n```\n\n### 3. 部署 vLLM 推理服务\n\nKimi-Dev 推荐配合 vLLM 使用以获得最佳性能。\n\n**安装 vLLM (CUDA 12.8):**\n\n```bash\n# 使用 pip 安装\npip install vllm --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu128\n```\n\n**启动模型服务:**\n\n以下命令以 8 卡并行方式启动服务，请根据实际显存和显卡数量调整 `--tensor-parallel-size` 参数。\n\n```bash\nvllm serve Kimi-Dev-72B --served-model-name kimi-dev --host 0.0.0.0 --port 8000 --gpu-memory-utilization 0.95 --max-seq-len-to-capture 131072 --tensor-parallel-size 8\n```\n\n## 基本使用\n\nKimi-Dev 采用简化的两阶段框架：**文件定位** (File Localization) 和 **代码编辑** (Code Editing)。确保 vLLM 服务已启动，然后运行以下脚本进行任务推演（Rollout）。\n\n### 场景一：自动修复 Bug (Bugfixer)\n\n```bash\nconda activate kimidev\npython kimidev\u002Fexamples\u002Frollout_messages_bugfixer.py --model_name {vllm_serve_model}\n```\n*注：`{vllm_serve_model}` 通常替换为 `kimi-dev` 或具体的模型标识。*\n\n### 场景二：自动生成测试用例 (Testwriter)\n\n```bash\nconda activate kimidev\npython kimidev\u002Fexamples\u002Frollout_messages_testwriter.py --model_name {vllm_serve_model}\n```\n\n运行完成后，可在项目目录或指定输出路径查看生成的代码修复方案或测试文件。更多示例结果文件可参考项目 `resources` 目录或通过提供的 Google Drive 链接下载。","某金融科技公司后端团队在维护一个遗留的支付网关系统时，突然收到社区提交的紧急 Issue，指出在高并发场景下存在严重的竞态条件导致数据不一致。\n\n### 没有 Kimi-Dev 时\n- 开发人员需手动遍历数万个代码文件，耗时数小时才能定位到涉及锁机制的核心模块，效率极低。\n- 修复过程依赖人工推断，容易遗漏边缘情况，导致补丁提交后无法通过现有的复杂单元测试套件。\n- 缺乏自动化验证闭环，每次修改都需要本地重新构建 Docker 环境并运行全量测试，反馈周期长达半天。\n- 面对晦涩的旧代码逻辑，初级工程师不敢轻易下手，资深专家被迫陷入繁琐的调试工作，人力成本高昂。\n\n### 使用 Kimi-Dev 后\n- Kimi-Dev 利用其强大的文件定位能力，瞬间从仓库中精准识别出需要修改的 3 个关键源文件，将定位时间从小时级缩短至秒级。\n- 基于大规模强化学习训练，Kimi-Dev 生成的补丁不仅修复了竞态条件，还自动补充了针对性的单元测试，确保逻辑严密。\n- Kimi-Dev 在 Docker 环境中自主执行修复并运行全量测试，仅在测试全部通过后才输出结果，实现了“零失败”交付。\n- 团队只需审查 Kimi-Dev 生成的代码差异即可合并，将原本需要一天的修复工作压缩到 30 分钟内完成，释放了核心人力。\n\nKimi-Dev 通过自主化的“定位 - 修复 - 验证”闭环，将开源模型在真实软件工程任务中的解决能力提升到了新的高度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMoonshotAI_Kimi-Dev_2fe82c20.png","MoonshotAI","Moonshot AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMoonshotAI_691dfd9a.jpg","",null,"https:\u002F\u002Fmoonshot.ai","https:\u002F\u002Fgithub.com\u002FMoonshotAI",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,1194,152,"2026-04-19T01:37:54","NOASSERTION",4,"Linux","必需 NVIDIA GPU，需支持 CUDA 12.8，建议使用 8 张显卡进行张量并行 (tensor-parallel-size 8)，单卡显存需求极高以运行 72B 模型","未说明",{"notes":95,"python":96,"dependencies":97},"该工具主要面向 72B 参数模型，部署时需使用 vLLM 并配置 8 卡张量并行。安装 vLLM 时明确指定需要 CUDA 12.8 环境。运行前需下载并解压预处理后的仓库结构数据 (swebench_repo_structure.zip) 并设置环境变量。模型通过 Hugging Face 获取。","3.12",[98,99],"vllm","torch (CUDA 12.8 version)",[35,13],"2026-03-27T02:49:30.150509","2026-04-20T04:06:13.072922",[104,109,114,119,124,129,134],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},43414,"该模型在其他数据集（除 SWE-bench 外）上有测试结果吗？","R1-0528 是一个通用模型，但 Kimi-Dev 是专门用于解决 Issue 的专用模型（研究预览版）。因此，目前尚未在 SWE 以外的项目上测试其性能得分。","https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev\u002Fissues\u002F2",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},43415,"bugfixer.py 和 testwriter.py 有什么区别？如何使用此仓库评估 SWEBench-Verified 的 agentless 模式？","由于 agentless 评估极其耗时，K2 报告中仅评估了不包含测试文件的结果（即仅使用 `rollout_messages_bugfixer.py` 生成补丁）。`rollout_messages_testwriter.py` 用于在 agentless 框架内生成测试补丁。目前评估代码未开源，因为涉及需要适配的内部基础设施且暂无资源完成。如需评估生成的补丁结果，请参考官方实现：https:\u002F\u002Fgithub.com\u002FSWE-bench\u002FSWE-bench，其中提供了使用 Docker 设置测试环境的详细说明。","https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev\u002Fissues\u002F10",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},43416,"本地运行该模型的最低或最佳硬件配置要求是什么？","若要在本地机器上运行此模型，您需要配备至少 144 GB 总显存（VRAM）的 GPU 设置。或者，您可以使用 Hugging Face 上的第三方量化版本，例如：https:\u002F\u002Fhuggingface.co\u002Funsloth\u002FKimi-Dev-72B-GGUF","https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev\u002Fissues\u002F7",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},43417,"克隆仓库时遇到\"Git LFS budget exceeded\"错误，无法下载大文件怎么办？","相关文件已上传至 Google Drive。请查阅 README 中的“示例结果”部分（https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev?tab=readme-ov-file#-example-results）以获取所需文件的下载链接。","https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev\u002Fissues\u002F5",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},43418,"在使用 OpenRouter 调用模型时，默认的 temperature 设置导致推理死循环，有什么推荐的优化设置吗？","建议参考官方提供的在线演示页面的默认设置：https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmoonshotai\u002FKimi-Dev-72B","https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev\u002Fissues\u002F4",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},43419,"官方有计划提供 API 服务吗？","目前官方暂时没有提供 API 的计划，或许会在未来协商支持。现阶段可以通过 OpenRouter 免费调用 API：https:\u002F\u002Fopenrouter.ai\u002Fmoonshotai\u002Fkimi-dev-72b:free","https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev\u002Fissues\u002F3",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},43420,"有计划开源用于 SFT 的检查点（checkpoint）或数据集吗？","目前暂无开源 SFT 检查点和数据的计划。如有任何更新，将在 GitHub 和 HuggingFace 上及时公告。","https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev\u002Fissues\u002F1",[]]