[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-minosvasilias--godot-dodo":3,"tool-minosvasilias--godot-dodo":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":75,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":99,"github_topics":100,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":106,"updated_at":107,"faqs":108,"releases":119},2189,"minosvasilias\u002Fgodot-dodo","godot-dodo","Finetuning large language models for GDScript generation.","godot-dodo 是一个专为 Godot 游戏引擎打造的开源项目，旨在通过微调大语言模型，使其能够生成高质量、语法准确的 GDScript 代码。它主要解决了通用大模型（如 GPT-4）在处理 GDScript 这类相对小众语言时，容易出现语法错误或“幻觉”的问题，显著提升了代码生成的可靠性和一次性编译成功率。\n\n该项目非常适合 Godot 游戏开发者、技术美术以及希望研究特定领域代码生成的 AI 研究人员使用。其独特的技术亮点在于数据构建方式：godot-dodo 不依赖其他模型生成的代码作为训练数据，而是直接从 GitHub 抓取人类编写的真实开源代码（仅限 MIT 许可），仅利用大模型为这些代码片段自动生成详细的注释标签。这种“人类写代码、AI 做标注”的策略，既保证了代码逻辑的真实性，又构建了高质量的指令微调数据集。虽然目前在方法描述的完整性上仍有优化空间，但 godot-dodo 已展现出在复杂指令下超越通用模型的潜力，是提升 Godot 开发效率的有力辅助工具。","# godot-dodo\n\n![Godot-Dodo logo imagined by Midjourney v5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminosvasilias_godot-dodo_readme_3c444cfbb1e3.png)\n\nThe godot-dodo project presents a pipeline to finetune open source language models on human-created, language-specific code retrieved from GitHub.\n\nIn this case, the targeted language is GDScript, but the same methodology can be applied to other languages.\n\nThis repository includes the following:\n\n- Scripts to assemble the finetuning dataset\n- Pre-assembled, raw datasets (up to a size of 60k rows)\n- Scripts to finetune a model\n- Links to model weights\n- Performance report comparing finetuned models\n\n## Performance\n\n![Results](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminosvasilias_godot-dodo_readme_1d384b416a06.png)\n\n**For comprehensive results explaining the methodology used and a full list of all result, please refer to the full performance report [here](models\u002F).**\n\nIn summary, `godot_dodo` models achieve significantly greater consistency than `gpt-4`\u002F`gpt-3.5-turbo` when it comes to generating accurate GDScript syntax, and variants trained on code-specific base-models can even outperform them on complex instructions.\n\nThe major remaining weakpoint of this approach is the loss in appropriate verbosity when writing methods. Since human-written samples will often include references to objects initialized outside of the scope of the sample method, the model learns to do the same, resulting in cases where functionality relevant to the instruction is assumed to be already implemented. This can most likely be improved significantly by a more sophisticated dataset.\n\n## Concept\n\n### How?\n\nUnlike other, similar approaches to finetuning models such as stanford-alpaca, this approach does not use existing, larger language models for the output-values of the finetuning-dataset. All code used is human-created. Language models are instead only used to **label** each code snippet.\n\nAs such, we can assemble `comment:code` data-pairs in the style of [CodeSearchNet](https:\u002F\u002Fgithub.com\u002Fgithub\u002FCodeSearchNet), making use of powerful existing models to annotate high-quality human-created code.\n\n### Why?\n\nSome existing language models such as `gpt-4` are excellent coders. However, a lot of their ability is concentrated in only the most popular languages, such as Python or Javascript.\n\nLess widely used languages are underrepresented in the training data and experience a massive performance drop-off, where models routinely mistake syntax or hallucinate language features that do not exist.\n\nThis aims to provide much more robust language-specific models that can be used to reliably generate code that compiles on first try.\n\n## Demo\n\nTo try out the pre-trained models, you can use the [inference_demo.ipynb](demo\u002Finference_demo.ipynb) notebook.\n\nIn order to use that notebook on Google Colab, follow [this link](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fminosvasilias\u002Fgodot-dodo\u002Fblob\u002Fmain\u002Fdemo\u002Finference_demo.ipynb).\n\n## Dataset Generation\n\nDue to this approach relying on human-created data, we scrape GitHub repositories using the GitHub search API.\n\nUsing the `language:gdscript` search term, we retrieve a list of repositories including GDScript code.\n\nWe also use `license:mit` to limit the dataset to suitable repositories. **Only MIT-licensed code is used for training!**\n\nWe then clone each one and apply the following logic:\n\n- Find `project.godot` file\n- Detect whether project is made for `3.x` or `4.x` Godot engine versions\n- Iterate through all `.gd` files found in the repository\n- For each one, split file into individual functions\n- For each function found, ask existing LLM (`gpt-3.5-turbo`) for a detailed comment describing the functions purpose\n- Add `instruction:response` data pair to dataset\n\nNote that existing, human-written comments located above the code-block are not used for the `instruction` value. We are interested in consistent detail for comments, rather than trying to preserve some potentially higher-quality human-written ones.\n\nHuman comments within the code block however are preserved.\n\n### Run\n\nTo assemble a dataset yourself, follow these instructions:\n\n- Run `python data\u002Fgenerate_unlabeled_dataset.py`\n- Run `python data\u002Flabel_dataset.py`\n\nPlease do note that you'll need GitHub and OpenAI API keys in order to use these scripts.\n\n## Pre-assembled datasets\n\nPre-assembled datasets included in this repository:\n\n- [godot_dodo_4x_60k](data\u002Fgodot_dodo_4x_60k\u002F)\n  - Assembled using `4.x` Godot projects - ~60k rows\n\nFurther datasets may be added in the future (particularly regarding `3.x` data)\n\n## Finetuning\n\nThe fine-tuning process closely mirrors the one introduced by [stanford_alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca).\n\nTo reproduce a fine-tuned version of LLaMA, please follow the steps below.\n\n### Hardware Requirements\n\nIn order to effectively finetune a `llama-7b` or `llama-13b` model, it is highly recommended to use at least two `A100 80GB` GPUs. You may otherwise encounter out of memory errors or experience extremely long training times, and will need to adjust the training parameters.\n\nFor finetuning `godot_dodo_4x_60k_llama_13b`, eight `A100 80GB` GPUs were used.\n\nAnother important consideration is the protocol used for GPU communication. It is recommended to use `NVLink` setups rather than `PCIe`.\n\nShould you only have access to `PCIe` setups, please replace `full-shard` with `shard_grad_op` in the `torchrun` command. This may severely speed up your training runs at the cost of potentially higher memory usage.\n\n### Setup\n\nBefore finetuning, make sure to install all requirements using:\n\n```bash\npip install -r requirements.txt\n```\n\n### Run\n\nFor exact commands used for finetuning models, please refer to the individual model pages:\n\n- [models\u002Fgodot_dodo_4x_60k_llama_7b](models\u002Fgodot_dodo_4x_60k_llama_7b)\n- [models\u002Fgodot_dodo_4x_60k_llama_13b](models\u002Fgodot_dodo_4x_60k_llama_13b)\n\n## Inference\n\nTo test out your finetuned model, you can use the `eval.py` script. Simply run:\n\n```bash\npython finetune\u002Feval.py --model_name_or_path PATH_TO_FINETUNED_MODEL\u002F\n```\n\n## Publishing to Huggingface\n\nTo easily upload a finetuned model to Huggingface, you can use:\n\n```bash\npython finetune\u002Fpush_to_hub.py --model_name_or_path PATH_TO_FINETUNED_MODEL\u002F --push_name HF_MODEL_NAME --auth_token HF_ACCESS_TOKEN\n```\n\n## Finetuned model weights\n\nLinks to model weights hosted on Huggingface are provided in the respective model pages:\n\n- [models\u002Fgodot_dodo_4x_60k_llama_7b](models\u002Fgodot_dodo_4x_60k_llama_7b)\n- [models\u002Fgodot_dodo_4x_60k_llama_13b](models\u002Fgodot_dodo_4x_60k_llama_13b)\n\n## Cost\n\nBelow the dollar-cost of assembling each available dataset and finetuning each model.\n\n### Datasets\n\n- [godot_dodo_4x_60k](data\u002Fgodot_dodo_4x_60k\u002F)\n  - `30$` (`gpt-3.5-turbo` API costs)\n\n### Finetuned Models\n\n- [models\u002Fgodot_dodo_4x_60k_llama_7b](models\u002Fgodot_dodo_4x_60k_llama_7b)\n  - `24$` (8x A100 80GB instance costs)\n- [models\u002Fgodot_dodo_4x_60k_llama_13b](models\u002Fgodot_dodo_4x_60k_llama_13b)\n  - `84$`(8x A100 80GB instance costs)\n\n## Use with godot-copilot\n\nUsage of finetuned models with [godot-copilot](https:\u002F\u002Fgithub.com\u002Fminosvasilias\u002Fgodot-copilot) for in-editor, fully local code generation may be supported in the future.\n\n## Acknowledegments\n\nThank you to all MIT-licensed Godot projects! This would not be possible without you.\n\nAll projects that were scraped during assembly of the included finetuning data are listed in the respective dataset folders in [data](data).\n\nAnother thank you goes to [fluidstack.io](https:\u002F\u002Ffluidstack.io) for their reliable, cheap GPU instances that were used for finetuning these models.\n\n## Citation\n\nIf you wish to cite this project, please use:\n\n```\n@misc{godot-dodo,\n  author = {Markus Sobkowski},\n  title = {Godot-Dodo: Finetuned language models for GDScript generation},\n  year = {2023},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fminosvasilias\u002Fgodot-dodo}},\n}\n```\n\nYou should also cite the [original LLaMA paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.13971) as well as [stanford-alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca).\n","# godot-dodo\n\n![由 Midjourney v5 构想的 Godot-Dodo 标志](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminosvasilias_godot-dodo_readme_3c444cfbb1e3.png)\n\ngodot-dodo 项目提供了一条流水线，用于在 GitHub 上获取的人类编写的特定于语言的代码基础上微调开源语言模型。在此案例中，目标语言是 GDScript，但相同的方法也可应用于其他语言。\n\n该仓库包含以下内容：\n\n- 用于构建微调数据集的脚本\n- 预先组装好的原始数据集（最多 6 万行）\n- 用于微调模型的脚本\n- 模型权重链接\n- 对比微调后模型性能的报告\n\n## 性能\n\n![结果](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminosvasilias_godot-dodo_readme_1d384b416a06.png)\n\n**有关所用方法的详细说明及完整的结果列表，请参阅此处的完整性能报告 [models\u002F](models\u002F)。**\n\n简而言之，在生成准确的 GDScript 语法方面，`godot_dodo` 模型的连贯性显著优于 `gpt-4` 和 `gpt-3.5-turbo`；而基于代码专用基础模型训练的变体，甚至能在处理复杂指令时超越它们。\n\n这种方法目前的主要不足在于生成方法时的表达不够充分。由于人类编写的示例通常会引用在当前方法作用域之外初始化的对象，模型也会学习这种写法，从而导致在某些情况下，与指令相关的功能被假定已经实现。这一问题很可能通过更精细的数据集设计得到显著改善。\n\n## 概念\n\n### 如何实现？\n\n与其他类似的模型微调方法（如 stanford-alpaca）不同，本方法并未使用现有的大型语言模型来生成微调数据集的输出值。所有使用的代码均由人类编写。语言模型仅用于对每个代码片段进行**标注**。\n\n因此，我们可以按照 [CodeSearchNet](https:\u002F\u002Fgithub.com\u002Fgithub\u002FCodeSearchNet) 的风格，构建 `注释:代码` 数据对，并利用强大的现有模型为高质量的人类编写的代码添加注释。\n\n### 为什么？\n\n一些现有的语言模型，例如 `gpt-4`，在编码方面表现出色。然而，它们的能力主要集中在最流行的语言上，如 Python 或 JavaScript。\n\n相比之下，使用较少的语言在训练数据中代表性不足，性能会大幅下降，模型常常会混淆语法或“幻觉”出不存在的语言特性。\n\n本项目旨在提供更加健壮的语言特定模型，以可靠地生成首次即可成功编译的代码。\n\n## 演示\n\n要试用预训练模型，可以使用 [inference_demo.ipynb](demo\u002Finference_demo.ipynb) 笔记本。若要在 Google Colab 中运行该笔记本，请访问[此链接](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fminosvasilias\u002Fgodot-dodo\u002Fblob\u002Fmain\u002Fdemo\u002Finference_demo.ipynb)。\n\n## 数据集生成\n\n由于本方法依赖于人类编写的数据，我们使用 GitHub 搜索 API 来抓取 GitHub 仓库。通过搜索 `language:gdscript`，我们获取包含 GDScript 代码的仓库列表。同时，我们还使用 `license:mit` 来筛选合适的仓库。**仅使用 MIT 许可证的代码进行训练！**\n\n随后，我们会克隆每个仓库并执行以下逻辑：\n\n- 查找 `project.godot` 文件\n- 判断项目是针对 Godot 引擎的 `3.x` 还是 `4.x` 版本\n- 遍历仓库中所有的 `.gd` 文件\n- 将每个文件拆分为单独的函数\n- 对每个找到的函数，使用现有的 LLM (`gpt-3.5-turbo`) 请求一段详细描述其用途的注释\n- 将 `instruction:response` 数据对添加到数据集中\n\n需要注意的是，位于代码块上方的现有人工注释不会作为 `instruction` 值使用。我们关注的是注释的一致性和详尽性，而非试图保留可能质量更高的现有注释。\n\n不过，代码块内的原有注释会被保留。\n\n### 运行\n\n若要自行构建数据集，请按照以下步骤操作：\n\n- 运行 `python data\u002Fgenerate_unlabeled_dataset.py`\n- 运行 `python data\u002Flabel_dataset.py`\n\n请注意，您需要 GitHub 和 OpenAI 的 API 密钥才能使用这些脚本。\n\n## 预组装数据集\n\n本仓库包含的预组装数据集如下：\n\n- [godot_dodo_4x_60k](data\u002Fgodot_dodo_4x_60k\u002F)\n  - 使用 `4.x` 版本的 Godot 项目组装而成，约 6 万行\n\n未来可能会添加更多数据集（尤其是关于 `3.x` 的数据）。\n\n## 微调\n\n微调流程与 [stanford_alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca) 提出的流程非常相似。要复现一个微调后的 LLaMA 版本，请按照以下步骤操作。\n\n### 硬件要求\n\n为了有效微调 `llama-7b` 或 `llama-13b` 模型，强烈建议至少使用两块 `A100 80GB` 显卡。否则可能会遇到内存不足的错误，或者训练时间过长，届时需要调整训练参数。\n\n在微调 `godot_dodo_4x_60k_llama_13b` 时，使用了八块 `A100 80GB` 显卡。\n\n另一个重要考虑因素是 GPU 之间的通信协议。建议使用 `NVLink` 而不是 `PCIe`。\n\n如果您只能使用 `PCIe` 配置，请在 `torchrun` 命令中将 `full-shard` 替换为 `shard_grad_op`。这可能会显著加快训练速度，但同时也会增加内存消耗。\n\n### 设置\n\n在开始微调之前，请确保安装所有必要的依赖项：\n\n```bash\npip install -r requirements.txt\n```\n\n### 运行\n\n有关微调模型的具体命令，请参阅各个模型页面：\n\n- [models\u002Fgodot_dodo_4x_60k_llama_7b](models\u002Fgodot_dodo_4x_60k_llama_7b)\n- [models\u002Fgodot_dodo_4x_60k_llama_13b](models\u002Fgodot_dodo_4x_60k_llama_13b)\n\n## 推理\n\n要测试您的微调模型，可以使用 `eval.py` 脚本。只需运行：\n\n```bash\npython finetune\u002Feval.py --model_name_or_path PATH_TO_FINETUNED_MODEL\u002F\n```\n\n## 发布到 Hugging Face\n\n要轻松将微调后的模型上传到 Hugging Face，可以使用：\n\n```bash\npython finetune\u002Fpush_to_hub.py --model_name_or_path PATH_TO_FINETUNED_MODEL\u002F --push_name HF_MODEL_NAME --auth_token HF_ACCESS_TOKEN\n```\n\n## 微调模型权重\n\n托管在 Hugging Face 上的模型权重链接已在相应模型页面中提供：\n\n- [models\u002Fgodot_dodo_4x_60k_llama_7b](models\u002Fgodot_dodo_4x_60k_llama_7b)\n- [models\u002Fgodot_dodo_4x_60k_llama_13b](models\u002Fgodot_dodo_4x_60k_llama_13b)\n\n## 成本\n\n以下是构建每个可用数据集以及微调每个模型的大致费用。\n\n### 数据集\n\n- [godot_dodo_4x_60k](data\u002Fgodot_dodo_4x_60k\u002F)\n  - `30 美元`（`gpt-3.5-turbo` API 费用）\n\n### 微调模型\n\n- [models\u002Fgodot_dodo_4x_60k_llama_7b](models\u002Fgodot_dodo_4x_60k_llama_7b)\n  - `24 美元`（8 块 A100 80GB 实例费用）\n- [models\u002Fgodot_dodo_4x_60k_llama_13b](models\u002Fgodot_dodo_4x_60k_llama_13b)\n  - `84 美元`（8 块 A100 80GB 实例费用）\n\n## 与 godot-copilot 搭配使用\n\n未来可能会支持将微调后的模型与 [godot-copilot](https:\u002F\u002Fgithub.com\u002Fminosvasilias\u002Fgodot-copilot) 配合使用，实现在编辑器内、完全本地化的代码生成功能。\n\n## 致谢\n\n感谢所有采用 MIT 许可证的 Godot 项目！没有你们，这一切都不可能实现。\n\n在构建所包含的微调数据集过程中被爬取的所有项目，均已列于 [data](data) 目录下的相应数据集文件夹中。\n\n此外，还要特别感谢 [fluidstack.io](https:\u002F\u002Ffluidstack.io)，他们提供的可靠且经济实惠的 GPU 实例为这些模型的微调工作提供了重要支持。\n\n## 引用\n\n如果您希望引用本项目，请使用以下格式：\n\n```\n@misc{godot-dodo,\n  author = {Markus Sobkowski},\n  title = {Godot-Dodo：用于 GDScript 生成的微调语言模型},\n  year = {2023},\n  publisher = {GitHub},\n  journal = {GitHub 仓库},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fminosvasilias\u002Fgodot-dodo}},\n}\n```\n\n同时，也请引用 [原始的 LLaMA 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.13971)以及 [stanford-alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca)。","# Godot-Dodo 快速上手指南\n\nGodot-Dodo 是一个专注于微调开源大语言模型以生成高质量 **GDScript** 代码的项目。该项目利用 GitHub 上人类编写的 MIT 许可代码构建数据集，旨在解决通用模型在 GDScript 语法准确性上的不足，提供比 GPT-4 更一致的代码生成能力。\n\n## 环境准备\n\n### 系统要求\n*   **操作系统**: Linux (推荐) 或 macOS。Windows 用户建议使用 WSL2。\n*   **GPU**: \n    *   **推理\u002F测试**: 任意支持 CUDA 的 GPU。\n    *   **微调训练**: 强烈建议至少使用 2 张 **A100 80GB** GPU（针对 LLaMA-7B\u002F13B 模型）。若资源有限，需调整训练参数或使用 `shard_grad_op` 模式，但显存占用会显著增加。\n*   **Python**: 3.8 或更高版本。\n\n### 前置依赖\n你需要准备以下 API Key 用于数据集生成（如果直接使用预组装数据集可跳过此步）：\n*   **GitHub Token**: 用于搜索和克隆仓库。\n*   **OpenAI API Key**: 用于调用 `gpt-3.5-turbo` 为代码片段生成注释标签。\n\n## 安装步骤\n\n1.  **克隆项目**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fminosvasilias\u002Fgodot-dodo.git\n    cd godot-dodo\n    ```\n\n2.  **安装依赖**\n    建议使用虚拟环境安装所需 Python 包：\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *(注：国内用户若遇下载慢，可添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 参数)*\n\n## 基本使用\n\n本项目主要提供三种使用方式：直接使用预训练模型进行推理、自行构建数据集、或重新微调模型。以下是**最简单的推理测试流程**。\n\n### 1. 体验预训练模型 (推荐)\n项目提供了基于 LLaMA 微调好的模型权重，可直接通过 Jupyter Notebook 进行体验。\n\n*   **本地运行**:\n    确保已安装 Jupyter，然后运行演示脚本：\n    ```bash\n    jupyter notebook demo\u002Finference_demo.ipynb\n    ```\n    在 Notebook 中加载 Hugging Face 上的预训练模型权重进行对话测试。\n\n*   **Google Colab 在线运行** (无需本地显卡):\n    点击以下链接直接在云端运行：\n    [在 Google Colab 中打开 inference_demo.ipynb](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fminosvasilias\u002Fgodot-dodo\u002Fblob\u002Fmain\u002Fdemo\u002Finference_demo.ipynb)\n\n### 2. 评估微调后的模型\n如果你已经下载或微调了模型，可以使用 `eval.py` 脚本进行测试：\n\n```bash\npython finetune\u002Feval.py --model_name_or_path PATH_TO_FINETUNED_MODEL\u002F\n```\n*将 `PATH_TO_FINETUNED_MODEL\u002F` 替换为你本地的模型文件夹路径。*\n\n### 3. (进阶) 自行构建数据集\n若需生成自定义数据集，请确保配置好环境变量 `GITHUB_TOKEN` 和 `OPENAI_API_KEY`，然后执行：\n\n```bash\n# 1. 抓取并整理未标记的代码数据\npython data\u002Fgenerate_unlabeled_dataset.py\n\n# 2. 调用 LLM 为代码生成注释标签\npython data\u002Flabel_dataset.py\n```\n*注意：此过程会产生 OpenAI API 费用（约 $30 生成 60k 条数据），且仅抓取 MIT 许可的仓库。*\n\n### 4. (进阶) 开始微调\n微调流程参考 Stanford Alpaca。以复现 LLaMA-7B 版本为例，具体命令请参考 `models\u002F` 目录下对应模型的说明文档。训练完成后，可推送到 Hugging Face：\n\n```bash\npython finetune\u002Fpush_to_hub.py --model_name_or_path PATH_TO_FINETUNED_MODEL\u002F --push_name HF_MODEL_NAME --auth_token HF_ACCESS_TOKEN\n```","独立游戏开发者小明正在使用 Godot 引擎快速原型化一款 2D 平台跳跃游戏，急需生成大量符合特定版本语法的角色控制脚本。\n\n### 没有 godot-dodo 时\n- 通用大模型（如 GPT-3.5）常混淆 Godot 3.x 与 4.x 的语法差异，生成的代码因节点路径或信号连接方式错误而无法运行。\n- 模型倾向于“幻觉”出不存在的 GDScript 内置函数，导致开发者需花费大量时间逐行排查并修正不存在的 API 调用。\n- 针对冷门游戏逻辑（如特定的状态机切换），模型输出的代码结构松散，缺乏符合 Godot 最佳实践的模块化设计。\n- 每次迭代都需要人工反复提示上下文并修正语法错误，严重拖慢了从创意到可玩版本的验证速度。\n\n### 使用 godot-dodo 后\n- godot-dodo 基于真实 GitHub 人类代码微调，能精准区分引擎版本，生成的脚本在语法层面几乎无需修改即可直接编译运行。\n- 彻底消除了对虚构 API 的依赖，模型严格遵循 GDScript 标准库，确保每一行调用的函数和属性都真实有效。\n- 在处理复杂游戏机制时，godot-dodo 能输出结构严谨、符合社区规范的代码片段，显著提升了初始代码的质量上限。\n- 开发者只需输入自然语言指令即可获得高可用代码，将原本用于调试语法的时间全部投入到核心玩法的创新设计中。\n\ngodot-dodo 通过专精于人类编写的 GDScript 数据，解决了通用模型在小众语言上“懂大概但写不对”的痛点，让 AI 真正成为游戏开发的高效副驾驶。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminosvasilias_godot-dodo_3c444cfb.png","minosvasilias","Markus","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fminosvasilias_33068d2b.jpg","AI, language, gamedev.\r\nCodegen is all you need.","hercules.ai","Germany",null,"https:\u002F\u002Fgithub.com\u002Fminosvasilias",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,569,26,"2026-03-26T01:12:06","MIT",4,"未说明","微调过程必需。推荐至少 2 张 NVIDIA A100 80GB GPU（用于 LLaMA-7B\u002F13B）；训练 godot_dodo_4x_60k_llama_13b 使用了 8 张 A100 80GB。建议使用 NVLink 互联，若仅可用 PCIe 需调整训练参数。",{"notes":96,"python":93,"dependencies":97},"1. 数据集生成脚本需要 GitHub API Key 和 OpenAI API Key。2. 若使用 PCIe 而非 NVLink 环境，需在 torchrun 命令中将 'full-shard' 替换为 'shard_grad_op' 以避免显存不足或加速训练。3. 项目依赖人类编写的 GDScript 代码（仅限 MIT 许可），通过调用 GPT-3.5-turbo 进行标注生成训练数据。4. 推理演示可在 Google Colab 上运行。",[98],"requirements.txt 中定义的库（具体列表未在 README 中给出）",[13,14,15,26],[101,102,103,104,105],"ai","finetuning","gdscript","godot","llama","2026-03-27T02:49:30.150509","2026-04-06T05:44:27.828035",[109,114],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},10096,"训练数据中是否包含 .tscn 文件？","不包含，目前仅包含 GDScript。因为该项目的前提是训练专注于单一语言以实现最高性能的模型，所以在数据集中包含 .tscn 文件没有意义。不过，单独训练一个仅针对 .tscn 文件的模型是可行的。目前没有确凿证据表明这比让 GDScript 模型生成代码来填充场景并自动执行效果更好。","https:\u002F\u002Fgithub.com\u002Fminosvasilias\u002Fgodot-dodo\u002Fissues\u002F2",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},10097,"项目引用的论文是否正确？与 Self-Instruct 或 Stanford Alpaca 有何关系？","数据生成过程与 Self-Instruct 论文有显著差异。虽然 CodeAlpaca（本项目似乎是其修改版）大量参考了 Stanford Alpaca，但维护者已承认这一点，并会在 README 中补充说明以澄清引用关系。相关问题已在 Pull Request #4 中解决。","https:\u002F\u002Fgithub.com\u002Fminosvasilias\u002Fgodot-dodo\u002Fissues\u002F3",[]]