[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cheahjs--free-llm-api-resources":3,"tool-cheahjs--free-llm-api-resources":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":76,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":76,"difficulty_score":42,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":94,"github_topics":95,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":145},8919,"cheahjs\u002Ffree-llm-api-resources","free-llm-api-resources","A list of free LLM inference resources accessible via API.","free-llm-api-resources 是一个精心整理的开源清单，专门收录了可通过 API 免费访问的大语言模型（LLM）推理资源。它主要解决了开发者和研究者在探索 AI 技术时面临的高昂算力成本与门槛问题，让用户无需预先支付费用或绑定信用卡，即可快速调用各类主流模型进行应用开发与测试。\n\n这份资源非常适合软件开发者、AI 研究人员以及希望低成本构建智能应用的技术团队使用。其核心亮点在于严格筛选机制：仅收录合法合规的服务商，明确排除了通过逆向工程等手段获取的非正规渠道，确保用户使用的安全性与稳定性。清单涵盖了 OpenRouter、Google AI Studio、NVIDIA NIM、Groq、HuggingFace 等知名平台，不仅提供完全免费的额度，也包含部分提供试用积分的优质服务商。此外，它还详细列出了各服务的具体限制（如请求频率）及支持的模型列表（包括 Llama、Gemma、Qwen 等前沿模型），帮助用户根据项目需求精准选择。对于想要快速验证想法、原型开发或学习大模型应用的创作者而言，free-llm-api-resources 是一份实用且可靠的入门指南。","\u003C!---\nWARNING: DO NOT EDIT THIS FILE DIRECTLY. IT IS GENERATED BY src\u002Fpull_available_models.py\n--->\n# Free LLM API resources\n\nThis lists various services that provide free access or credits towards API-based LLM usage.\n\n> [!NOTE]  \n> Please don't abuse these services, else we might lose them.\n\n> [!WARNING]  \n> This list explicitly excludes any services that are not legitimate (eg reverse engineers an existing chatbot)\n\n- [Free Providers](#free-providers)\n  - [OpenRouter](#openrouter)\n  - [Google AI Studio](#google-ai-studio)\n  - [NVIDIA NIM](#nvidia-nim)\n  - [Mistral (La Plateforme)](#mistral-la-plateforme)\n  - [Mistral (Codestral)](#mistral-codestral)\n  - [HuggingFace Inference Providers](#huggingface-inference-providers)\n  - [Vercel AI Gateway](#vercel-ai-gateway)\n  - [OpenCode Zen](#opencode-zen)\n  - [Cerebras](#cerebras)\n  - [Groq](#groq)\n  - [Cohere](#cohere)\n  - [GitHub Models](#github-models)\n  - [Cloudflare Workers AI](#cloudflare-workers-ai)\n- [Providers with trial credits](#providers-with-trial-credits)\n  - [Fireworks](#fireworks)\n  - [Baseten](#baseten)\n  - [Nebius](#nebius)\n  - [Novita](#novita)\n  - [AI21](#ai21)\n  - [Upstage](#upstage)\n  - [NLP Cloud](#nlp-cloud)\n  - [Alibaba Cloud (International) Model Studio](#alibaba-cloud-international-model-studio)\n  - [Modal](#modal)\n  - [Inference.net](#inferencenet)\n  - [Hyperbolic](#hyperbolic)\n  - [SambaNova Cloud](#sambanova-cloud)\n  - [Scaleway Generative APIs](#scaleway-generative-apis)\n\n## Free Providers\n\n### [OpenRouter](https:\u002F\u002Fopenrouter.ai)\n\n**Limits:**\n\n[20 requests\u002Fminute\u003Cbr>50 requests\u002Fday\u003Cbr>Up to 1000 requests\u002Fday with $10 lifetime topup](https:\u002F\u002Fopenrouter.ai\u002Fdocs\u002Fapi\u002Freference\u002Flimits)\n\nModels share a common quota.\n\n- [Gemma 3 12B Instruct](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3-12b-it:free)\n- [Gemma 3 27B Instruct](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3-27b-it:free)\n- [Gemma 3 4B Instruct](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3-4b-it:free)\n- [Hermes 3 Llama 3.1 405B](https:\u002F\u002Fopenrouter.ai\u002Fnousresearch\u002Fhermes-3-llama-3.1-405b:free)\n- [Llama 3.2 3B Instruct](https:\u002F\u002Fopenrouter.ai\u002Fmeta-llama\u002Fllama-3.2-3b-instruct:free)\n- [Llama 3.3 70B Instruct](https:\u002F\u002Fopenrouter.ai\u002Fmeta-llama\u002Fllama-3.3-70b-instruct:free)\n- [arcee-ai\u002Ftrinity-large-preview:free](https:\u002F\u002Fopenrouter.ai\u002Farcee-ai\u002Ftrinity-large-preview:free)\n- [cognitivecomputations\u002Fdolphin-mistral-24b-venice-edition:free](https:\u002F\u002Fopenrouter.ai\u002Fcognitivecomputations\u002Fdolphin-mistral-24b-venice-edition:free)\n- [google\u002Fgemma-3n-e2b-it:free](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3n-e2b-it:free)\n- [google\u002Fgemma-3n-e4b-it:free](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3n-e4b-it:free)\n- [google\u002Fgemma-4-26b-a4b-it:free](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-4-26b-a4b-it:free)\n- [google\u002Fgemma-4-31b-it:free](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-4-31b-it:free)\n- [liquid\u002Flfm-2.5-1.2b-instruct:free](https:\u002F\u002Fopenrouter.ai\u002Fliquid\u002Flfm-2.5-1.2b-instruct:free)\n- [liquid\u002Flfm-2.5-1.2b-thinking:free](https:\u002F\u002Fopenrouter.ai\u002Fliquid\u002Flfm-2.5-1.2b-thinking:free)\n- [meta-llama\u002Fllama-guard-4-12b:free](https:\u002F\u002Fopenrouter.ai\u002Fmeta-llama\u002Fllama-guard-4-12b:free)\n- [minimax\u002Fminimax-m2.5:free](https:\u002F\u002Fopenrouter.ai\u002Fminimax\u002Fminimax-m2.5:free)\n- [nvidia\u002Fnemotron-3-nano-30b-a3b:free](https:\u002F\u002Fopenrouter.ai\u002Fnvidia\u002Fnemotron-3-nano-30b-a3b:free)\n- [nvidia\u002Fnemotron-3-super-120b-a12b:free](https:\u002F\u002Fopenrouter.ai\u002Fnvidia\u002Fnemotron-3-super-120b-a12b:free)\n- [nvidia\u002Fnemotron-nano-12b-v2-vl:free](https:\u002F\u002Fopenrouter.ai\u002Fnvidia\u002Fnemotron-nano-12b-v2-vl:free)\n- [nvidia\u002Fnemotron-nano-9b-v2:free](https:\u002F\u002Fopenrouter.ai\u002Fnvidia\u002Fnemotron-nano-9b-v2:free)\n- [openai\u002Fgpt-oss-120b:free](https:\u002F\u002Fopenrouter.ai\u002Fopenai\u002Fgpt-oss-120b:free)\n- [openai\u002Fgpt-oss-20b:free](https:\u002F\u002Fopenrouter.ai\u002Fopenai\u002Fgpt-oss-20b:free)\n- [qwen\u002Fqwen3-coder:free](https:\u002F\u002Fopenrouter.ai\u002Fqwen\u002Fqwen3-coder:free)\n- [qwen\u002Fqwen3-next-80b-a3b-instruct:free](https:\u002F\u002Fopenrouter.ai\u002Fqwen\u002Fqwen3-next-80b-a3b-instruct:free)\n- [z-ai\u002Fglm-4.5-air:free](https:\u002F\u002Fopenrouter.ai\u002Fz-ai\u002Fglm-4.5-air:free)\n\n### [Google AI Studio](https:\u002F\u002Faistudio.google.com)\n\nData is used for training when used outside of the UK\u002FCH\u002FEEA\u002FEU.\n\n\u003Ctable>\u003Cthead>\u003Ctr>\u003Cth>Model Name\u003C\u002Fth>\u003Cth>Model Limits\u003C\u002Fth>\u003C\u002Ftr>\u003C\u002Fthead>\u003Ctbody>\n\u003Ctr>\u003Ctd>Gemini 3 Flash\u003C\u002Ftd>\u003Ctd>250,000 tokens\u002Fminute\u003Cbr>20 requests\u002Fday\u003Cbr>5 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 3.1 Flash-Lite\u003C\u002Ftd>\u003Ctd>250,000 tokens\u002Fminute\u003Cbr>500 requests\u002Fday\u003Cbr>15 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 2.5 Flash\u003C\u002Ftd>\u003Ctd>250,000 tokens\u002Fminute\u003Cbr>20 requests\u002Fday\u003Cbr>5 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 2.5 Flash-Lite\u003C\u002Ftd>\u003Ctd>250,000 tokens\u002Fminute\u003Cbr>20 requests\u002Fday\u003Cbr>10 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 3.1 Flash TTS\u003C\u002Ftd>\u003Ctd>10,000 tokens\u002Fminute\u003Cbr>10 requests\u002Fday\u003Cbr>3 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 2.5 Flash TTS\u003C\u002Ftd>\u003Ctd>10,000 tokens\u002Fminute\u003Cbr>10 requests\u002Fday\u003Cbr>3 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini Robotics-ER 1.6\u003C\u002Ftd>\u003Ctd>250,000 tokens\u002Fminute\u003Cbr>20 requests\u002Fday\u003Cbr>5 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini Robotics-ER 1.5\u003C\u002Ftd>\u003Ctd>250,000 tokens\u002Fminute\u003Cbr>20 requests\u002Fday\u003Cbr>10 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemma 3 27B Instruct\u003C\u002Ftd>\u003Ctd>15,000 tokens\u002Fminute\u003Cbr>14,400 requests\u002Fday\u003Cbr>30 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemma 3 12B Instruct\u003C\u002Ftd>\u003Ctd>15,000 tokens\u002Fminute\u003Cbr>14,400 requests\u002Fday\u003Cbr>30 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemma 3 4B Instruct\u003C\u002Ftd>\u003Ctd>15,000 tokens\u002Fminute\u003Cbr>14,400 requests\u002Fday\u003Cbr>30 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemma 3 1B Instruct\u003C\u002Ftd>\u003Ctd>15,000 tokens\u002Fminute\u003Cbr>14,400 requests\u002Fday\u003Cbr>30 requests\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n### [NVIDIA NIM](https:\u002F\u002Fbuild.nvidia.com\u002Fexplore\u002Fdiscover)\n\nPhone number verification required.\nModels tend to be context window limited.\n\n**Limits:** 40 requests\u002Fminute\n\n- [Various open models](https:\u002F\u002Fbuild.nvidia.com\u002Fmodels)\n\n### [Mistral (La Plateforme)](https:\u002F\u002Fconsole.mistral.ai\u002F)\n\n* Free tier (Experiment plan) requires opting into data training\n* Requires phone number verification.\n\n**Limits (per-model):** 1 request\u002Fsecond, 500,000 tokens\u002Fminute, 1,000,000,000 tokens\u002Fmonth\n\n- [Open and Proprietary Mistral models](https:\u002F\u002Fdocs.mistral.ai\u002Fgetting-started\u002Fmodels\u002Fmodels_overview\u002F)\n\n### [Mistral (Codestral)](https:\u002F\u002Fcodestral.mistral.ai\u002F)\n\n* Currently free to use\n* Monthly subscription based\n* Requires phone number verification\n\n**Limits:** 30 requests\u002Fminute, 2,000 requests\u002Fday\n\n- Codestral\n\n### [HuggingFace Inference Providers](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Finference-providers\u002Fen\u002Findex)\n\nHuggingFace Serverless Inference limited to models smaller than 10GB. Some popular models are supported even if they exceed 10GB.\n\n**Limits:** [$0.10\u002Fmonth in credits](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Finference-providers\u002Fen\u002Fpricing)\n\n- Various open models across supported providers\n\n### [Vercel AI Gateway](https:\u002F\u002Fvercel.com\u002Fdocs\u002Fai-gateway)\n\nRoutes to various supported providers.\n\n**Limits:** [$5\u002Fmonth](https:\u002F\u002Fvercel.com\u002Fdocs\u002Fai-gateway\u002Fpricing)\n\n\n### [OpenCode Zen](https:\u002F\u002Fopencode.ai\u002Fdocs\u002Fzen\u002F)\n\nAI gateway with curated models.\n\nFree models may use data for improvement.\n\n- Big Pickle Stealth\n- MiniMax M2.5 Free\n- Arcee Large Preview Free\n\n### [Cerebras](https:\u002F\u002Fcloud.cerebras.ai\u002F)\n\n\u003Ctable>\u003Cthead>\u003Ctr>\u003Cth>Model Name\u003C\u002Fth>\u003Cth>Model Limits\u003C\u002Fth>\u003C\u002Ftr>\u003C\u002Fthead>\u003Ctbody>\n\u003Ctr>\u003Ctd>gpt-oss-120b\u003C\u002Ftd>\u003Ctd>30 requests\u002Fminute\u003Cbr>60,000 tokens\u002Fminute\u003Cbr>900 requests\u002Fhour\u003Cbr>1,000,000 tokens\u002Fhour\u003Cbr>14,400 requests\u002Fday\u003Cbr>1,000,000 tokens\u002Fday\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Llama 3.1 8B\u003C\u002Ftd>\u003Ctd>30 requests\u002Fminute\u003Cbr>60,000 tokens\u002Fminute\u003Cbr>900 requests\u002Fhour\u003Cbr>1,000,000 tokens\u002Fhour\u003Cbr>14,400 requests\u002Fday\u003Cbr>1,000,000 tokens\u002Fday\u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n### [Groq](https:\u002F\u002Fconsole.groq.com)\n\n\u003Ctable>\u003Cthead>\u003Ctr>\u003Cth>Model Name\u003C\u002Fth>\u003Cth>Model Limits\u003C\u002Fth>\u003C\u002Ftr>\u003C\u002Fthead>\u003Ctbody>\n\u003Ctr>\u003Ctd>Allam 2 7B\u003C\u002Ftd>\u003Ctd>7,000 requests\u002Fday\u003Cbr>6,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Llama 3.1 8B\u003C\u002Ftd>\u003Ctd>14,400 requests\u002Fday\u003Cbr>6,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Llama 3.3 70B\u003C\u002Ftd>\u003Ctd>1,000 requests\u002Fday\u003Cbr>12,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Llama 4 Scout Instruct\u003C\u002Ftd>\u003Ctd>1,000 requests\u002Fday\u003Cbr>30,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Whisper Large v3\u003C\u002Ftd>\u003Ctd>7,200 audio-seconds\u002Fminute\u003Cbr>2,000 requests\u002Fday\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Whisper Large v3 Turbo\u003C\u002Ftd>\u003Ctd>7,200 audio-seconds\u002Fminute\u003Cbr>2,000 requests\u002Fday\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>canopylabs\u002Forpheus-arabic-saudi\u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>canopylabs\u002Forpheus-v1-english\u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>groq\u002Fcompound\u003C\u002Ftd>\u003Ctd>250 requests\u002Fday\u003Cbr>70,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>groq\u002Fcompound-mini\u003C\u002Ftd>\u003Ctd>250 requests\u002Fday\u003Cbr>70,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>meta-llama\u002Fllama-prompt-guard-2-22m\u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>meta-llama\u002Fllama-prompt-guard-2-86m\u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>openai\u002Fgpt-oss-120b\u003C\u002Ftd>\u003Ctd>1,000 requests\u002Fday\u003Cbr>8,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>openai\u002Fgpt-oss-20b\u003C\u002Ftd>\u003Ctd>1,000 requests\u002Fday\u003Cbr>8,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>openai\u002Fgpt-oss-safeguard-20b\u003C\u002Ftd>\u003Ctd>1,000 requests\u002Fday\u003Cbr>8,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>qwen\u002Fqwen3-32b\u003C\u002Ftd>\u003Ctd>1,000 requests\u002Fday\u003Cbr>6,000 tokens\u002Fminute\u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n### [Cohere](https:\u002F\u002Fcohere.com)\n\n**Limits:**\n\n[20 requests\u002Fminute\u003Cbr>1,000 requests\u002Fmonth](https:\u002F\u002Fdocs.cohere.com\u002Fdocs\u002Frate-limits)\n\nModels share a common monthly quota.\n\n- c4ai-aya-expanse-32b\n- c4ai-aya-vision-32b\n- command-a-03-2025\n- command-a-reasoning-08-2025\n- command-a-translate-08-2025\n- command-a-vision-07-2025\n- command-r-08-2024\n- command-r-plus-08-2024\n- command-r7b-12-2024\n- command-r7b-arabic-02-2025\n\n### [GitHub Models](https:\u002F\u002Fgithub.com\u002Fmarketplace\u002Fmodels)\n\nExtremely restrictive input\u002Foutput token limits.\n\n**Limits:** [Dependent on Copilot subscription tier (Free\u002FPro\u002FPro+\u002FBusiness\u002FEnterprise)](https:\u002F\u002Fdocs.github.com\u002Fen\u002Fgithub-models\u002Fprototyping-with-ai-models#rate-limits)\n\n- AI21 Jamba 1.5 Large\n- Codestral 25.01\n- Cohere Command A\n- Cohere Command R 08-2024\n- Cohere Command R+ 08-2024\n- DeepSeek-R1\n- DeepSeek-R1-0528\n- DeepSeek-V3-0324\n- Grok 3\n- Grok 3 Mini\n- Llama 4 Maverick 17B 128E Instruct FP8\n- Llama 4 Scout 17B 16E Instruct\n- Llama-3.2-11B-Vision-Instruct\n- Llama-3.2-90B-Vision-Instruct\n- Llama-3.3-70B-Instruct\n- MAI-DS-R1\n- Meta-Llama-3.1-405B-Instruct\n- Meta-Llama-3.1-8B-Instruct\n- Ministral 3B\n- Mistral Medium 3 (25.05)\n- Mistral Small 3.1\n- OpenAI GPT-4.1\n- OpenAI GPT-4.1-mini\n- OpenAI GPT-4.1-nano\n- OpenAI GPT-4o\n- OpenAI GPT-4o mini\n- OpenAI Text Embedding 3 (large)\n- OpenAI Text Embedding 3 (small)\n- OpenAI gpt-5\n- OpenAI gpt-5-chat (preview)\n- OpenAI gpt-5-mini\n- OpenAI gpt-5-nano\n- OpenAI o1\n- OpenAI o1-mini\n- OpenAI o1-preview\n- OpenAI o3\n- OpenAI o3-mini\n- OpenAI o4-mini\n- Phi-4\n- Phi-4-mini-instruct\n- Phi-4-mini-reasoning\n- Phi-4-multimodal-instruct\n- Phi-4-reasoning\n\n### [Cloudflare Workers AI](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers-ai)\n\n**Limits:** [10,000 neurons\u002Fday](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers-ai\u002Fplatform\u002Fpricing\u002F#free-allocation)\n\n- @cf\u002Faisingapore\u002Fgemma-sea-lion-v4-27b-it\n- @cf\u002Fgoogle\u002Fgemma-4-26b-a4b-it\n- @cf\u002Fibm-granite\u002Fgranite-4.0-h-micro\n- @cf\u002Fmoonshotai\u002Fkimi-k2.5\n- @cf\u002Fnvidia\u002Fnemotron-3-120b-a12b\n- @cf\u002Fopenai\u002Fgpt-oss-120b\n- @cf\u002Fopenai\u002Fgpt-oss-20b\n- @cf\u002Fqwen\u002Fqwen3-30b-a3b-fp8\n- @cf\u002Fzai-org\u002Fglm-4.7-flash\n- DeepSeek R1 Distill Qwen 32B\n- Deepseek Coder 6.7B Base (AWQ)\n- Deepseek Coder 6.7B Instruct (AWQ)\n- Deepseek Math 7B Instruct\n- Discolm German 7B v1 (AWQ)\n- Falcom 7B Instruct\n- Gemma 2B Instruct (LoRA)\n- Gemma 3 12B Instruct\n- Gemma 7B Instruct\n- Gemma 7B Instruct (LoRA)\n- Hermes 2 Pro Mistral 7B\n- Llama 2 13B Chat (AWQ)\n- Llama 2 7B Chat (FP16)\n- Llama 2 7B Chat (INT8)\n- Llama 2 7B Chat (LoRA)\n- Llama 3 8B Instruct\n- Llama 3 8B Instruct (AWQ)\n- Llama 3.1 8B Instruct (AWQ)\n- Llama 3.1 8B Instruct (FP8)\n- Llama 3.2 11B Vision Instruct\n- Llama 3.2 1B Instruct\n- Llama 3.2 3B Instruct\n- Llama 3.3 70B Instruct (FP8)\n- Llama 4 Scout Instruct\n- Llama Guard 3 8B\n- Mistral 7B Instruct v0.1\n- Mistral 7B Instruct v0.1 (AWQ)\n- Mistral 7B Instruct v0.2\n- Mistral 7B Instruct v0.2 (LoRA)\n- Mistral Small 3.1 24B Instruct\n- Neural Chat 7B v3.1 (AWQ)\n- OpenChat 3.5 0106\n- OpenHermes 2.5 Mistral 7B (AWQ)\n- Phi-2\n- Qwen 1.5 0.5B Chat\n- Qwen 1.5 1.8B Chat\n- Qwen 1.5 14B Chat (AWQ)\n- Qwen 1.5 7B Chat (AWQ)\n- Qwen 2.5 Coder 32B Instruct\n- Qwen QwQ 32B\n- SQLCoder 7B 2\n- Starling LM 7B Beta\n- TinyLlama 1.1B Chat v1.0\n- Una Cybertron 7B v2 (BF16)\n- Zephyr 7B Beta (AWQ)\n\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n\n\n## Providers with trial credits\n\n### [Fireworks](https:\u002F\u002Ffireworks.ai\u002F)\n\n**Credits:** $1\n\n**Models:** [Various open models](https:\u002F\u002Ffireworks.ai\u002Fmodels)\n\n### [Baseten](https:\u002F\u002Fapp.baseten.co\u002F)\n\n**Credits:** $30\n\n**Models:** [Any supported model - pay by compute time](https:\u002F\u002Fwww.baseten.co\u002Flibrary\u002F)\n\n### [Nebius](https:\u002F\u002Ftokenfactory.nebius.com\u002F)\n\n**Credits:** $1\n\n**Models:** [Various open models](https:\u002F\u002Ftokenfactory.nebius.com\u002Fmodels)\n\n### [Novita](https:\u002F\u002Fnovita.ai\u002F?ref=ytblmjc&utm_source=affiliate)\n\n**Credits:** $0.5 for 1 year\n\n**Models:** [Various open models](https:\u002F\u002Fnovita.ai\u002Fmodels)\n\n### [AI21](https:\u002F\u002Fstudio.ai21.com\u002F)\n\n**Credits:** $10 for 3 months\n\n**Models:** Jamba family of models\n\n### [Upstage](https:\u002F\u002Fconsole.upstage.ai\u002F)\n\n**Credits:** $10 for 3 months\n\n**Models:** Solar Pro\u002FMini\n\n### [NLP Cloud](https:\u002F\u002Fnlpcloud.com\u002Fhome)\n\n**Credits:** $15\n\n**Requirements:** Phone number verification\n\n**Models:** Various open models\n\n### [Alibaba Cloud (International) Model Studio](https:\u002F\u002Fbailian.console.alibabacloud.com\u002F)\n\n**Credits:** 1 million tokens\u002Fmodel\n\n**Models:** [Various open and proprietary Qwen models](https:\u002F\u002Fwww.alibabacloud.com\u002Fen\u002Fproduct\u002Fmodelstudio)\n\n### [Modal](https:\u002F\u002Fmodal.com)\n\n**Credits:** $5\u002Fmonth upon sign up, $30\u002Fmonth with payment method added\n\n**Models:** Any supported model - pay by compute time\n\n### [Inference.net](https:\u002F\u002Finference.net)\n\n**Credits:** $1, $25 on responding to email survey\n\n**Models:** Various open models\n\n### [Hyperbolic](https:\u002F\u002Fapp.hyperbolic.ai\u002F)\n\n**Credits:** $1\n\n**Models:**\n- DeepSeek V3 0324\n- Llama 3.3 70B Instruct\n- deepseek-ai\u002Fdeepseek-r1-0528\n- qwen\u002Fqwen3-coder-480b-a35b-instruct\n\n### [SambaNova Cloud](https:\u002F\u002Fcloud.sambanova.ai\u002F)\n\n**Credits:** $5 for 3 months\n\n**Models:**\n- Llama 3.3 70B\n- Llama-4-Maverick-17B-128E-Instruct\n- deepseek-ai\u002FDeepSeek-V3.1\n- deepseek-ai\u002FDeepSeek-V3.1\n- deepseek-ai\u002FDeepSeek-V3.2\n- google\u002Fgemma-3-12b-it\n- minimaxai\u002Fminimax-m2.5\n- openai\u002Fgpt-oss-120b\n\n### [Scaleway Generative APIs](https:\u002F\u002Fconsole.scaleway.com\u002Fgenerative-api\u002Fmodels)\n\n**Credits:** 1,000,000 free tokens\n\n**Models:**\n- BGE-Multilingual-Gemma2\n- Gemma 3 27B Instruct\n- Llama 3.3 70B Instruct\n- Pixtral 12B (2409)\n- Whisper Large v3\n- devstral-2-123b-instruct-2512\n- gpt-oss-120b\n- holo2-30b-a3b\n- mistral-small-3.2-24b-instruct-2506\n- qwen3-235b-a22b-instruct-2507\n- qwen3-coder-30b-a3b-instruct\n- qwen3-embedding-8b\n- qwen3.5-397b-a17b\n- voxtral-small-24b-2507\n\n\n","\u003C!---\n警告：请勿直接编辑此文件。它由 src\u002Fpull_available_models.py 生成。\n--->\n# 免费的LLM API资源\n\n这里列出了提供免费访问或API使用额度的各种服务，用于基于API的LLM调用。\n\n> [!注意]  \n> 请不要滥用这些服务，否则我们可能会失去它们。\n\n> [!警告]  \n> 此列表明确排除任何不合法的服务（例如逆向工程现有聊天机器人）。\n\n- [免费提供商](#free-providers)\n  - [OpenRouter](#openrouter)\n  - [Google AI Studio](#google-ai-studio)\n  - [NVIDIA NIM](#nvidia-nim)\n  - [Mistral (La Plateforme)](#mistral-la-plateforme)\n  - [Mistral (Codestral)](#mistral-codestral)\n  - [HuggingFace 推理提供商](#huggingface-inference-providers)\n  - [Vercel AI Gateway](#vercel-ai-gateway)\n  - [OpenCode Zen](#opencode-zen)\n  - [Cerebras](#cerebras)\n  - [Groq](#groq)\n  - [Cohere](#cohere)\n  - [GitHub Models](#github-models)\n  - [Cloudflare Workers AI](#cloudflare-workers-ai)\n- [提供试用额度的提供商](#providers-with-trial-credits)\n  - [Fireworks](#fireworks)\n  - [Baseten](#baseten)\n  - [Nebius](#nebius)\n  - [Novita](#novita)\n  - [AI21](#ai21)\n  - [Upstage](#upstage)\n  - [NLP Cloud](#nlp-cloud)\n  - [阿里云国际模型工作室](#alibaba-cloud-international-model-studio)\n  - [Modal](#modal)\n  - [Inference.net](#inferencenet)\n  - [Hyperbolic](#hyperbolic)\n  - [SambaNova Cloud](#sambanova-cloud)\n  - [Scaleway 生成式API](#scaleway-generative-apis)\n\n## 免费提供商\n\n### [OpenRouter](https:\u002F\u002Fopenrouter.ai)\n\n**限制：**\n\n[20次请求\u002F分钟\u003Cbr>50次请求\u002F天\u003Cbr>通过10美元终身充值可达到每天最多1000次请求](https:\u002F\u002Fopenrouter.ai\u002Fdocs\u002Fapi\u002Freference\u002Flimits)\n\n所有模型共享同一配额。\n\n- [Gemma 3 12B 指令版](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3-12b-it:free)\n- [Gemma 3 27B 指令版](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3-27b-it:free)\n- [Gemma 3 4B 指令版](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3-4b-it:free)\n- [Hermes 3 Llama 3.1 405B](https:\u002F\u002Fopenrouter.ai\u002Fnousresearch\u002Fhermes-3-llama-3.1-405b:free)\n- [Llama 3.2 3B 指令版](https:\u002F\u002Fopenrouter.ai\u002Fmeta-llama\u002Fllama-3.2-3b-instruct:free)\n- [Llama 3.3 70B 指令版](https:\u002F\u002Fopenrouter.ai\u002Fmeta-llama\u002Fllama-3.3-70b-instruct:free)\n- [arcee-ai\u002Ftrinity-large-preview:free](https:\u002F\u002Fopenrouter.ai\u002Farcee-ai\u002Ftrinity-large-preview:free)\n- [cognitivecomputations\u002Fdolphin-mistral-24b-venice-edition:free](https:\u002F\u002Fopenrouter.ai\u002Fcognitivecomputations\u002Fdolphin-mistral-24b-venice-edition:free)\n- [google\u002Fgemma-3n-e2b-it:free](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3n-e2b-it:free)\n- [google\u002Fgemma-3n-e4b-it:free](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-3n-e4b-it:free)\n- [google\u002Fgemma-4-26b-a4b-it:free](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-4-26b-a4b-it:free)\n- [google\u002Fgemma-4-31b-it:free](https:\u002F\u002Fopenrouter.ai\u002Fgoogle\u002Fgemma-4-31b-it:free)\n- [liquid\u002Flfm-2.5-1.2b-instruct:free](https:\u002F\u002Fopenrouter.ai\u002Fliquid\u002Flfm-2.5-1.2b-instruct:free)\n- [liquid\u002Flfm-2.5-1.2b-thinking:free](https:\u002F\u002Fopenrouter.ai\u002Fliquid\u002Flfm-2.5-1.2b-thinking:free)\n- [meta-llama\u002Fllama-guard-4-12b:free](https:\u002F\u002Fopenrouter.ai\u002Fmeta-llama\u002Fllama-guard-4-12b:free)\n- [minimax\u002Fminimax-m2.5:free](https:\u002F\u002Fopenrouter.ai\u002Fminimax\u002Fminimax-m2.5:free)\n- [nvidia\u002Fnemotron-3-nano-30b-a3b:free](https:\u002F\u002Fopenrouter.ai\u002Fnvidia\u002Fnemotron-3-nano-30b-a3b:free)\n- [nvidia\u002Fnemotron-3-super-120b-a12b:free](https:\u002F\u002Fopenrouter.ai\u002Fnvidia\u002Fnemotron-3-super-120b-a12b:free)\n- [nvidia\u002Fnemotron-nano-12b-v2-vl:free](https:\u002F\u002Fopenrouter.ai\u002Fnvidia\u002Fnemotron-nano-12b-v2-vl:free)\n- [nvidia\u002Fnemotron-nano-9b-v2:free](https:\u002F\u002Fopenrouter.ai\u002Fnvidia\u002Fnemotron-nano-9b-v2:free)\n- [openai\u002Fgpt-oss-120b:free](https:\u002F\u002Fopenrouter.ai\u002Fopenai\u002Fgpt-oss-120b:free)\n- [openai\u002Fgpt-oss-20b:free](https:\u002F\u002Fopenrouter.ai\u002Fopenai\u002Fgpt-oss-20b:free)\n- [qwen\u002Fqwen3-coder:free](https:\u002F\u002Fopenrouter.ai\u002Fqwen\u002Fqwen3-coder:free)\n- [qwen\u002Fqwen3-next-80b-a3b-instruct:free](https:\u002F\u002Fopenrouter.ai\u002Fqwen\u002Fqwen3-next-80b-a3b-instruct:free)\n- [z-ai\u002Fglm-4.5-air:free](https:\u002F\u002Fopenrouter.ai\u002Fz-ai\u002Fglm-4.5-air:free)\n\n### [Google AI Studio](https:\u002F\u002Faistudio.google.com)\n\n在英国、瑞士、欧洲经济区和欧盟以外地区使用时，数据将被用于训练。\n\n\u003Ctable>\u003Cthead>\u003Ctr>\u003Cth>模型名称\u003C\u002Fth>\u003Cth>模型限制\u003C\u002Fth>\u003C\u002Ftr>\u003C\u002Fthead>\u003Ctbody>\n\u003Ctr>\u003Ctd>Gemini 3 Flash\u003C\u002Ftd>\u003Ctd>每分钟25万 tokens\u003Cbr>每天20次请求\u003Cbr>每分钟5次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 3.1 Flash-Lite\u003C\u002Ftd>\u003Ctd>每分钟25万 tokens\u003Cbr>每天500次请求\u003Cbr>每分钟15次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 2.5 Flash\u003C\u002Ftd>\u003Ctd>每分钟25万 tokens\u003Cbr>每天20次请求\u003Cbr>每分钟5次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 2.5 Flash-Lite\u003C\u002Ftd>\u003Ctd>每分钟25万 tokens\u003Cbr>每天20次请求\u003Cbr>每分钟10次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 3.1 Flash TTS\u003C\u002Ftd>\u003Ctd>每分钟1万 tokens\u003Cbr>每天10次请求\u003Cbr>每分钟3次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini 2.5 Flash TTS\u003C\u002Ftd>\u003Ctd>每分钟1万 tokens\u003Cbr>每天10次请求\u003Cbr>每分钟3次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini Robotics-ER 1.6\u003C\u002Ftd>\u003Ctd>每分钟25万 tokens\u003Cbr>每天20次请求\u003Cbr>每分钟5次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemini Robotics-ER 1.5\u003C\u002Ftd>\u003Ctd>每分钟25万 tokens\u003Cbr>每天20次请求\u003Cbr>每分钟10次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemma 3 27B 指令版\u003C\u002Ftd>\u003Ctd>每分钟1.5万 tokens\u003Cbr>每天1.44万次请求\u003Cbr>每分钟30次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemma 3 12B 指令版\u003C\u002Ftd>\u003Ctd>每分钟1.5万 tokens\u003Cbr>每天1.44万次请求\u003Cbr>每分钟30次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemma 3 4B 指令版\u003C\u002Ftd>\u003Ctd>每分钟1.5万 tokens\u003Cbr>每天1.44万次请求\u003Cbr>每分钟30次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gemma 3 1B 指令版\u003C\u002Ftd>\u003Ctd>每分钟1.5万 tokens\u003Cbr>每天1.44万次请求\u003Cbr>每分钟30次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n### [NVIDIA NIM](https:\u002F\u002Fbuild.nvidia.com\u002Fexplore\u002Fdiscover)\n\n需要手机号验证。\n模型通常有上下文窗口限制。\n\n**限制：** 每分钟40次请求\n\n- [各种开源模型](https:\u002F\u002Fbuild.nvidia.com\u002Fmodels)\n\n### [Mistral (La Plateforme)](https:\u002F\u002Fconsole.mistral.ai\u002F)\n\n* 免费层级（实验计划）需要选择同意数据训练\n* 需要手机号验证。\n\n**限制（按模型）：** 每秒1次请求，每分钟50万个tokens，每月10亿个tokens\n\n- [开放和专有Mistral模型](https:\u002F\u002Fdocs.mistral.ai\u002Fgetting-started\u002Fmodels\u002Fmodels_overview\u002F)\n\n### [Mistral (Codestral)](https:\u002F\u002Fcodestral.mistral.ai\u002F)\n\n* 目前可免费使用\n* 基于月度订阅\n* 需要手机号验证\n\n**限制：** 每分钟30次请求，每天2000次请求\n\n- Codestral\n\n### [HuggingFace 推理提供商](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Finference-providers\u002Fen\u002Findex)\n\nHuggingFace 无服务器推理仅限于小于10GB的模型。一些流行的模型即使超过10GB也受支持。\n\n**限制：** [$0.10\u002F月的积分](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Finference-providers\u002Fen\u002Fpricing)\n\n- 各种在支持的提供商处提供的开源模型\n\n### [Vercel AI Gateway](https:\u002F\u002Fvercel.com\u002Fdocs\u002Fai-gateway)\n\n路由到各种支持的提供商。\n\n**限制：** [$5\u002F月](https:\u002F\u002Fvercel.com\u002Fdocs\u002Fai-gateway\u002Fpricing)\n\n### [OpenCode Zen](https:\u002F\u002Fopencode.ai\u002Fdocs\u002Fzen\u002F)\n\n集成了精选模型的AI网关。\n\n免费模型可能会使用数据进行优化。\n\n- Big Pickle Stealth\n- MiniMax M2.5 Free\n- Arcee Large Preview Free\n\n### [Cerebras](https:\u002F\u002Fcloud.cerebras.ai\u002F)\n\n\u003Ctable>\u003Cthead>\u003Ctr>\u003Cth>模型名称\u003C\u002Fth>\u003Cth>模型限制\u003C\u002Fth>\u003C\u002Ftr>\u003C\u002Fthead>\u003Ctbody>\n\u003Ctr>\u003Ctd>gpt-oss-120b\u003C\u002Ftd>\u003Ctd>每分钟30次请求\u003Cbr>每分钟60,000个token\u003Cbr>每小时900次请求\u003Cbr>每小时1,000,000个token\u003Cbr>每天14,400次请求\u003Cbr>每天1,000,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Llama 3.1 8B\u003C\u002Ftd>\u003Ctd>每分钟30次请求\u003Cbr>每分钟60,000个token\u003Cbr>每小时900次请求\u003Cbr>每小时1,000,000个token\u003Cbr>每天14,400次请求\u003Cbr>每天1,000,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n### [Groq](https:\u002F\u002Fconsole.groq.com)\n\n\u003Ctable>\u003Cthead>\u003Ctr>\u003Cth>模型名称\u003C\u002Fth>\u003Cth>模型限制\u003C\u002Fth>\u003C\u002Ftr>\u003C\u002Fthead>\u003Ctbody>\n\u003Ctr>\u003Ctd>Allam 2 7B\u003C\u002Ftd>\u003Ctd>每天7,000次请求\u003Cbr>每分钟6,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Llama 3.1 8B\u003C\u002Ftd>\u003Ctd>每天14,400次请求\u003Cbr>每分钟6,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Llama 3.3 70B\u003C\u002Ftd>\u003Ctd>每天1,000次请求\u003Cbr>每分钟12,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Llama 4 Scout Instruct\u003C\u002Ftd>\u003Ctd>每天1,000次请求\u003Cbr>每分钟30,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Whisper Large v3\u003C\u002Ftd>\u003Ctd>每分钟7,200秒音频\u003Cbr>每天2,000次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Whisper Large v3 Turbo\u003C\u002Ftd>\u003Ctd>每分钟7,200秒音频\u003Cbr>每天2,000次请求\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>canopylabs\u002Forpheus-arabic-saudi\u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>canopylabs\u002Forpheus-v1-english\u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>groq\u002Fcompound\u003C\u002Ftd>\u003Ctd>每天250次请求\u003Cbr>每分钟70,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>groq\u002Fcompound-mini\u003C\u002Ftd>\u003Ctd>每天250次请求\u003Cbr>每分钟70,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>meta-llama\u002Fllama-prompt-guard-2-22m\u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>meta-llama\u002Fllama-prompt-guard-2-86m\u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>openai\u002Fgpt-oss-120b\u003C\u002Ftd>\u003Ctd>每天1,000次请求\u003Cbr>每分钟8,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>openai\u002Fgpt-oss-20b\u003C\u002Ftd>\u003Ctd>每天1,000次请求\u003Cbr>每分钟8,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>openai\u002Fgpt-oss-safeguard-20b\u003C\u002Ftd>\u003Ctd>每天1,000次请求\u003Cbr>每分钟8,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>qwen\u002Fqwen3-32b\u003C\u002Ftd>\u003Ctd>每天1,000次请求\u003Cbr>每分钟6,000个token\u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n### [Cohere](https:\u002F\u002Fcohere.com)\n\n**限制：**\n\n[每分钟20次请求\u003Cbr>每月1,000次请求](https:\u002F\u002Fdocs.cohere.com\u002Fdocs\u002Frate-limits)\n\n所有模型共享一个共同的月度配额。\n\n- c4ai-aya-expanse-32b\n- c4ai-aya-vision-32b\n- command-a-03-2025\n- command-a-reasoning-08-2025\n- command-a-translate-08-2025\n- command-a-vision-07-2025\n- command-r-08-2024\n- command-r-plus-08-2024\n- command-r7b-12-2024\n- command-r7b-arabic-02-2025\n\n### [GitHub Models](https:\u002F\u002Fgithub.com\u002Fmarketplace\u002Fmodels)\n\n输入输出token限制极为严格。\n\n**限制：** [取决于Copilot订阅层级（免费\u002FPro\u002FPro+\u002FBusiness\u002FEnterprise）](https:\u002F\u002Fdocs.github.com\u002Fen\u002Fgithub-models\u002Fprototyping-with-ai-models#rate-limits)\n\n- AI21 Jamba 1.5 Large\n- Codestral 25.01\n- Cohere Command A\n- Cohere Command R 08-2024\n- Cohere Command R+ 08-2024\n- DeepSeek-R1\n- DeepSeek-R1-0528\n- DeepSeek-V3-0324\n- Grok 3\n- Grok 3 Mini\n- Llama 4 Maverick 17B 128E Instruct FP8\n- Llama 4 Scout 17B 16E Instruct\n- Llama-3.2-11B-Vision-Instruct\n- Llama-3.2-90B-Vision-Instruct\n- Llama-3.3-70B-Instruct\n- MAI-DS-R1\n- Meta-Llama-3.1-405B-Instruct\n- Meta-Llama-3.1-8B-Instruct\n- Ministral 3B\n- Mistral Medium 3 (25.05)\n- Mistral Small 3.1\n- OpenAI GPT-4.1\n- OpenAI GPT-4.1-mini\n- OpenAI GPT-4.1-nano\n- OpenAI GPT-4o\n- OpenAI GPT-4o mini\n- OpenAI Text Embedding 3 (large)\n- OpenAI Text Embedding 3 (small)\n- OpenAI gpt-5\n- OpenAI gpt-5-chat (preview)\n- OpenAI gpt-5-mini\n- OpenAI gpt-5-nano\n- OpenAI o1\n- OpenAI o1-mini\n- OpenAI o1-preview\n- OpenAI o3\n- OpenAI o3-mini\n- OpenAI o4-mini\n- Phi-4\n- Phi-4-mini-instruct\n- Phi-4-mini-reasoning\n- Phi-4-multimodal-instruct\n- Phi-4-reasoning\n\n### [Cloudflare Workers AI](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers-ai)\n\n**限制：** [每天10,000个神经元](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers-ai\u002Fplatform\u002Fpricing\u002F#free-allocation)\n\n- @cf\u002Faisingapore\u002Fgemma-sea-lion-v4-27b-it\n- @cf\u002Fgoogle\u002Fgemma-4-26b-a4b-it\n- @cf\u002Fibm-granite\u002Fgranite-4.0-h-micro\n- @cf\u002Fmoonshotai\u002Fkimi-k2.5\n- @cf\u002Fnvidia\u002Fnemotron-3-120b-a12b\n- @cf\u002Fopenai\u002Fgpt-oss-120b\n- @cf\u002Fopenai\u002Fgpt-oss-20b\n- @cf\u002Fqwen\u002Fqwen3-30b-a3b-fp8\n- @cf\u002Fzai-org\u002Fglm-4.7-flash\n- DeepSeek R1 Distill Qwen 32B\n- Deepseek Coder 6.7B Base (AWQ)\n- Deepseek Coder 6.7B Instruct (AWQ)\n- Deepseek Math 7B Instruct\n- Discolm German 7B v1 (AWQ)\n- Falcom 7B Instruct\n- Gemma 2B Instruct (LoRA)\n- Gemma 3 12B Instruct\n- Gemma 7B Instruct\n- Gemma 7B Instruct (LoRA)\n- Hermes 2 Pro Mistral 7B\n- Llama 2 13B Chat (AWQ)\n- Llama 2 7B Chat (FP16)\n- Llama 2 7B Chat (INT8)\n- Llama 2 7B Chat (LoRA)\n- Llama 3 8B Instruct\n- Llama 3 8B Instruct (AWQ)\n- Llama 3.1 8B Instruct (AWQ)\n- Llama 3.1 8B Instruct (FP8)\n- Llama 3.2 11B Vision Instruct\n- Llama 3.2 1B Instruct\n- Llama 3.2 3B Instruct\n- Llama 3.3 70B Instruct (FP8)\n- Llama 4 Scout Instruct\n- Llama Guard 3 8B\n- Mistral 7B Instruct v0.1\n- Mistral 7B Instruct v0.1 (AWQ)\n- Mistral 7B Instruct v0.2\n- Mistral 7B Instruct v0.2 (LoRA)\n- Mistral Small 3.1 24B Instruct\n- Neural Chat 7B v3.1 (AWQ)\n- OpenChat 3.5 0106\n- OpenHermes 2.5 Mistral 7B (AWQ)\n- Phi-2\n- Qwen 1.5 0.5B Chat\n- Qwen 1.5 1.8B Chat\n- Qwen 1.5 14B Chat (AWQ)\n- Qwen 1.5 7B Chat (AWQ)\n- Qwen 2.5 Coder 32B Instruct\n- Qwen QwQ 32B\n- SQLCoder 7B 2\n- Starling LM 7B Beta\n- TinyLlama 1.1B Chat v1.0\n- Una Cybertron 7B v2 (BF16)\n- Zephyr 7B Beta (AWQ)\n\n\u003C\u002Ftbody>\u003C\u002Ftable>\n\n\n\n## 提供试用额度的服务商\n\n### [Fireworks](https:\u002F\u002Ffireworks.ai\u002F)\n\n**额度：** $1\n\n**模型：** [多种开源模型](https:\u002F\u002Ffireworks.ai\u002Fmodels)\n\n### [Baseten](https:\u002F\u002Fapp.baseten.co\u002F)\n\n**额度：** $30\n\n**模型：** [任何支持的模型 - 按计算时间付费](https:\u002F\u002Fwww.baseten.co\u002Flibrary\u002F)\n\n### [Nebius](https:\u002F\u002Ftokenfactory.nebius.com\u002F)\n\n**额度：** $1\n\n**模型：** [多种开源模型](https:\u002F\u002Ftokenfactory.nebius.com\u002Fmodels)\n\n### [Novita](https:\u002F\u002Fnovita.ai\u002F?ref=ytblmjc&utm_source=affiliate)\n\n**额度：** $0.5，有效期1年\n\n**模型：** [多种开源模型](https:\u002F\u002Fnovita.ai\u002Fmodels)\n\n### [AI21](https:\u002F\u002Fstudio.ai21.com\u002F)\n\n**额度：** $10，有效期3个月\n\n**模型：** Jamba系列模型\n\n### [Upstage](https:\u002F\u002Fconsole.upstage.ai\u002F)\n\n**额度：** $10，有效期3个月\n\n**模型：** Solar Pro\u002FMini\n\n### [NLP Cloud](https:\u002F\u002Fnlpcloud.com\u002Fhome)\n\n**额度：** $15\n\n**要求：** 需验证手机号码\n\n**模型：** 多种开源模型\n\n### [阿里云国际版Model Studio](https:\u002F\u002Fbailian.console.alibabacloud.com\u002F)\n\n**额度：** 每模型100万token\n\n**模型：** [多种开源及专有Qwen模型](https:\u002F\u002Fwww.alibabacloud.com\u002Fen\u002Fproduct\u002Fmodelstudio)\n\n### [Modal](https:\u002F\u002Fmodal.com)\n\n**额度：** 注册时$5\u002F月，添加支付方式后$30\u002F月\n\n**模型：** 任何支持的模型 - 按计算时间付费\n\n### [Inference.net](https:\u002F\u002Finference.net)\n\n**额度：** $1，回复邮件调查可得$25\n\n**模型：** 多种开源模型\n\n### [Hyperbolic](https:\u002F\u002Fapp.hyperbolic.ai\u002F)\n\n**积分：** $1\n\n**模型：**\n- DeepSeek V3 0324\n- Llama 3.3 70B Instruct\n- deepseek-ai\u002Fdeepseek-r1-0528\n- qwen\u002Fqwen3-coder-480b-a35b-instruct\n\n### [SambaNova Cloud](https:\u002F\u002Fcloud.sambanova.ai\u002F)\n\n**积分：** 3个月$5\n\n**模型：**\n- Llama 3.3 70B\n- Llama-4-Maverick-17B-128E-Instruct\n- deepseek-ai\u002FDeepSeek-V3.1\n- deepseek-ai\u002FDeepSeek-V3.1\n- deepseek-ai\u002FDeepSeek-V3.2\n- google\u002Fgemma-3-12b-it\n- minimaxai\u002Fminimax-m2.5\n- openai\u002Fgpt-oss-120b\n\n### [Scaleway 生成式 API](https:\u002F\u002Fconsole.scaleway.com\u002Fgenerative-api\u002Fmodels)\n\n**积分：** 1,000,000个免费Token\n\n**模型：**\n- BGE-Multilingual-Gemma2\n- Gemma 3 27B Instruct\n- Llama 3.3 70B Instruct\n- Pixtral 12B (2409)\n- Whisper Large v3\n- devstral-2-123b-instruct-2512\n- gpt-oss-120b\n- holo2-30b-a3b\n- mistral-small-3.2-24b-instruct-2506\n- qwen3-235b-a22b-instruct-2507\n- qwen3-coder-30b-a3b-instruct\n- qwen3-embedding-8b\n- qwen3.5-397b-a17b\n- voxtral-small-24b-2507","# free-llm-api-resources 快速上手指南\n\n本指南旨在帮助中国开发者快速了解并利用 `free-llm-api-resources` 列表中提供的免费或试用型 LLM API 服务。该项目本身是一个资源清单，无需安装特定软件包，核心步骤是注册服务商并获取 API Key。\n\n## 环境准备\n\n在使用列表中的任何服务前，请确保满足以下基础条件：\n\n*   **系统要求**：任意支持现代浏览器和命令行工具（如 curl, Python, Node.js）的操作系统（Windows, macOS, Linux）。\n*   **前置依赖**：\n    *   有效的电子邮箱（部分服务需要手机验证码，建议使用国际号码或支持接收短信的虚拟号）。\n    *   **网络环境**：由于大多数服务商（如 Google, OpenRouter, Groq, HuggingFace）的服务器位于海外，中国大陆用户通常需要配置科学上网环境或使用代理才能稳定访问控制台和 API 端点。\n    *   **开发工具**：推荐安装 `Python 3.8+` 或 `Node.js 18+` 用于测试 API 调用。\n    *   **API 客户端**：推荐使用 Postman、Insomnia 或简单的代码脚本进行测试。\n\n## 安装与注册步骤\n\n由于这是一个资源列表而非单一软件，\"安装\"过程实为选择服务商并配置密钥的过程。\n\n### 1. 选择服务商\n根据需求从列表中选择一个提供商。对于国内开发者，推荐优先考虑以下对免费层级支持较好且文档清晰的服务：\n*   **OpenRouter**: 聚合多种模型，提供统一的 API 接口。\n*   **Groq**: 以极快的推理速度著称，提供免费额度。\n*   **Google AI Studio**: 提供 Gemini 系列模型的免费额度。\n*   **HuggingFace Inference**: 适合测试开源小模型。\n\n### 2. 获取 API Key (以 OpenRouter 为例)\n大多数服务流程类似，以下步骤以 OpenRouter 为例：\n\n1.  访问 [OpenRouter 官网](https:\u002F\u002Fopenrouter.ai)。\n2.  点击 \"Sign In\" 使用 GitHub 或 Google 账号登录。\n3.  进入 **Keys** 页面，点击 \"Create Key\" 生成一个新的 API Key。\n4.  **重要**：复制并保存该 Key（格式通常为 `sk-or-v1-...`），后续调用需用到。\n\n> **注意**：部分服务（如 NVIDIA NIM, Mistral）强制要求手机号验证，请根据页面提示完成。\n\n### 3. 配置环境变量\n在终端中设置环境变量，避免在代码中硬编码密钥：\n\n```bash\n# macOS \u002F Linux\nexport OPENROUTER_API_KEY=\"你的_API_Key_在此\"\nexport OPENROUTER_BASE_URL=\"https:\u002F\u002Fopenrouter.ai\u002Fapi\u002Fv1\"\n\n# Windows (PowerShell)\n$env:OPENROUTER_API_KEY=\"你的_API_Key_在此\"\n$env:OPENROUTER_BASE_URL=\"https:\u002F\u002Fopenrouter.ai\u002Fapi\u002Fv1\"\n```\n\n## 基本使用\n\n以下示例展示如何通过 Python 调用免费模型。此处以调用 OpenRouter 上的免费 `Llama 3.2 3B Instruct` 模型为例。\n\n### 前置准备\n安装必要的 HTTP 请求库：\n\n```bash\npip install requests\n```\n\n### 调用示例代码\n\n创建一个名为 `test_llm.py` 的文件，填入以下内容：\n\n```python\nimport os\nimport requests\nimport json\n\n# 配置信息\napi_key = os.getenv(\"OPENROUTER_API_KEY\")\nbase_url = os.getenv(\"OPENROUTER_BASE_URL\", \"https:\u002F\u002Fopenrouter.ai\u002Fapi\u002Fv1\")\n\n# 选择免费模型 (参考 README 中的 Free Providers 列表)\n# 例如: meta-llama\u002Fllama-3.2-3b-instruct:free\nmodel_id = \"meta-llama\u002Fllama-3.2-3b-instruct:free\"\n\nheaders = {\n    \"Authorization\": f\"Bearer {api_key}\",\n    \"Content-Type\": \"application\u002Fjson\",\n    # OpenRouter 特有头部，用于统计来源（可选）\n    \"HTTP-Referer\": \"https:\u002F\u002Fyour-site.com\", \n    \"X-Title\": \"My Free LLM App\"\n}\n\npayload = {\n    \"model\": model_id,\n    \"messages\": [\n        {\"role\": \"user\", \"content\": \"你好，请用中文简单介绍什么是大型语言模型？\"}\n    ],\n    \"temperature\": 0.7,\n    \"max_tokens\": 500\n}\n\ntry:\n    response = requests.post(\n        f\"{base_url}\u002Fchat\u002Fcompletions\",\n        headers=headers,\n        data=json.dumps(payload)\n    )\n    \n    if response.status_code == 200:\n        result = response.json()\n        content = result['choices'][0]['message']['content']\n        print(\"模型回复:\", content)\n    else:\n        print(f\"请求失败: {response.status_code}\")\n        print(response.text)\n        \nexcept Exception as e:\n    print(f\"发生错误: {e}\")\n```\n\n### 运行测试\n\n在终端执行：\n\n```bash\npython test_llm.py\n```\n\n如果配置正确且网络通畅，你将收到来自 LLM 的中文回复。\n\n### 切换其他免费服务\n若要使用 **Groq** 或 **Google AI Studio**，只需更改 `base_url`、`headers` 中的认证方式以及 `model` 名称即可。例如 Groq 的标准调用地址为 `https:\u002F\u002Fapi.groq.com\u002Fopenai\u002Fv1\u002Fchat\u002Fcompletions`，模型名可替换为 README 中列出的 `llama-3.1-8b-instant` 等免费型号。\n\n> **温馨提示**：请严格遵守各服务商的使用限制（Rate Limits），不要滥用免费资源，以免导致服务被封禁或列表失效。","一位独立开发者正在构建一个面向学生的 AI 编程辅导助手，需要在不增加运营成本的前提下集成多种大模型以提供代码生成与解释功能。\n\n### 没有 free-llm-api-resources 时\n- **高昂的试错成本**：开发者需自行逐个注册 Google、Mistral、Groq 等平台，不仅耗时，还容易因信用卡预授权或隐性收费导致预算超支。\n- **模型选择受限**：受限于单一服务商的免费额度，无法灵活调用 Llama 3.3 70B 或 Qwen Coder 等特定优势模型，导致辅导回答质量不稳定。\n- **维护风险高**：难以实时掌握各平台免费策略的变动，一旦某个接口突然收费或停用，应用服务将面临中断风险。\n- **合规隐患**：在寻找免费资源时，可能误用非官方逆向工程接口，导致项目面临法律纠纷或被封禁。\n\n### 使用 free-llm-api-resources 后\n- **零成本快速接入**：直接参考列表中经过验证的 OpenRouter、Google AI Studio 等正规渠道，几分钟内即可获取多个模型的免费 API 密钥并投入开发。\n- **灵活调度最优模型**：利用列表提供的丰富选项，针对代码生成调用 Qwen Coder，针对逻辑解释调用 Llama 3.3，显著提升辅导准确率而不增加支出。\n- **稳定可持续运营**：依托列表中明确标注的速率限制（如 OpenRouter 每日 50 次请求），合理设计降级策略，确保服务长期稳定运行。\n- **安全合规保障**：严格遵循列表“排除非合法服务”的原则，只采用官方认可的推理资源，彻底规避法律与封号风险。\n\nfree-llm-api-resources 让开发者能够以零成本、低风险的方式，灵活组合全球顶级开源模型，极大降低了 AI 应用的落地门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcheahjs_free-llm-api-resources_88853f8e.png","cheahjs","Jun Siang Cheah","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcheahjs_c54e7239.png",null,"United Kingdom","me@jscheah.me","https:\u002F\u002Fjscheah.me","https:\u002F\u002Fgithub.com\u002Fcheahjs",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,18978,1889,"2026-04-17T20:34:35","","未说明",{"notes":92,"python":90,"dependencies":93},"该工具并非本地运行的软件，而是一个免费 LLM API 资源列表。用户无需配置本地操作系统、GPU、内存或 Python 环境即可使用。其核心用途是提供各类云端 AI 服务（如 OpenRouter, Google AI Studio, Groq 等）的免费额度或试用信息。使用这些服务通常仅需通过 HTTP 请求调用 API，部分服务商可能要求手机号验证或受限于地域（如欧盟数据保护法规）。",[],[15,35,13,14],[96,97,98,99,100,101],"ai","claude","gemini","llama","llm","openai","2026-03-27T02:49:30.150509","2026-04-18T14:13:15.237433",[105,110,115,120,125,130,135,140],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},39997,"Together.ai 的免费模型链接出现 404 错误，如何解决？","该问题已由维护者修复。原指向 404 页面的模型链接已更新为有效地址，请刷新页面或查看项目最新提交以获取正确链接。","https:\u002F\u002Fgithub.com\u002Fcheahjs\u002Ffree-llm-api-resources\u002Fissues\u002F194",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},39998,"Kluster.ai 给新用户的免费信用额度是多少？","最初宣传为 100 美元，但实际发放额度可能有所调整。有用户反馈目前仅收到 5 美元信用额度，建议注册后登录后查看账户实际金额，勿完全依赖宣传数值。","https:\u002F\u002Fgithub.com\u002Fcheahjs\u002Ffree-llm-api-resources\u002Fissues\u002F77",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},39992,"如何判断一个 LLM API 服务是否真正免费？如果没有文档该怎么办？","原则上，如果缺乏官方文档支持其免费声明，应视为“不免费”。虽然像 Ollama Cloud 或 Kilo API 网关等服务的文档可能有限或不完善，但在没有明确文档证明免费的情况下，建议谨慎对待。若无法在其官网找到 API 文档，需质疑其是否真的支持免费 API 调用。","https:\u002F\u002Fgithub.com\u002Fcheahjs\u002Ffree-llm-api-resources\u002Fissues\u002F114",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},39993,"Google Vertex AI 的 Gemini 模型现在还是免费的吗？","不再完全免费。此前只有实验性（experimental）Gemini 模型和预览版 Llama\u002FDeepSeek 模型是免费的，但预览版 Gemini 模型（如 gemini-2.5-flash-lite-preview-06-17）现已改为按量付费（pay-as-you-go），已有用户确认产生账单。实验性模型曾免费但相关文档已被移除，建议查阅存档链接或官方最新说明确认当前政策。","https:\u002F\u002Fgithub.com\u002Fcheahjs\u002Ffree-llm-api-resources\u002Fissues\u002F139",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},39994,"Groq API 中找不到 Allam 2 7B 模型，是被移除了吗？","没有被移除。Allam 2 7B 模型仍在 Groq API 列表中，通常位于模型列表的第一个位置。请检查您的 API 响应或控制台界面，确保未因筛选或排序导致遗漏。","https:\u002F\u002Fgithub.com\u002Fcheahjs\u002Ffree-llm-api-resources\u002Fissues\u002F224",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},39995,"Chutes.ai 的免费模型策略有什么变化？现在还有哪些免费额度？","Chutes.ai 已调整免费策略：所有用户每天享有全球统一的 200 次免费请求额度。重新生成（re-roll）提示词仅消耗正常请求的 1\u002F10 额度。超出此限额的使用将按量付费，价格为每百万令牌（输入 + 输出合计）0.30 美元，与 OpenRouter 最低费率对齐。","https:\u002F\u002Fgithub.com\u002Fcheahjs\u002Ffree-llm-api-resources\u002Fissues\u002F189",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},39996,"Unify 还提供免费积分吗？","不再提供。由于滥用问题，Unify 已取消免费积分政策，该项目已从免费资源列表中移除。","https:\u002F\u002Fgithub.com\u002Fcheahjs\u002Ffree-llm-api-resources\u002Fissues\u002F192",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},39999,"Mistral 新发布的 Devstral 2 模型可以免费使用吗？如何通过 API 调用？","是的，Devstral 2 和 Devstral Small 2 在预览期间可通过 Mistral API 免费使用（需手机号验证）。预览结束后将收费（分别为 $0.40\u002F$2.00 和 $0.10\u002F$0.30 每百万令牌）。同时，OpenRouter 也提供免费版本：mistralai\u002Fdevstral-2512:free。此外，可安装开源工具 Mistral Vibe CLI（命令：curl -LsSf https:\u002F\u002Fmistral.ai\u002Fvibe\u002Finstall.sh | bash）在本地免费体验其编码能力。","https:\u002F\u002Fgithub.com\u002Fcheahjs\u002Ffree-llm-api-resources\u002Fissues\u002F265",[]]