[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-minimaxir--gpt-3-experiments":3,"tool-minimaxir--gpt-3-experiments":65},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[13,37],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":105,"github_topics":83,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":16,"created_at":106,"updated_at":107,"faqs":108,"releases":119},2172,"minimaxir\u002Fgpt-3-experiments","gpt-3-experiments","Test prompts for OpenAI's GPT-3 API and the resulting AI-generated texts.","gpt-3-experiments 是一个专注于测试 OpenAI GPT-3 API 提示词（Prompts）并展示生成结果的开源项目。它旨在帮助开发者直观地观察不同输入下 AI 的反应，验证模型的鲁棒性，同时提供了一套高效的 Python 脚本，让用户能比网页界面更快速地批量获取生成文本。\n\n对于希望深入探索大语言模型行为的开发者、研究人员或 AI 爱好者来说，这是一个极佳的实验沙箱。项目不仅收录了大量未经编辑的原始生成案例（部分内容含警告），还详细记录了在不同“温度”参数下的输出差异：从确定性的逻辑回答到高创造力的发散文本，全方位呈现模型特性。\n\n其技术亮点在于配套的 `openai_api.py` 脚本，支持通过配置文件灵活调整生成策略。该脚本内置了请求间隔机制，避免因并发过高对 API 造成压力，确保测试过程稳定可靠。无论是想快速验证某个创意提示词的效果，还是系统性地研究参数对文本风格的影响，gpt-3-experiments 都能提供便捷、透明的实验环境，助你轻松开启 GPT-3 的探索之旅。","# gpt-3-experiments\n\nA repo containing test prompts for [OpenAI](https:\u002F\u002Fopenai.com)'s [GPT-3](https:\u002F\u002Fwww.zdnet.com\u002Farticle\u002Fopenais-gigantic-gpt-3-hints-at-the-limits-of-language-models-for-ai\u002F) [API](https:\u002F\u002Fopenai.com\u002Fblog\u002Fopenai-api\u002F) and the resulting AI-generated texts, which both illustrate the model's robustness, plus a Python script to quickly query texts from the API. All generated texts in this repo are _completely unedited and uncurated_ unless explicitly stated otherwise.\n\n**Disclaimer: generated text content in this repository may be offensive. The READMEs of the corresponding examples will include an explicit content warning (CW) when this is the case.**\n\n## Repo Layout\n\nThis repo contains folders for each prompt example in the `\u002Fexamples` folder. The README for each prompt example contains the input and any content warnings as noted above.\n\nAll texts were generated from the best `davinci` model. Specifically, after feeded the prompt, 1 text was generated (at up-to-512 tokens per text) at `temperature=0.0` (i.e. the model will always choose the most likely output and is therefore deterministic), and 10 texts for each temperature of 0.7, 1.0, and 1.2: the higher the temperature, the more \"creative\" the text.\n\n## Script Usage\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminimaxir_gpt-3-experiments_readme_12a7327a311d.png)\n\nIf you have access to the OpenAI API, you can use the `openai_api.py` Python script to gather generated texts faster than using the web interface.\n\nFirst, download\u002Fclone the repo, and in the `config.yml`, set the `SECRET_KEY` to the one provided to you by the OpenAI API. (do not share with anyone!)\n\nThe script (Python 3.6+) requires the installation of certain Python packages:\n\n```sh\npip3 install httpx pyyaml fire tqdm\n```\n\nAfter that, you can run it from the command line. For example, if you wanted to generate text with the prompt \"Once upon a time\", you could do:\n\n```sh\npython3 openai_api.py \"Once upon a time\"\n```\n\nThis will generate a file for each specified `temperature` in the `config.yml`.\n\nIf you want to read a longer text from a file (e.g. `prompt.txt`, the default behavior), you can put that prompt in that file and run:\n\n```sh\npython3 openai_api.py \"prompt.txt\"\n```\n\nBy default, the output files are _Markdown_ files, which allows them to include the prompt bolded and render better on GitHub. To save the output files as text instead (w\u002Fo the prompt), set:\n\n```sh\npython3 openai_api.py \"prompt.txt\" --markdown False\n```\n\n## Notes\n\n- The script uses synchronous requests by default with a 30 second sleep between requests: apparently the async approach which requested all generated texts simultaneously caused too much of a strain on OpenAI's infrastructure. Please uses that default for the time being.\n\n## Maintainer\u002FCreator\n\nMax Woolf ([@minimaxir](https:\u002F\u002Fminimaxir.com))\n\n_Max's open-source projects are supported by his [Patreon](https:\u002F\u002Fwww.patreon.com\u002Fminimaxir) and [GitHub Sponsors](https:\u002F\u002Fgithub.com\u002Fsponsors\u002Fminimaxir). If you found this project helpful, any monetary contributions to the Patreon are appreciated and will be put to good creative use._\n\n## License\n\nMIT\n\n## Disclaimer\n\nThis repo has no affiliation with OpenAI.\n","# gpt-3-experiments\n\n一个包含针对 [OpenAI](https:\u002F\u002Fopenai.com) 的 [GPT-3](https:\u002F\u002Fwww.zdnet.com\u002Farticle\u002Fopenais-gigantic-gpt-3-hints-at-the-limits-of-language-models-for-ai\u002F) [API](https:\u002F\u002Fopenai.com\u002Fblog\u002Fopenai-api\u002F) 测试提示词及其生成的 AI 文本的仓库。这些内容既展示了模型的强大能力，也附带了一个用于快速通过 API 查询文本的 Python 脚本。除非另有明确说明，本仓库中所有生成的文本均 _完全未经编辑或筛选_。\n\n**免责声明：本仓库中的生成文本可能含有冒犯性内容。在出现这种情况时，相应示例的 README 文件将包含明确的内容警告（CW）。**\n\n## 仓库结构\n\n本仓库在 `\u002Fexamples` 文件夹下为每个提示词示例创建了单独的文件夹。每个提示词示例的 README 文件包含了输入内容以及如上所述的所有内容警告。\n\n所有文本均由最佳的 `davinci` 模型生成。具体而言，在输入提示词后，首先以 `temperature=0.0` 的设置生成 1 篇文本（每篇最多 512 个 token），此时模型会始终选择最可能的输出，因此结果是确定性的；随后再分别以 0.7、1.0 和 1.2 这三种温度各生成 10 篇文本：温度越高，生成的文本就越“富有创造性”。\n\n## 脚本使用方法\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminimaxir_gpt-3-experiments_readme_12a7327a311d.png)\n\n如果您拥有 OpenAI API 的访问权限，可以使用 `openai_api.py` Python 脚本比通过网页界面更快地获取生成的文本。\n\n首先下载或克隆本仓库，并在 `config.yml` 文件中将 `SECRET_KEY` 设置为您从 OpenAI API 获得的密钥。（请勿与他人共享！）\n\n该脚本（Python 3.6+）需要安装以下 Python 包：\n\n```sh\npip3 install httpx pyyaml fire tqdm\n```\n\n安装完成后，您可以在命令行中运行它。例如，如果您想用提示词“从前有座山”生成文本，可以执行以下命令：\n\n```sh\npython3 openai_api.py \"从前有座山\"\n```\n\n这将会根据 `config.yml` 中指定的各个温度值分别生成对应的文件。\n\n如果您希望从文件中读取较长的提示词（例如默认的 `prompt.txt`），可以将提示词放入该文件中，然后运行：\n\n```sh\npython3 openai_api.py \"prompt.txt\"\n```\n\n默认情况下，输出文件为 Markdown 格式，这样可以在 GitHub 上更好地显示加粗的提示词等内容。如果希望将输出文件保存为纯文本格式（不包含提示词），可以设置：\n\n```sh\npython3 openai_api.py \"prompt.txt\" --markdown False\n```\n\n## 注意事项\n\n- 该脚本默认采用同步请求方式，且每次请求之间有 30 秒的延迟：据称，同时发起所有生成请求的异步方式会对 OpenAI 的基础设施造成过大压力。因此，请暂时使用默认设置。\n\n## 维护者\u002F创作者\n\nMax Woolf ([@minimaxir](https:\u002F\u002Fminimaxir.com))\n\n*Max 的开源项目由其 Patreon 和 GitHub Sponsors 支持。如果您觉得本项目有所帮助，欢迎向 Patreon 捐款，您的支持将被用于有益的创作用途。*\n\n## 许可证\n\nMIT\n\n## 免责声明\n\n本仓库与 OpenAI 无任何关联。","# gpt-3-experiments 快速上手指南\n\n本指南帮助中国开发者快速配置并使用 `gpt-3-experiments` 工具，通过 Python 脚本高效调用 OpenAI GPT-3 API 生成文本。\n\n## 环境准备\n\n- **操作系统**：支持 Linux、macOS 或 Windows（需安装 Python 环境）\n- **Python 版本**：Python 3.6 或更高版本\n- **前置条件**：\n  - 已注册 [OpenAI](https:\u002F\u002Fopenai.com) 账号并获取 API Key (`SECRET_KEY`)\n  - 具备访问 OpenAI API 的网络环境（国内用户可能需要自行配置网络代理）\n\n## 安装步骤\n\n1. **克隆仓库**\n   ```sh\n   git clone https:\u002F\u002Fgithub.com\u002Fminimaxir\u002Fgpt-3-experiments.git\n   cd gpt-3-experiments\n   ```\n\n2. **配置 API 密钥**\n   \n   编辑根目录下的 `config.yml` 文件，将 `SECRET_KEY` 替换为你从 OpenAI 获取的密钥：\n   ```yaml\n   SECRET_KEY: \"sk-your-actual-api-key-here\"\n   ```\n   > ⚠️ 注意：切勿将此文件分享给他人或上传至公共代码库。\n\n3. **安装依赖包**\n   \n   推荐使用国内镜像源加速安装（如清华源）：\n   ```sh\n   pip3 install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple httpx pyyaml fire tqdm\n   ```\n\n## 基本使用\n\n### 方式一：直接传入提示词\n\n在命令行中直接输入提示词生成文本（例如“从前有个”）：\n```sh\npython3 openai_api.py \"Once upon a time\"\n```\n脚本将根据 `config.yml` 中设定的不同 `temperature` 参数，生成多个对应的 Markdown 格式输出文件。\n\n### 方式二：从文件读取提示词\n\n1. 创建一个文本文件（如 `prompt.txt`），写入你的提示词内容。\n2. 运行以下命令：\n   ```sh\n   python3 openai_api.py \"prompt.txt\"\n   ```\n\n### 可选：关闭 Markdown 格式输出\n\n若希望输出纯文本文件（不包含加粗的提示词前缀），可添加 `--markdown False` 参数：\n```sh\npython3 openai_api.py \"prompt.txt\" --markdown False\n```\n\n> 💡 **提示**：脚本默认在每次请求间暂停 30 秒，以避免对 OpenAI 服务器造成过大压力，请保持该默认设置。","某独立游戏开发者正在为奇幻 RPG 设计大量随机生成的 NPC 背景故事，需要快速测试不同提示词（Prompt）下 GPT-3 的输出质量与多样性。\n\n### 没有 gpt-3-experiments 时\n- 开发者必须反复手动在 OpenAI 网页端输入提示词，无法批量对比不同“温度”（Temperature）参数下的创作风格差异。\n- 每次调整参数后需单独保存结果，缺乏统一的文件管理结构，导致数百条测试文本杂乱无章，难以回溯最佳案例。\n- 想要复现某个特定风格的文本极其困难，因为网页端操作难以精确记录每次实验的完整配置（如具体的 Token 限制和随机种子）。\n- 编写自定义脚本来调用 API 耗时耗力，且容易因未设置请求间隔而触发官方频率限制，导致开发流程中断。\n\n### 使用 gpt-3-experiments 后\n- 通过简单的命令行指令，gpt-3-experiments 能一次性针对同一提示词自动生成多组不同温度参数（0.0 至 1.2）的文本，直观展示从“严谨”到“疯狂”的风格谱系。\n- 工具自动按示例分类存储结果为 Markdown 文件，清晰标记输入内容与警告信息，让开发者能像查阅文档一样快速筛选优质素材。\n- 得益于确定的参数配置（如 temperature=0.0），开发者可随时精准复现任何一次生成结果，确保角色设定的一致性。\n- 内置的请求节流机制（默认 30 秒间隔）自动保护账号免受封禁风险，让开发者无需关注底层并发细节，专注于内容创意本身。\n\ngpt-3-experiments 将繁琐的 API 调试转化为标准化的实验流程，极大提升了利用大模型进行创意原型的迭代效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fminimaxir_gpt-3-experiments_d3e0661f.png","minimaxir","Max Woolf","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fminimaxir_3ab20437.jpg","Senior Data Scientist @buzzfeed. Plotter of pretty charts.","@buzzfeed ","San Francisco","max@minimaxir.com",null,"https:\u002F\u002Fminimaxir.com","https:\u002F\u002Fgithub.com\u002Fminimaxir",[87],{"name":88,"color":89,"percentage":90},"Python","#3572A5",100,697,76,"2026-02-25T13:57:09","MIT","未说明","不需要 GPU（基于 OpenAI API 调用）",{"notes":98,"python":99,"dependencies":100},"该工具不涉及本地模型运行，因此无 GPU 和显存需求。使用前必须拥有 OpenAI API 访问权限，并在 config.yml 中配置 SECRET_KEY。脚本默认在请求间设置 30 秒延迟以减轻服务器压力，请勿修改此默认设置。","3.6+",[101,102,103,104],"httpx","pyyaml","fire","tqdm",[15,37],"2026-03-27T02:49:30.150509","2026-04-06T05:37:34.437007",[109,114],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},10014,"为什么运行命令后生成的 output_X_X.md 或 txt 文件是空的？","这通常是因为未在配置文件中提供有效的 API 密钥。请确保在配置项中填写了 `SECRET_KEY: \u003C你的密钥>`，注意冒号后面需要有一个空格。","https:\u002F\u002Fgithub.com\u002Fminimaxir\u002Fgpt-3-experiments\u002Fissues\u002F2",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},10015,"生成示例时使用了哪种采样方法（例如 Nucleus sampling）？","该项目中的示例并未使用 Nucleus sampling（核采样），而是使用了默认设置，即未指定 top_k 或 top_p 参数。","https:\u002F\u002Fgithub.com\u002Fminimaxir\u002Fgpt-3-experiments\u002Fissues\u002F3",[]]