[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-deepmind--opro":3,"tool-google-deepmind--opro":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":23,"env_os":79,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":102,"github_topics":80,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":103,"updated_at":104,"faqs":105,"releases":121},2279,"google-deepmind\u002Fopro","opro","official code for \"Large Language Models as Optimizers\"","opro 是谷歌研究团队开源的项目，实现了论文《Large Language Models as Optimizers》中的核心算法。它的核心理念是将大语言模型（LLM）本身当作优化器，利用模型强大的自然语言理解与生成能力，自动迭代并优化任务指令（Prompt）甚至数学问题的求解策略。\n\n传统的人工编写提示词往往依赖经验且难以达到最优，opro 有效解决了这一痛点。它通过让大模型分析历史执行结果，自动生成新的、性能更佳的指令版本，从而在 GSM8K 数学推理、旅行商问题等任务中显著提升准确率，实现了“用 AI 优化 AI\"的自动化闭环。\n\n该工具主要面向 AI 研究人员和开发者，特别适合需要深入探索提示工程（Prompt Engineering）自动化、希望复现前沿优化算法或在大模型应用中进行性能调优的技术人群。普通用户若无编程基础或 API 调用需求，可能较难直接上手。\n\nopro 的技术亮点在于其独特的元提示（Meta-Prompting）机制：它不依赖传统的梯度下降，而是将优化过程转化为自然语言交互，让大模型在不断的“尝试 - 评估 - 反思”循环中自我进化出最优解。项目支持 G","opro 是谷歌研究团队开源的项目，实现了论文《Large Language Models as Optimizers》中的核心算法。它的核心理念是将大语言模型（LLM）本身当作优化器，利用模型强大的自然语言理解与生成能力，自动迭代并优化任务指令（Prompt）甚至数学问题的求解策略。\n\n传统的人工编写提示词往往依赖经验且难以达到最优，opro 有效解决了这一痛点。它通过让大模型分析历史执行结果，自动生成新的、性能更佳的指令版本，从而在 GSM8K 数学推理、旅行商问题等任务中显著提升准确率，实现了“用 AI 优化 AI\"的自动化闭环。\n\n该工具主要面向 AI 研究人员和开发者，特别适合需要深入探索提示工程（Prompt Engineering）自动化、希望复现前沿优化算法或在大模型应用中进行性能调优的技术人群。普通用户若无编程基础或 API 调用需求，可能较难直接上手。\n\nopro 的技术亮点在于其独特的元提示（Meta-Prompting）机制：它不依赖传统的梯度下降，而是将优化过程转化为自然语言交互，让大模型在不断的“尝试 - 评估 - 反思”循环中自我进化出最优解。项目支持 GPT 系列及 Google PaLM 等主流模型，同时也允许用户接入自定义模型进行实验。需要注意的是，由于涉及多次 API 调用，使用时建议合理规划成本。","# Large Language Models as Optimizers\n\nThis repository contains the code for the paper\n\n> [Large Language Models as Optimizers](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03409)\\\n> Chengrun Yang*, Xuezhi Wang, Yifeng Lu, Hanxiao Liu, Quoc V. Le, Denny Zhou, Xinyun Chen* [* Equal Contribution]\\\n> _arXiv: 2309.03409_\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_opro_readme_279b84c4dd77.png\" alt=\"workflow\" width=\"48%\">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_opro_readme_fb3b19926d78.png\" alt=\"workflow\" width=\"40%\">\n\u003C\u002Fp>\n\n## Dependency requirements\n\nThe code has been verified to work under `Python 3.10.13` with the following dependencies:\n\n```\n- absl-py (2.0.0)\n- google.generativeai (0.1.0)\n- immutabledict (3.0.0)\n- openai (0.27.2)\n```\n\n## Usage\n\n### Prompt optimization \nUse `opro\u002Foptimization\u002Foptimize_instructions.py`, follow the steps at the top. \n\nA quickstarter:\n\n`\npython optimize_instructions.py --optimizer=\"gpt-3.5-turbo\" --scorer=\"text-bison\"\n--instruction_pos=\"Q_begin\" --dataset=\"gsm8k\" --task=\"train\" --palm_api_key=\"\u003Cyour_palm_api_key>\" --openai_api_key=\"\u003Cyour_openai_api_key>\"\n`\n\n### Prompt evaluation\nUse `opro\u002Fevaluation\u002Fevaluate_instructions.py`, follow the steps at the top.\n\nA quickstarter:\n\n`\npython evaluate_instructions.py --scorer=\"text-bison\" --dataset=\"gsm8k\" --task=\"test\" --instruction_pos=\"Q_begin\" --evaluate_training_fold=false --evaluate_test_fold=true --palm_api_key=\"\u003Cyour_palm_api_key>\"\n`\n\n### Linear regression\nUse `opro\u002Foptimization\u002Foptimize_linear_regression.py`, follow the steps at the top.\n\n\n### Traveling salesman problem\nUse `opro\u002Foptimization\u002Foptimize_tsp.py`, follow the steps at the top.\n\n\n## Supported models\n\nThe code in this repository currently supports [text-bison](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs\u002Fgenerative-ai\u002Fmodel-reference\u002Ftext) and [GPT models](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fintroduction). Alternatively, you may serve your own model and plug it in here, similar to the existing prompting APIs in `opro\u002Fprompt_utils.py`.\n\n\n## Precaution on API costs\n\nCalling the PaLM or GPT APIs for prompt optimization and evaluation may incur unexpectedly large costs. Please carefully estimate the cost and\u002For start with lighter use (e.g., evaluate on a smaller portion of the benchmark dataset or run optimization for fewer steps) before the formal experimentations, or prompt self-served models instead.\n\n## Citation\n\nIf you have used our code in your research, please cite our [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03409):\n\n```\n@article{yang2023large,\n  title={Large language models as optimizers},\n  author={Yang, Chengrun and Wang, Xuezhi and Lu, Yifeng and Liu, Hanxiao and Le, Quoc V and Zhou, Denny and Chen, Xinyun},\n  journal={arXiv preprint arXiv:2309.03409},\n  year={2023}\n}\n```\n\n\n*Disclaimer: this is not an officially supported Google product.*\n\n","# 作为优化器的大型语言模型\n\n本仓库包含论文的代码：\n\n> [作为优化器的大型语言模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.03409)\\\n> 杨承润*、王雪芝、陆一峰、刘瀚骁、Quoc V. Le、周登尼、陈欣韵* [* 共同第一作者]\\\n> _arXiv: 2309.03409_\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_opro_readme_279b84c4dd77.png\" alt=\"workflow\" width=\"48%\">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_opro_readme_fb3b19926d78.png\" alt=\"workflow\" width=\"40%\">\n\u003C\u002Fp>\n\n## 依赖要求\n\n代码已在 `Python 3.10.13` 环境下验证通过，所需的依赖如下：\n\n```\n- absl-py (2.0.0)\n- google.generativeai (0.1.0)\n- immutabledict (3.0.0)\n- openai (0.27.2)\n```\n\n## 使用方法\n\n### 提示词优化\n使用 `opro\u002Foptimization\u002Foptimize_instructions.py`，按照文件顶部的步骤操作。\n\n快速入门示例：\n\n```\npython optimize_instructions.py --optimizer=\"gpt-3.5-turbo\" --scorer=\"text-bison\"\n--instruction_pos=\"Q_begin\" --dataset=\"gsm8k\" --task=\"train\" --palm_api_key=\"\u003Cyour_palm_api_key>\" --openai_api_key=\"\u003Cyour_openai_api_key>\"\n```\n\n### 提示词评估\n使用 `opro\u002Fevaluation\u002Fevaluate_instructions.py`，按照文件顶部的步骤操作。\n\n快速入门示例：\n\n```\npython evaluate_instructions.py --scorer=\"text-bison\" --dataset=\"gsm8k\" --task=\"test\" --instruction_pos=\"Q_begin\" --evaluate_training_fold=false --evaluate_test_fold=true --palm_api_key=\"\u003Cyour_palm_api_key>\"\n```\n\n### 线性回归\n使用 `opro\u002Foptimization\u002Foptimize_linear_regression.py`，按照文件顶部的步骤操作。\n\n### 旅行商问题\n使用 `opro\u002Foptimization\u002Foptimize_tsp.py`，按照文件顶部的步骤操作。\n\n## 支持的模型\n\n本仓库中的代码目前支持 [text-bison](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs\u002Fgenerative-ai\u002Fmodel-reference\u002Ftext) 和 [GPT 模型](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fintroduction)。此外，您也可以部署自己的模型并将其集成到这里，方式与 `opro\u002Fprompt_utils.py` 中现有的提示词 API 类似。\n\n## 关于 API 费用的注意事项\n\n调用 PaLM 或 GPT 的 API 进行提示词优化和评估可能会产生意想不到的高额费用。请在正式实验之前仔细估算成本，或先从较轻量的使用开始（例如，在较小规模的基准数据集上进行评估，或减少优化步骤数），或者改用自托管的模型。\n\n## 引用\n\n如果您在研究中使用了我们的代码，请引用我们的论文：\n\n```\n@article{yang2023large,\n  title={Large language models as optimizers},\n  author={Yang, Chengrun and Wang, Xuezhi and Lu, Yifeng and Liu, Hanxiao and Le, Quoc V and Zhou, Denny and Chen, Xinyun},\n  journal={arXiv preprint arXiv:2309.03409},\n  year={2023}\n}\n```\n\n\n*免责声明：本项目并非 Google 官方支持的产品。*","# OPRO 快速上手指南\n\nOPRO (Large Language Models as Optimizers) 是一个利用大语言模型自动优化提示词（Prompt）或解决数学优化问题的框架。本指南帮助中国开发者快速配置并运行基础示例。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (推荐 Linux)\n*   **Python 版本**：`3.10.13` (代码已在此版本验证，建议使用 `pyenv` 或 `conda` 创建独立虚拟环境)\n*   **API 密钥**：\n    *   **OpenAI API Key**：用于调用 GPT 系列模型作为优化器。\n    *   **Google PaLM API Key**：用于调用 text-bison 模型作为评分器（也可互换角色）。\n    *   *注：国内用户需自行配置网络代理以访问相关 API 服务。*\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fgoogle-research.git\n    cd google-research\u002Fopro\n    ```\n    *(注：OPRO 代码位于 google-research 仓库的子目录中)*\n\n2.  **安装依赖**\n    建议先升级 pip 并使用国内镜像源加速安装：\n    ```bash\n    pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple --upgrade pip\n    pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple absl-py==2.0.0 google-generativeai==0.1.0 immutabledict==3.0.0 openai==0.27.2\n    ```\n\n## 基本使用\n\n以下示例展示如何使用 OPRO 在 **GSM8K** 数据集上进行提示词优化。该过程使用 GPT-3.5-turbo 作为优化器生成新指令，使用 text-bison 作为评分器评估指令效果。\n\n### 1. 运行提示词优化 (Prompt Optimization)\n\n将 `\u003Cyour_palm_api_key>` 和 `\u003Cyour_openai_api_key>` 替换为您的真实密钥。\n\n```bash\npython optimize_instructions.py \\\n  --optimizer=\"gpt-3.5-turbo\" \\\n  --scorer=\"text-bison\" \\\n  --instruction_pos=\"Q_begin\" \\\n  --dataset=\"gsm8k\" \\\n  --task=\"train\" \\\n  --palm_api_key=\"\u003Cyour_palm_api_key>\" \\\n  --openai_api_key=\"\u003Cyour_openai_api_key>\"\n```\n\n### 2. 运行提示词评估 (Prompt Evaluation)\n\n优化完成后，可使用以下命令在测试集上评估生成的指令效果：\n\n```bash\npython evaluate_instructions.py \\\n  --scorer=\"text-bison\" \\\n  --dataset=\"gsm8k\" \\\n  --task=\"test\" \\\n  --instruction_pos=\"Q_begin\" \\\n  --evaluate_training_fold=false \\\n  --evaluate_test_fold=true \\\n  --palm_api_key=\"\u003Cyour_palm_api_key>\"\n```\n\n> **⚠️ 成本警告**\n> 调用 PaLM 或 GPT API 进行多轮优化和评估可能会产生高昂费用。建议正式实验前：\n> 1. 先在较小的数据集子集上进行测试。\n> 2. 减少优化迭代步数。\n> 3. 或者部署本地开源模型并修改 `opro\u002Fprompt_utils.py` 进行适配，以降低成本。","某电商数据团队正致力于提升大模型在“用户评论情感分析与分类”任务中的准确率，以优化自动客服响应系统。\n\n### 没有 opro 时\n- 提示词（Prompt）优化完全依赖人工经验试错，工程师需反复手动调整措辞，耗时数天却难以突破准确率瓶颈。\n- 缺乏系统性的搜索策略，无法探索人类直觉之外的潜在高效指令组合，导致模型性能停留在局部最优。\n- 面对不同细分场景（如电子产品 vs. 服装），难以快速生成适配的专用指令，复用性差且维护成本高昂。\n- 优化过程缺乏量化反馈闭环，每次修改后的效果评估滞后，难以判断具体哪处改动带来了性能提升。\n\n### 使用 opro 后\n- 利用 LLM 作为优化器自动迭代生成指令，将原本数天的手工调优过程缩短至几小时，显著提升了开发效率。\n- 通过算法自动探索广阔的指令空间，挖掘出人类未曾设想的高效表达模式，使分类准确率提升了 15%。\n- 针对各类商品子类别，opro 能自动生成并适配差异化指令模板，实现了高精度的规模化部署。\n- 内置的自动化评估机制实时反馈每一步优化的得分，让迭代方向清晰可见，确保每次更新都带来实质改进。\n\nopro 将大模型从单纯的“执行者”转变为“优化者”，用自动化智能搜索替代了低效的人工试错，重新定义了提示词工程的范式。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_opro_279b84c4.png","google-deepmind","Google DeepMind","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-deepmind_06b1dd17.png","",null,"https:\u002F\u002Fwww.deepmind.com\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,725,90,"2026-04-01T23:11:11","Apache-2.0","未说明 (该工具主要调用云端 API，如 Google PaLM\u002Ftext-bison 和 OpenAI GPT，无需本地 GPU)","未说明",{"notes":95,"python":96,"dependencies":97},"该工具依赖外部 API 密钥（PaLM API 和 OpenAI API），使用前需准备有效的 key。由于频繁调用大模型 API 进行优化和评估可能会产生高昂费用，建议先在小型数据集或少量步骤上进行测试以估算成本。用户也可以自行部署模型并修改代码接入，替代使用云端 API。","3.10.13",[98,99,100,101],"absl-py==2.0.0","google.generativeai==0.1.0","immutabledict==3.0.0","openai==0.27.2",[26,13],"2026-03-27T02:49:30.150509","2026-04-06T09:43:31.085368",[106,111,116],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},10468,"在哪里可以找到旅行商问题（TSP）的实验代码？","TSP 问题的实验代码已添加到仓库中，您可以直接访问以下路径查看和使用：\nhttps:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fopro\u002Fblob\u002Fmain\u002Fopro\u002Foptimization\u002Foptimize_tsp.py","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fopro\u002Fissues\u002F4",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},10467,"运行 optimize_instructions.py 时出现关于 instruction_pos 的 AssertionError 错误怎么办？","这是因为命令行参数中的指令位置值拼写有误。请将 `Q_beginning` 修改为 `Q_begin`。正确的命令示例如下：\npython optimize_instructions.py --optimizer=\"gpt-3.5-turbo\" --scorer=\"text-bison\" --instruction_pos=\"Q_begin\" --dataset=\"gsm8k\" --task=\"train\"","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fopro\u002Fissues\u002F2",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},10469,"复现论文中 GSM_8K 结果的最终评估配置参数是什么？","针对不同模型的最终评估和优化配置如下：\n\n1. 提示优化配置参考：optimize_instructions.py 第 689 行附近。\n2. 提示\u002F指令评估配置参考：evaluate_instructions.py 第 241 行附近。\n\n内部模型的具体参数设置：\n- 使用预训练 PaLM 2-L 作为评分器（Scorer）：temperature=0.0, max_decode_steps=256, extract_final_answer_by_prompting_again=True, old_instruction_score_threshold=0.01。\n- 使用预训练 PaLM 2-L 作为优化器（Optimizer）：temperature=1.5, max_decode_steps=256。\n- 使用 PaLM 2-L-IT 作为优化器：temperature=1.0, max_decode_steps=1024。\n\n注意：当评分器模型是预训练模型时，`extract_final_answer_by_prompting_again` 应设置为 `True`。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fopro\u002Fissues\u002F3",[]]