[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-openai--frontier-evals":3,"tool-openai--frontier-evals":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":121,"forks":122,"last_commit_at":123,"license":124,"difficulty_score":10,"env_os":125,"env_gpu":125,"env_ram":125,"env_deps":126,"category_tags":128,"github_topics":80,"view_count":29,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":129,"updated_at":130,"faqs":131,"releases":156},284,"openai\u002Ffrontier-evals","frontier-evals","OpenAI Frontier Evals","frontier-evals 是 OpenAI 开源的 AI 模型能力评估框架，专门用于衡量前沿大语言模型在各种复杂任务上的表现。\n\n该工具提供了一套标准化的评估体系，帮助研究人员和开发者了解当前最强 AI 模型的能力边界。目前已包含三个核心评估项目：PaperBench（复现前沿 AI 论文）、SWE-Lancer（真实软件工程任务）和 EVMBench（智能合约安全评估）。\n\n这个框架非常适合 AI 研究人员验证新模型的实际能力、开发者对比不同模型的性能表现，以及需要客观评估 AI 能力的相关人员使用。每个评估项目都是独立的项目单元，使用 uv 工具进行环境管理，并配备完整的文档说明。框架采用共享代码库的设计思路，支持 Ruff 和 Black 等代码规范工具，确保评估流程的规范性和可维护性。","# Frontier Evals\n\nCode for evals measuring frontier model capabilities.\n\n- [PaperBench](.\u002Fproject\u002Fpaperbench): End-to-end replication of state-of-the-art AI papers. [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.01848) | [Blog](https:\u002F\u002Fopenai.com\u002Findex\u002Fpaperbench)\n- [SWE-Lancer](.\u002Fproject\u002Fswelancer): Real freelance software engineering tasks with end-to-end tests. [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.12115) | [Blog](https:\u002F\u002Fopenai.com\u002Findex\u002Fswe-lancer)\n- [EVMbench](.\u002Fproject\u002Fevmbench): Smart contract security tasks. [Paper](https:\u002F\u002Fcdn.openai.com\u002Fevmbench\u002Fevmbench.pdf) | [Blog](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-evmbench\u002F)\n\n## Usage\n\n### Requirements\n\nWe manage environments with [`uv`](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv). Install `uv` once, then run `uv sync` (or `uv pip install -r ...`) inside the project of interest to create its virtual environment from the checked-in `uv.lock`.\n\n### Running Evals\n\nEach eval directory documents how to reproduce runs, configure models, and interpret results. Start with the suite `README.md`, then consult any scripts under `scripts\u002F` or `runtime_*\u002F` directories for orchestration details. When in doubt:\n\n1. `cd` into the eval directory.\n2. `uv sync` to install dependencies.\n3. Follow the local instructions in the `README.md`.\n\n## Contributing\n\n### Layout\n\n```\n.\n├── pyproject.toml             # Shared tooling configuration (Ruff, Black, etc.)\n└── project\u002F\n    ├── common\u002F                # Shared libraries\n    ├── evmbench\u002F              # EVMBench eval\n    ├── paperbench\u002F            # PaperBench eval\n    └── swelancer\u002F             # SWE-Lancer eval\n```\n\nEach eval directory is its own isolated project with a `README.md`, `pyproject.toml` and `uv.lock`.\n\n### Development Workflow\n\n- Create or activate the environment for the project you are working on with `uv`. Example for PaperBench:\n  - `cd project\u002Fpaperbench`\n  - `uv sync`\n  - `uv run pytest`\n- Code style and linting use Ruff (with autofix profiles in `pyproject.toml` and `project\u002Fcommon\u002Ftooling\u002Fruff_autofix_minimal.toml`) and Black. Run `uv run ruff check --fix` or use the provided Poe\u002F`make` tasks where available.\n- Shared utilities live under `project\u002Fcommon`; changes there may affect multiple evals. Bump the relevant editable dependencies if you create new shared subpackages.\n","# Frontier Evals\n\n用于评估前沿模型能力的评估代码。\n\n- [PaperBench](.\u002Fproject\u002Fpaperbench)：端到端复现最前沿的 AI 论文。[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.01848) | [博客](https:\u002F\u002Fopenai.com\u002Findex\u002Fpaperbench)\n- [SWE-Lancer](.\u002Fproject\u002Fswelancer)：真实的自由软件工程任务，包含端到端测试。[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.12115) | [博客](https:\u002F\u002Fopenai.com\u002Findex\u002Fswe-lancer)\n- [EVMbench](.\u002Fproject\u002Fevmbench)：智能合约安全任务。[论文](https:\u002F\u002Fcdn.openai.com\u002Fevmbench\u002Fevmbench.pdf) | [博客](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-evmbench\u002F)\n\n## 使用方法\n\n### 环境要求\n\n我们使用 [`uv`](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv)（一种 Python 包管理工具）来管理环境。安装一次 `uv` 后，在目标项目中运行 `uv sync`（或 `uv pip install -r ...`），即可根据已提交的 `uv.lock` 文件创建虚拟环境。\n\n### 运行评估\n\n每个评估目录都详细记录了如何复现运行、配置模型和解读结果。请先阅读该套件的 `README.md`，然后查阅 `scripts\u002F` 或 `runtime_*\u002F` 目录下的脚本以了解编排细节。如有疑问：\n\n1. 进入评估目录\n2. 运行 `uv sync` 安装依赖\n3. 按照本地 `README.md` 中的说明操作\n\n## 贡献指南\n\n### 项目结构\n\n```\n.\n├── pyproject.toml             # 共享工具配置（Ruff、Black 等）\n└── project\u002F\n    ├── common\u002F                # 共享库\n    ├── evmbench\u002F              # EVMBench 评估\n    ├── paperbench\u002F            # PaperBench 评估\n    └── swelancer\u002F             # SWE-Lancer 评估\n```\n\n每个评估目录都是独立的项目，包含自己的 `README.md`、`pyproject.toml` 和 `uv.lock`。\n\n### 开发工作流\n\n使用 `uv` 创建或激活项目环境。以 PaperBench 为例：\n\n- `cd project\u002Fpaperbench`\n- `uv sync`\n- `uv run pytest`\n\n代码风格和代码检查使用 Ruff（配置位于 `pyproject.toml` 和 `project\u002Fcommon\u002Ftooling\u002Fruff_autofix_minimal.toml`）和 Black。运行 `uv run ruff check --fix` 或使用提供的 Poe\u002F`make` 任务（如果有）。\n\n共享工具位于 `project\u002Fcommon` 目录下；修改此处可能会影响多个评估。如果创建新的共享子包，请更新相关的可编辑依赖。","# Frontier Evals 快速上手指南\n\nFrontier Evals 是一个用于评估前沿模型能力的代码库，包含 PaperBench、SWE-Lancer、EVMbench 三个评估工具。\n\n## 环境准备\n\n### 系统要求\n\n- Python 3.9+\n- Git\n\n### 前置依赖\n\n安装 `uv` 包管理工具：\n\n```bash\n# macOS \u002F Linux\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n\n# Windows (PowerShell)\nirm https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.ps1 | iex\n```\n\n> **国内加速**：如访问困难，可使用镜像源或先配置代理。\n\n## 安装步骤\n\n1. 克隆仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fopenai\u002Ffrontier-evals.git\ncd frontier-evals\n```\n\n2. 进入目标评估项目目录并安装依赖：\n\n```bash\n# 以 PaperBench 为例\ncd project\u002Fpaperbench\nuv sync\n```\n\n## 基本使用\n\n### 运行评估\n\n每个评估项目有独立的 `README.md`，详细说明运行方式。通用步骤：\n\n```bash\n# 1. 进入评估目录\ncd project\u002Fpaperbench  # 或 swelancer、evmbench\n\n# 2. 同步环境\nuv sync\n\n# 3. 按 README.md 中的说明运行\n# 通常是运行测试脚本或特定命令\n```\n\n### 运行测试\n\n```bash\ncd project\u002Fpaperbench\nuv run pytest\n```\n\n### 代码检查\n\n```bash\n# 使用 Ruff 检查并自动修复\nuv run ruff check --fix\n```\n\n## 项目结构\n\n```\nfrontier-evals\u002F\n├── pyproject.toml\n└── project\u002F\n    ├── common\u002F          # 共享库\n    ├── paperbench\u002F      # PaperBench 评估\n    ├── swelancer\u002F       # SWE-Lancer 评估\n    └── evmbench\u002F        # EVMBench 评估\n```\n\n每个评估目录都是独立项目，包含自己的 `README.md`、`pyproject.toml` 和 `uv.lock`。","某 AI公司的研究团队正在开发新一代代码生成模型，在正式发布前需要评估模型在真实软件工程任务上的表现，以决定是否推向市场。\n\n### 没有 frontier-evals 时\n\n- 团队需要自己设计评估任务，从 GitHub 上挑选真实 issue 并手动构建测试用例，往往耗费数周时间\n- 评估标准不统一，不同工程师可能给出主观不同的评分，导致结果缺乏说服力\n- 难以与业界其他模型对比，因为没有统一的基准，只能通过论文中的零散数据推测\n- 手动运行测试并统计结果，效率低下，且容易遗漏边界情况\n- 无法全面覆盖智能合约安全等细分领域，需要额外学习相关知识并单独设计评估\n\n### 使用 frontier-evals 后\n\n- 直接使用 SWE-Lancer 套件，该套件已包含大量真实自由软件工程任务和端到端测试，开箱即用\n- 评估流程标准化，测试用例自动运行，结果自动统计，确保评估的公平性和可复现性\n- 可以将模型表现与 OpenAI 公布的基准数据直接对比，清晰定位模型的能力水平\n- 自动化执行整个评估流程，团队只需配置模型参数并运行脚本，几小时即可获得完整报告\n- EVMBench 套件提供了智能合约安全任务的专项评估，帮助团队全面了解模型在 Web3 领域的适用性\n\nfrontier-evals 让 AI 模型的能力评估从手工劳动变为标准化流程，使团队能够快速、客观地判断模型是否准备好进入市场。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_frontier-evals_2bfa9b72.png","openai","OpenAI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopenai_1960bbf4.png","",null,"https:\u002F\u002Fopenai.com\u002F","https:\u002F\u002Fgithub.com\u002Fopenai",[84,88,92,96,100,104,108,112,115,118],{"name":85,"color":86,"percentage":87},"Python","#3572A5",55.9,{"name":89,"color":90,"percentage":91},"Solidity","#AA6746",25.1,{"name":93,"color":94,"percentage":95},"Shell","#89e051",10.9,{"name":97,"color":98,"percentage":99},"Rust","#dea584",6.4,{"name":101,"color":102,"percentage":103},"JavaScript","#f1e05a",0.8,{"name":105,"color":106,"percentage":107},"Dockerfile","#384d54",0.4,{"name":109,"color":110,"percentage":111},"TypeScript","#3178c6",0.3,{"name":113,"color":106,"percentage":114},"Just",0.1,{"name":116,"color":117,"percentage":114},"HTML","#e34c26",{"name":119,"color":120,"percentage":114},"CSS","#663399",1151,143,"2026-04-04T07:10:59","MIT","未说明",{"notes":127,"python":125,"dependencies":125},"使用 uv 作为包管理工具，每个 eval 项目（paperbench、swelancer、evmbench）都有独立的 pyproject.toml 和 uv.lock 文件，需要分别进入各项目目录执行 uv sync 安装依赖。代码风格检查使用 Ruff 和 Black。",[18],"2026-03-27T02:49:30.150509","2026-04-06T06:45:57.080284",[132,137,142,147,152],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},939,"如何使用自己的 vLLM 模型来替代默认的 Judge 模型进行评估？","你需要实现自己的 vLLM TurnCompleter，继承自 TurnCompleter 基类。然后在运行评估时通过配置指向你的自定义 completer。例如：\n\n```bash\nuv run python -m paperbench.nano.entrypoint \\\n    paperbench.paper_split=debug \\\n    paperbench.solver=paperbench.solvers.dummy.solver:PaperBenchDummySolver \\\n    paperbench.judge.completer_config=your_module.path.to.completer:VLLMTurnCompleter\n```\n\n如果只是想使用不同的 OpenAI API 模型，可以直接通过 `paperbench.judge.model=\u003Cmodel-name-on-oai-api>` 参数指定。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Ffrontier-evals\u002Fissues\u002F18",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},940,"修改 config.yaml 后无法使用自己部署的模型进行评估，任务很快结束且模型没有生效怎么办？","官方表示不支持在 config toml 中使用自定义 OpenAI URLs（如通过 vLLM 部署的）。这个功能从未测试过。\n\n建议的解决方案：\n1. 实现自己的 `PythonCodingSolver`\n2. 或者 fork 仓库并直接修改代码\n\n另外需要注意：配置中可能有拼写错误，如 `OPEANI_BASE_URL` 应为 `OPENAI_BASE_URL`。同时可能需要重新构建 Docker 镜像。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Ffrontier-evals\u002Fissues\u002F20",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},941,"如何通过 uv 安装 paperbench 作为依赖时遇到 Git LFS 错误？","这是因为 Git LFS 无法正确下载大型文件（如 submission.tar）。可以使用 `GIT_LFS_SKIP_SMUDGE=1` 环境变量来跳过 LFS 下载，但这只是临时解决方案。\n\n更根本的解决方法是通过 #84 修复后的版本安装，该修复解决了 LFS 相关问题。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Ffrontier-evals\u002Fissues\u002F83",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},942,"如何使用自己的模型（通过 vLLM 部署）来复现论文和进行评估？","目前官方不支持在 Judge 中使用自定义的 OPENAI_API_BASE。如果需要使用 vLLM 部署的模型，有两个选择：\n\n1. Fork 仓库并修改代码，找到 judge.py 中的相关位置进行更改\n2. 实现自己的 TurnCompleter（推荐）\n\n官方表示正在开发支持自定义模型的 PR，预计几周后推出。现在可以使用官方发布的 `PythonComputerSolver`，它基于 TurnCompleter API，可以轻松插入自己的 vLLM TurnCompleter 实现。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Ffrontier-evals\u002Fissues\u002F17",{"id":153,"question_zh":154,"answer_zh":155,"source_url":136},943,"PaperBench 支持使用非 OpenAI 的模型 API 吗？","目前官方只支持 OpenAI API 格式的模型。如果你的模型在不同的 API 服务上，官方尚未支持。不过官方正在开发相关功能，预计未来会支持自定义 API 端点。\n\n临时解决方案是 fork 仓库并修改 judge.py 中的模型调用代码（约在第 476 行附近），将 OpenAI URL 替换为你自己的 vLLM URL。",[]]