[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OpenGenerativeAI--llm-colosseum":3,"tool-OpenGenerativeAI--llm-colosseum":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":78,"owner_website":77,"owner_url":79,"languages":80,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":10,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":112,"github_topics":114,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":151},5446,"OpenGenerativeAI\u002Fllm-colosseum","llm-colosseum","Benchmark LLMs by fighting in Street Fighter 3! The new way to evaluate the quality of an LLM","llm-colosseum 是一款极具创意的开源项目，它让大语言模型（LLM）在经典格斗游戏《街头霸王 3》中实时对战，以此作为评估模型能力的全新基准。传统评测往往依赖静态数据集，而 llm-colosseum 通过高动态的游戏环境，直观地检验模型在快速决策、战略预判、灵活应变及抗压能力等方面的综合表现。\n\n该项目解决了现有评测方式难以衡量模型在复杂、实时交互场景下“智能程度”的痛点。在这里，模型不仅需要理解屏幕画面或文本描述，还要像人类玩家一样思考后续几十步的走位，并根据对手动作即时调整策略。其技术亮点在于支持纯文本与多模态（视觉）两种控制模式：文本机器人依靠游戏状态描述进行决策，而视觉机器人则直接分析游戏截图，充分展现了多模态模型的环境感知优势。\n\nllm-colosseum 非常适合 AI 研究人员、开发者以及对大模型性能评估感兴趣的技术爱好者使用。研究人员可借此探索模型在强化学习之外的上下文理解能力；开发者能对比不同模型在实时任务中的延迟与逻辑表现；普通用户也能通过观看\"AI 大乱斗”的演示，直观感受当前顶尖模型的智力差异。目前项目已公开部分对战数据与 ELO 排行榜，为社区提","llm-colosseum 是一款极具创意的开源项目，它让大语言模型（LLM）在经典格斗游戏《街头霸王 3》中实时对战，以此作为评估模型能力的全新基准。传统评测往往依赖静态数据集，而 llm-colosseum 通过高动态的游戏环境，直观地检验模型在快速决策、战略预判、灵活应变及抗压能力等方面的综合表现。\n\n该项目解决了现有评测方式难以衡量模型在复杂、实时交互场景下“智能程度”的痛点。在这里，模型不仅需要理解屏幕画面或文本描述，还要像人类玩家一样思考后续几十步的走位，并根据对手动作即时调整策略。其技术亮点在于支持纯文本与多模态（视觉）两种控制模式：文本机器人依靠游戏状态描述进行决策，而视觉机器人则直接分析游戏截图，充分展现了多模态模型的环境感知优势。\n\nllm-colosseum 非常适合 AI 研究人员、开发者以及对大模型性能评估感兴趣的技术爱好者使用。研究人员可借此探索模型在强化学习之外的上下文理解能力；开发者能对比不同模型在实时任务中的延迟与逻辑表现；普通用户也能通过观看\"AI 大乱斗”的演示，直观感受当前顶尖模型的智力差异。目前项目已公开部分对战数据与 ELO 排行榜，为社区提供了一种有趣且严谨的模型比拼新范式。","# Evaluate LLMs in real time with Street Fighter III\n\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenGenerativeAI_llm-colosseum_readme_ff7f4f1c0fee.png\" alt=\"colosseum-logo\" width=\"30%\"  style=\"border-radius: 50%; padding-bottom: 20px\"\u002F>\n\u003C\u002Fdiv>\n\nMake LLM fight each other in real time in Street Fighter III.\n\nWhich LLM will be the best fighter ?\n\n**Demo:** [Try it in your browser right here!](https:\u002F\u002Fllm-colosseum.phospho.ai)\n\n## Our criterias 🔥\n\nThey need to be:\n\n- **Fast**: It is a real time game, fast decisions are key\n- **Smart**: A good fighter thinks 50 moves ahead\n- **Out of the box thinking**: Outsmart your opponent with unexpected moves\n- **Adaptable**: Learn from your mistakes and adapt your strategy\n- **Resilient**: Keep your RPS high for an entire game\n\n## Let the fight begin 🥷\n\n### 1 VS 1: Mistral 7B vs Mistral 7B\n\nhttps:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fassets\u002F19614572\u002F79b58e26-7902-4687-af5d-0e1e845ecaf8\n\n### 1 VS 1 X 6 : Mistral 7B vs Mistral 7B\n\nhttps:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fassets\u002F19614572\u002F5d3d386b-150a-48a5-8f68-7e2954ec18db\n\n## A new kind of benchmark ?\n\nStreet Fighter III assesses the ability of LLMs to understand their environment and take actions based on a specific context.\nAs opposed to RL models, which blindly take actions based on the reward function, LLMs are fully aware of the context and act accordingly.\n\n# Results\n\nOur experimentations (546 fights so far) led to the following leaderboard.\nEach LLM has an ELO score based on its results.\n\n## Ranking\n\n[Huggingface ranking](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fjunior-labs\u002Fllm-colosseum)\n\n### ELO ranking\n\n| Rank | Model                                                              |  Rating |\n| ---: | :----------------------------------------------------------------- | ------: |\n|    1 | 🥇openai:gpt-4o:text                                               |  1912.5 |\n|    2 | 🥈**openai:gpt-4o-mini:vision**                                    | 1835.27 |\n|    3 | 🥉openai:gpt-4o-mini:text                                          | 1670.89 |\n|    4 | **openai:gpt-4o:vision**                                           | 1656.93 |\n|    5 | **mistral:pixtral-large-latest:vision**                            | 1654.61 |\n|    6 | **mistral:pixtral-12b-2409:vision**                                | 1590.77 |\n|    7 | mistral:pixtral-12b-2409:text                                      | 1569.03 |\n|    8 | together:meta-llama\u002FLlama-3.2-90B-Vision-Instruct-Turbo:text       | 1441.45 |\n|    9 | **anthropic:claude-3-haiku-20240307:vision**                       | 1364.87 |\n|   10 | mistral:pixtral-large-latest:text                                  | 1356.32 |\n|   11 | anthropic:claude-3-haiku-20240307:text                             |  1333.6 |\n|   12 | **anthropic:claude-3-sonnet-20240229:vision**                      | 1314.61 |\n|   13 | **together:meta-llama\u002FLlama-3.2-90B-Vision-Instruct-Turbo:vision** | 1269.84 |\n|   14 | anthropic:claude-3-sonnet-20240229:text                            | 1029.31 |\n\n*Note: In our experiments, Claude 3 Sonnet got a low score due to many refusal to fight and large API latencies.*\n\n### Win rate matrix\n\n![Win rate matrix](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenGenerativeAI_llm-colosseum_readme_d118b5a7c878.png)\n\n# Explanation\n\nEach player can be controlled by a text generating model or a multimodal model. We call them through API endpoints. Learn more about models:\n- [Text generating models](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Fen\u002Fllm_tutorial)\n- [**Multimodal LLM** models](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fvlms)\n\n### TextRobot\n\nWe send to the LLM a text description of the screen. The LLM decide on the next moves its character will make. The next moves depends on its previous moves, the moves of its opponents, its power and health bars.\n\n- Agent based\n- Multithreading\n- Real time\n\n  ![fight3 drawio](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenGenerativeAI_llm-colosseum_readme_effc1d2df220.png)\n\n### VisionRobot\n\nWe send to the LLM a screenshot of the current state of the game precising which character he is controlling. His decision is only based on this visual information.\n\n# Installation\n\n- Follow instructions in https:\u002F\u002Fdocs.diambra.ai\u002F#installation\n- Download the ROM and put it in `~\u002F.diambra\u002Froms` (no need to dezip the content)\n- (Optional) Create and activate a [new python venv](https:\u002F\u002Fdocs.python.org\u002F3\u002Flibrary\u002Fvenv.html)\n- Install dependencies with `make install` or `pip install -r requirements.txt`\n- Create a `.env` file and fill it with the content like in the `.env.example` file\n- Run with `make run`\n\n## Running with Docker\n\nYou can also run the application using Docker.\n\n### Building the Docker Image\n\nTo build the Docker image, use the following command:\n\n```bash\ndocker build -t diambra-app .\n```\n\n### Running the Docker Container\n\nTo run the Docker container, use the following command:\n\n```bash\ndocker run --name diambra-container -v ~\u002F.diambra\u002Froms:\u002Fapp\u002Froms diambra-app\n```\n\n- If you encounter a conflict with an existing container name, you can remove the existing container with:\n\n```bash\ndocker rm diambra-container\n```\n\n### Running with Docker Compose on Ollama locally\n\nTo start the services, use the following command:\n\n```bash\ndocker-compose up\n```\n\n### Stopping the Services\n\nTo stop the services, use:\n\n```bash\ndocker-compose down\n```\n\n## Test mode\n\nTo disable the LLM calls, set `DISABLE_LLM` to `True` in the `.env` file.\nIt will choose the actions randomly.\n\n## Logging\n\nChange the logging level in the `script.py` file.\n\n## Local model\n\nYou can run the arena with local models using [Ollama](https:\u002F\u002Follama.com\u002F).\n\n1. Make sure you have ollama installed, running, and with a model downloaded (run `ollama serve mistral` in the terminal for example)\n\n2. Run `make local` to start the fight.\n\nBy default, it runs mistral against mistral. To use other models, you need to change the parameter model in `local.py`.\n\n```python\nfrom eval.game import Game, Player1, Player2\n\ndef main():\n    # Environment Settings\n\n    game = Game(\n        render=True,\n        save_game=True,\n        player_1=Player1(\n            nickname=\"Baby\",\n            model=\"ollama:mistral\",\n            robot_type=\"text\",  # vision or text\n            temperature=0.7,\n        ),\n        player_2=Player2(\n            nickname=\"Daddy\",\n            model=\"ollama:mistral\",\n            robot_type=\"text\",\n            temperature=0.7,\n        ),\n    )\n\n    game.run()\n    return 0\n\n\nif __name__ == \"__main__\":\n    main()\n```\n\nThe convention we use is `model_provider:model_name`. If you want to use another local model than Mistral, you can do `ollama:some_other_model`\n\n## How to make my own LLM model play? Can I improve the prompts?\n\nThe LLM is called in `\u003CText||Vision>Robot.call_llm()` method of the `agent\u002Frobot.py` file.\n\n#### TextRobot method:\n\n```python\n    def call_llm(\n        self,\n        max_tokens: int = 50,\n        top_p: float = 1.0,\n    ) -> Generator[ChatResponse, None, None]:\n        \"\"\"\n        Make an API call to the language model.\n\n        Edit this method to change the behavior of the robot!\n        \"\"\"\n\n        # Generate the prompts\n        move_list = \"- \" + \"\\n - \".join([move for move in META_INSTRUCTIONS])\n        system_prompt = f\"\"\"You are the best and most aggressive Street Fighter III 3rd strike player in the world.\nYour character is {self.character}. Your goal is to beat the other opponent. You respond with a bullet point list of moves.\n{self.context_prompt()}\nThe moves you can use are:\n{move_list}\n----\nReply with a bullet point list of moves. The format should be: `- \u003Cname of the move>` separated by a new line.\nExample if the opponent is close:\n- Move closer\n- Medium Punch\n\nExample if the opponent is far:\n- Fireball\n- Move closer\"\"\"\n\n        start_time = time.time()\n\n        client = get_client(self.model, temperature=self.temperature)\n\n        messages = [\n            ChatMessage(role=\"system\", content=system_prompt),\n            ChatMessage(role=\"user\", content=\"Your next moves are:\"),\n        ]\n        resp = client.stream_chat(messages)\n\n        logger.debug(f\"LLM call to {self.model}: {system_prompt}\")\n        logger.debug(f\"LLM call to {self.model}: {time.time() - start_time}s\")\n\n        return resp\n```\n\n#### VisionRobot method:\n\n```python\ndef call_llm(\n        self,\n        max_tokens: int = 50,\n        top_p: float = 1.0,\n    ) -> Generator[CompletionResponse, None, None]:\n        \"\"\"\n        Make an API call to the language model.\n\n        Edit this method to change the behavior of the robot!\n        \"\"\"\n\n        # Generate the prompts\n        move_list = \"- \" + \"\\n - \".join([move for move in META_INSTRUCTIONS])\n        system_prompt = f\"\"\"You are the best and most aggressive Street Fighter III 3rd strike player in the world.\nYour character is {self.character}. Your goal is to beat the other opponent. You respond with a bullet point list of moves.\n\nThe current state of the game is given in the following image.\n\nThe moves you can use are:\n{move_list}\n----\nReply with a bullet point list of 3 moves. The format should be: `- \u003Cname of the move>` separated by a new line.\nExample if the opponent is close:\n- Move closer\n- Medium Punch\n\nExample if the opponent is far:\n- Fireball\n- Move closer\"\"\"\n\n        start_time = time.time()\n\n        client = get_client_multimodal(\n            self.model, temperature=self.temperature\n        )  # MultiModalLLM\n\n        resp = client.stream_complete(\n            prompt=system_prompt, image_documents=[self.last_image_to_image_node()]\n        )\n\n        logger.debug(f\"LLM call to {self.model}: {system_prompt}\")\n        logger.debug(f\"LLM call to {self.model}: {time.time() - start_time}s\")\n\n        return resp\n```\n\nYou can personnalise your prompt in these functions.\n\n### Submit your model\n\nCreate a new class herited from Robot that has the changes you want to make and open a PR.\n\nWe'll do our best to add it to the ranking!\n\n# Credits\n\nMade with ❤️ by the OpenGenerativeAI team from [phospho](https:\u002F\u002Fphospho.ai) (@oulianov @Pierre-LouisBJT @Platinn) and [Quivr](https:\u002F\u002Fwww.quivr.app) (@StanGirard) during Mistral Hackathon 2024 in San Francisco\n","# 使用街霸III实时评估大语言模型\n\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenGenerativeAI_llm-colosseum_readme_ff7f4f1c0fee.png\" alt=\"colosseum-logo\" width=\"30%\"  style=\"border-radius: 50%; padding-bottom: 20px\"\u002F>\n\u003C\u002Fdiv>\n\n让大语言模型在街霸III中进行实时对决。\n\n究竟哪款大语言模型会成为最出色的格斗家呢？\n\n**演示：** [立即在浏览器中体验！](https:\u002F\u002Fllm-colosseum.phospho.ai)\n\n## 我们的评判标准 🔥\n\n它们需要具备以下特质：\n\n- **快速**：这是一场实时对战，迅速的决策至关重要。\n- **聪明**：优秀的格斗家能够提前规划五十步棋。\n- **创新思维**：用出其不意的招式智胜对手。\n- **适应性强**：从错误中学习并调整策略。\n- **坚韧不拔**：在一整场比赛中始终保持高RPS（每秒请求率）。\n\n## 战斗开始吧 🥷\n\n### 1对1：Mistral 7B vs Mistral 7B\n\nhttps:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fassets\u002F19614572\u002F79b58e26-7902-4687-af5d-0e1e845ecaf8\n\n### 1对1 × 6：Mistral 7B vs Mistral 7B\n\nhttps:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fassets\u002F19614572\u002F5d3d386b-150a-48a5-8f68-7e2954ec18db\n\n## 一种全新的基准测试？\n\n街霸III能够评估大语言模型理解环境并在特定情境下采取行动的能力。与基于奖励函数盲目行动的强化学习模型不同，大语言模型完全了解当前情境，并据此做出相应决策。\n\n# 结果\n\n截至目前，我们已进行了546场对决，得出了如下排行榜。每个大语言模型都根据其战绩获得了ELO评分。\n\n## 排行榜\n\n[Huggingface排名](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fjunior-labs\u002Fllm-colosseum)\n\n### ELO排名\n\n| 排名 | 模型                                                              | 评分 |\n| ---: | :----------------------------------------------------------------- | ------: |\n|    1 | 🥇openai:gpt-4o:text                                               |  1912.5 |\n|    2 | 🥈**openai:gpt-4o-mini:vision**                                    | 1835.27 |\n|    3 | 🥉openai:gpt-4o-mini:text                                          | 1670.89 |\n|    4 | **openai:gpt-4o:vision**                                           | 1656.93 |\n|    5 | **mistral:pixtral-large-latest:vision**                            | 1654.61 |\n|    6 | **mistral:pixtral-12b-2409:vision**                                | 1590.77 |\n|    7 | mistral:pixtral-12b-2409:text                                      | 1569.03 |\n|    8 | together:meta-llama\u002FLlama-3.2-90B-Vision-Instruct-Turbo:text       | 1441.45 |\n|    9 | **anthropic:claude-3-haiku-20240307:vision**                       | 1364.87 |\n|   10 | mistral:pixtral-large-latest:text                                  | 1356.32 |\n|   11 | anthropic:claude-3-haiku-20240307:text                             |  1333.6 |\n|   12 | **anthropic:claude-3-sonnet-20240229:vision**                      | 1314.61 |\n|   13 | **together:meta-llama\u002FLlama-3.2-90B-Vision-Instruct-Turbo:vision** | 1269.84 |\n|   14 | anthropic:claude-3-sonnet-20240229:text                            | 1029.31 |\n\n*注：在我们的实验中，Claude 3 Sonnet得分较低，主要是因为多次拒绝战斗以及API延迟较大。*\n\n### 胜率矩阵\n\n![胜率矩阵](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenGenerativeAI_llm-colosseum_readme_d118b5a7c878.png)\n\n# 解释\n\n每位玩家可以由文本生成模型或多模态模型控制。我们通过API端点调用这些模型。了解更多关于模型的信息：\n- [文本生成模型](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Fen\u002Fllm_tutorial)\n- [**多模态LLM**模型](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fvlms)\n\n### 文本机器人\n\n我们会向LLM发送屏幕的文本描述，LLM则决定其角色接下来将执行哪些动作。这些动作取决于它之前的行动、对手的动作、自身的能量条和生命值。\n\n- 基于智能体\n- 多线程\n- 实时\n\n  ![fight3 drawio](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenGenerativeAI_llm-colosseum_readme_effc1d2df220.png)\n\n### 视觉机器人\n\n我们会向LLM发送当前游戏状态的截图，并明确指出它所控制的角色。它的决策完全基于这些视觉信息。\n\n# 安装\n\n- 按照 https:\u002F\u002Fdocs.diambra.ai\u002F#installation 中的说明操作。\n- 下载ROM文件并将其放入 `~\u002F.diambra\u002Froms` 目录中（无需解压内容）。\n- （可选）创建并激活一个新的Python虚拟环境 [venv](https:\u002F\u002Fdocs.python.org\u002F3\u002Flibrary\u002Fvenv.html)。\n- 使用 `make install` 或 `pip install -r requirements.txt` 安装依赖项。\n- 创建一个 `.env` 文件，并按照 `.env.example` 文件中的内容填写。\n- 运行 `make run`。\n\n## 使用Docker运行\n\n您也可以使用Docker来运行该应用。\n\n### 构建Docker镜像\n\n要构建Docker镜像，请使用以下命令：\n\n```bash\ndocker build -t diambra-app .\n```\n\n### 运行Docker容器\n\n要运行Docker容器，请使用以下命令：\n\n```bash\ndocker run --name diambra-container -v ~\u002F.diambra\u002Froms:\u002Fapp\u002Froms diambra-app\n```\n\n- 如果遇到容器名称冲突，可以先移除现有容器：\n\n```bash\ndocker rm diambra-container\n```\n\n### 在本地使用Ollama运行Docker Compose\n\n要启动服务，请使用以下命令：\n\n```bash\ndocker-compose up\n```\n\n### 停止服务\n\n要停止服务，请使用：\n\n```bash\ndocker-compose down\n```\n\n## 测试模式\n\n若要禁用LLM调用，可在`.env`文件中将`DISABLE_LLM`设置为`True`。此时系统将随机选择动作。\n\n## 日志记录\n\n可在`script.py`文件中更改日志级别。\n\n## 本地模型\n\n您还可以使用[Ollama](https:\u002F\u002Follama.com\u002F)在本地模型上运行竞技场。\n\n1. 确保已安装并运行Ollama，且已下载所需模型（例如，在终端中运行 `ollama serve mistral`）。\n\n2. 运行 `make local` 即可开始对战。\n\n默认情况下，系统会使用Mistral模型进行对战。如需使用其他模型，需在 `local.py` 文件中修改 `model` 参数。\n\n```python\nfrom eval.game import Game, Player1, Player2\n\ndef main():\n    # 环境设置\n\n    game = Game(\n        render=True,\n        save_game=True,\n        player_1=Player1(\n            nickname=\"Baby\",\n            model=\"ollama:mistral\",\n            robot_type=\"text\",  # vision或text\n            temperature=0.7,\n        ),\n        player_2=Player2(\n            nickname=\"Daddy\",\n            model=\"ollama:mistral\",\n            robot_type=\"text\",\n            temperature=0.7,\n        ),\n    )\n\n    game.run()\n    return 0\n\n\nif __name__ == \"__main__\":\n    main()\n```\n\n我们使用的命名规范是 `model_provider:model_name`。如果您想使用除Mistral之外的其他本地模型，可以写成 `ollama:some_other_model`。\n\n## 如何让我的LLM模型参与游戏？我能否改进提示词？\n\nLLM是在`agent\u002Frobot.py`文件中的`\u003CText||Vision>Robot.call_llm()`方法中调用的。\n\n#### TextRobot方法：\n\n```python\n    def call_llm(\n        self,\n        max_tokens: int = 50,\n        top_p: float = 1.0,\n    ) -> Generator[ChatResponse, None, None]:\n        \"\"\"\n        向语言模型发起API调用。\n\n        编辑此方法以改变机器人的行为！\n        \"\"\"\n\n        # 生成提示词\n        move_list = \"- \" + \"\\n - \".join([move for move in META_INSTRUCTIONS])\n        system_prompt = f\"\"\"你是世界上最好、最激进的街头霸王III第三击玩家。\n你的角色是{self.character}。你的目标是击败对手。请以项目符号列表的形式回复可执行的动作。\n{self.context_prompt()}\n你可以使用的招式有：\n{move_list}\n----\n请以项目符号列表的形式回复动作，格式为：`- \u003C动作名称>`，每行一个动作。\n例如，如果对手很近：\n- 靠近\n- 中拳\n\n例如，如果对手较远：\n- 火焰拳\n- 靠近\"\"\"\n        \n        start_time = time.time()\n\n        client = get_client(self.model, temperature=self.temperature)\n\n        messages = [\n            ChatMessage(role=\"system\", content=system_prompt),\n            ChatMessage(role=\"user\", content=\"你接下来的动作是：\"),\n        ]\n        resp = client.stream_chat(messages)\n\n        logger.debug(f\"向{self.model}发出的LLM调用：{system_prompt}\")\n        logger.debug(f\"向{self.model}发出的LLM调用：耗时{time.time() - start_time}秒\")\n\n        return resp\n```\n\n#### VisionRobot方法：\n\n```python\ndef call_llm(\n        self,\n        max_tokens: int = 50,\n        top_p: float = 1.0,\n    ) -> Generator[CompletionResponse, None, None]:\n        \"\"\"\n        向语言模型发起API调用。\n\n        编辑此方法以改变机器人的行为！\n        \"\"\"\n\n        # 生成提示词\n        move_list = \"- \" + \"\\n - \".join([move for move in META_INSTRUCTIONS])\n        system_prompt = f\"\"\"你是世界上最好、最激进的街头霸王III第三击玩家。\n你的角色是{self.character}。你的目标是击败对手。请以项目符号列表的形式回复可执行的动作。\n\n当前的游戏状态如下面的图片所示。\n\n你可以使用的招式有：\n{move_list}\n----\n请以3个动作的项目符号列表形式回复。格式为：`- \u003C动作名称>`，每行一个动作。\n例如，如果对手很近：\n- 靠近\n- 中拳\n\n例如，如果对手较远：\n- 火焰拳\n- 靠近\"\"\"\n\n        start_time = time.time()\n\n        client = get_client_multimodal(\n            self.model, temperature=self.temperature\n        )  # 多模态LLM\n\n        resp = client.stream_complete(\n            prompt=system_prompt, image_documents=[self.last_image_to_image_node()]\n        )\n\n        logger.debug(f\"向{self.model}发出的LLM调用：{system_prompt}\")\n        logger.debug(f\"向{self.model}发出的LLM调用：耗时{time.time() - start_time}秒\")\n\n        return resp\n```\n\n您可以在这些函数中自定义您的提示词。\n\n### 提交您的模型\n\n创建一个继承自Robot的新类，并在其中加入您希望做的修改，然后提交一个PR。\n\n我们会尽力将其加入排名！\n\n# 致谢\n\n由OpenGenerativeAI团队在Mistral黑客马拉松2024期间于旧金山使用❤️制作，成员来自[phospho](https:\u002F\u002Fphospho.ai)（@oulianov @Pierre-LouisBJT @Platinn）和[Quivr](https:\u002F\u002Fwww.quivr.app)（@StanGirard）。","# llm-colosseum 快速上手指南\n\n**llm-colosseum** 是一个让大语言模型（LLM）在《街头霸王 III》中进行实时对战的开源项目。它通过评估模型的响应速度、策略智能度、适应性等维度，为 LLM 提供一种全新的游戏化基准测试。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 用户建议使用 WSL2 或 Docker)\n*   **Python**: 3.8 或更高版本\n*   **依赖工具**: `git`, `make`, `pip`\n*   **游戏 ROM**: 需要自行下载《Street Fighter III: 3rd Strike》的 ROM 文件\n*   **模型访问**: \n    *   云端模式：需准备 OpenAI, Anthropic, Mistral 等厂商的 API Key\n    *   本地模式：需安装并运行 [Ollama](https:\u002F\u002Follama.com\u002F)\n\n## 安装步骤\n\n### 1. 克隆项目与安装依赖\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum.git\ncd llm-colosseum\n\n# 创建虚拟环境（推荐）\npython -m venv venv\nsource venv\u002Fbin\u002Factivate  # Windows 用户使用: venv\\Scripts\\activate\n\n# 安装项目依赖\nmake install\n# 或者使用 pip\npip install -r requirements.txt\n```\n\n### 2. 配置游戏 ROM\n\n按照 [Diambra AI 文档](https:\u002F\u002Fdocs.diambra.ai\u002F#installation) 的指引下载 ROM 文件。下载后无需解压，直接将其放入以下目录：\n\n```bash\n~\u002F.diambra\u002Froms\n```\n\n### 3. 配置环境变量\n\n复制示例配置文件并填入您的 API 密钥（如果使用云端模型）：\n\n```bash\ncp .env.example .env\n```\n\n编辑 `.env` 文件，填入对应的 `OPENAI_API_KEY`, `ANTHROPIC_API_KEY` 等信息。\n\n> **提示**：若仅想测试本地模型或随机动作，可暂时留空或设置 `DISABLE_LLM=True`。\n\n### 4. (可选) 使用 Docker 运行\n\n如果您希望隔离环境，可以使用 Docker：\n\n```bash\n# 构建镜像\ndocker build -t diambra-app .\n\n# 运行容器（需挂载 ROM 目录）\ndocker run --name diambra-container -v ~\u002F.diambra\u002Froms:\u002Fapp\u002Froms diambra-app\n```\n\n## 基本使用\n\n### 方式一：运行默认对战（云端模型）\n\n配置好 `.env` 后，直接运行以下命令即可启动一场默认的 Mistral 7B 对战：\n\n```bash\nmake run\n```\n\n### 方式二：运行本地模型对战（推荐国内开发者）\n\n使用 [Ollama](https:\u002F\u002Follama.com\u002F) 可以在本地免费运行模型，无需配置复杂的 API Key。\n\n1.  **启动 Ollama 服务**（确保已下载模型，例如 mistral）：\n    ```bash\n    ollama serve mistral\n    ```\n\n2.  **启动本地对战**：\n    ```bash\n    make local\n    ```\n    *默认配置为两个 `ollama:mistral` 模型进行文本模式对战。*\n\n3.  **自定义本地模型**：\n    如需更换模型，修改 `local.py` 文件中的 `model` 参数：\n\n    ```python\n    from eval.game import Game, Player1, Player2\n\n    def main():\n        game = Game(\n            render=True,\n            save_game=True,\n            player_1=Player1(\n                nickname=\"Baby\",\n                model=\"ollama:llama3\",  # 修改此处为您想要的本地模型\n                robot_type=\"text\",     # 可选: \"text\" 或 \"vision\"\n                temperature=0.7,\n            ),\n            player_2=Player2(\n                nickname=\"Daddy\",\n                model=\"ollama:llama3\",\n                robot_type=\"text\",\n                temperature=0.7,\n            ),\n        )\n        game.run()\n        return 0\n\n    if __name__ == \"__main__\":\n        main()\n    ```\n\n### 核心概念说明\n\n*   **TextRobot**: 将游戏状态转化为文本描述发送给 LLM，由模型决定下一步动作。\n*   **VisionRobot**: 将游戏截图发送给多模态 LLM，模型基于视觉信息做出决策。\n*   **自定义策略**: 您可以修改 `agent\u002Frobot.py` 中的 `call_llm` 方法来调整 Prompt，从而改变机器人的战斗风格。","某 AI 实验室团队正在为一款实时策略游戏筛选最优的决策模型，需要在众多开源大模型中快速锁定反应快、策略强的候选者。\n\n### 没有 llm-colosseum 时\n- **评估维度单一**：传统基准测试仅关注文本生成质量，无法衡量模型在动态环境下的实时决策与应变能力。\n- **开发成本高昂**：团队需手动搭建复杂的游戏仿真环境并编写强化学习奖励函数，耗时数周才能完成一次有效评测。\n- **缺乏直观对比**：难以直观判断不同模型在“高压”对抗中的表现差异，往往依赖抽象的分数报表，导致选型决策模糊。\n- **忽略多模态能力**：纯文本测试无法验证模型通过视觉截图理解战场局势的能力，遗漏了多模态模型的关键优势。\n\n### 使用 llm-colosseum 后\n- **场景化实战测评**：直接让大模型在《街头霸王 3》中实时互搏，通过胜负结果直观检验模型的反应速度、战术规划及抗压韧性。\n- **零门槛快速部署**：无需从头构建仿真器，利用现有 API 即可让文本或多模态模型化身格斗家，几分钟内启动大规模对抗实验。\n- **量化排名清晰**：基于真实的对战数据自动生成 ELO 积分排行榜和胜率矩阵，精准识别出如 GPT-4o 等兼具速度与智慧的顶尖模型。\n- **全面覆盖模态**：同时支持纯文本描述与视觉截图输入，充分挖掘并对比了多模态模型在感知环境与执行操作上的独特潜力。\n\nllm-colosseum 将抽象的模型能力评估转化为直观的格斗竞技，用最低成本揭示了大模型在实时复杂任务中的真实战斗力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenGenerativeAI_llm-colosseum_ff7f4f1c.png","OpenGenerativeAI","Open GenerativeAI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOpenGenerativeAI_ca7e6091.png","Open-source GenAI community",null,"OpenGenAI","https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI",[81,85,89,93],{"name":82,"color":83,"percentage":84},"Jupyter Notebook","#DA5B0B",92.3,{"name":86,"color":87,"percentage":88},"Python","#3572A5",7.6,{"name":90,"color":91,"percentage":92},"Dockerfile","#384d54",0.1,{"name":94,"color":95,"percentage":96},"Makefile","#427819",0,1476,178,"2026-04-07T17:42:15","MIT","未说明 (基于 Diambra Arena，通常支持 Linux\u002FWindows\u002FmacOS)","非必需。若使用本地大模型（如通过 Ollama），需根据具体模型决定；若仅调用云端 API 则无 GPU 要求。","未说明 (取决于是否运行本地模型及模型大小)",{"notes":105,"python":106,"dependencies":107},"1. 核心依赖是 Diambra Arena 框架，需按其文档安装并手动下载《街头霸王 3》ROM 文件至 ~\u002F.diambra\u002Froms 目录。\n2. 该工具主要设计为通过 API 调用云端模型（如 OpenAI, Mistral, Anthropic 等），因此默认运行无需高性能本地硬件。\n3. 若需在本地运行模型，推荐使用 Ollama，并在 .env 文件中配置或修改 local.py 脚本。\n4. 支持 Docker 和 Docker Compose 部署方式。\n5. 可通过设置 DISABLE_LLM=True 进入测试模式（随机动作）。","3.x (未指定具体小版本，建议使用现代 Python 3 环境)",[108,109,110,111],"diambra-arena","ollama (可选，用于本地模型)","requests (隐含，用于 API 调用)","python-dotenv",[14,35,113],"其他",[115,116,117,118],"genai","llm","benchmark","streetfighterai","2026-03-27T02:49:30.150509","2026-04-08T17:16:54.959567",[122,127,132,137,142,147],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},24722,"如何在本地运行项目并配置 Ollama 模型？","要在本地运行，需设置 .env 文件中的环境变量。将 MODEL_PROVIDER 设置为 \"openai\"（因为 Ollama 兼容 OpenAI 接口），OPENAI_API_KEY 设置为 \"ollama\" 或任意非空字符串，BASE_URL 指向本地 Ollama 服务（通常为 http:\u002F\u002Flocalhost:11434\u002Fv1）。注意：小参数模型（如 0.5B, 1.8B）由于生成速度快（token\u002Fsecond 高），在对战中表现通常优于大模型，因为大模型等待生成时容易被小模型击败。","https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fissues\u002F28",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},24723,"运行 make demo 时角色不战斗且控制台报错缺少包怎么办？","这通常是因为未安装必要的依赖包。在运行 `make demo` 之前，必须先执行 `make install` 命令。错误信息中若提示缺少 `llama-index-llms-mistralai` 等包，运行安装命令后会自动解决该问题。请确保在激活的虚拟环境中执行了安装步骤。","https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fissues\u002F60",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},24724,"使用本地模型时报错 'NoneType' object has no attribute 'stream_chat' 如何解决？","此错误表明代码未能正确识别 \"ollama\" 作为提供者来创建客户端。该问题已在后续的 Pull Request (#51) 中修复。请拉取最新的代码版本或更新 Docker 镜像。更新后，确保在配置中正确使用格式，例如 `model=\"ollama:gemma:7b-instruct-q8_0\"` 或 `model=\"ollama:llama3:8b-instruct-q8_0\"`。","https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fissues\u002F50",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},24725,"游戏窗口打开但角色不动，并报 KeyError 错误怎么办？","这是一个已知的代码逻辑 Bug。您可以手动修改 `agent\u002Frobot.py` 文件第 290 行附近的代码进行修复。将原本返回随机动作值的代码：`return [random.choice(list(MOVES.values()))]` 修改为返回随机指令键的代码：`return [random.choice(list(META_INSTRUCTIONS_WITH_LOWER.keys())).lower()]`。修改后保存并重新运行即可解决角色无法行动的问题。","https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fissues\u002F49",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},24726,"Mac 上找不到 ~\u002F.diambra\u002Froms 目录导致无法保存 ROM 怎么办？","如果目录不存在，您需要手动创建它。在终端中运行 `mkdir -p ~\u002F.diambra\u002Froms`。此外，请注意 Diambra 会校验 ROM 文件的哈希值以确保完整性。如果使用的 ROM 文件哈希值不匹配，游戏将无法加载。测试表明，只有特定来源（如 wowroms）的 ROM 文件能正常工作，其他版本的 ROM 可能无效。","https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fissues\u002F27",{"id":148,"question_zh":149,"answer_zh":150,"source_url":126},24727,"为什么大参数模型在对战中表现不如小模型？","在 LLM Colosseum 中，生成速度（token\u002Fsecond）比模型参数量更重要。大参数模型（如 7B, 14B）生成响应较慢，在等待生成 token 的过程中，往往会被生成速度快的小模型（如 0.5B, 1.8B）连续攻击而击败。因此，如果在本地运行，建议优先选择推理速度快的小模型以获得更好的对战体验。",[152,157,162],{"id":153,"version":154,"summary_zh":155,"released_at":156},154229,"v0.0.3","本次发布新增多模态模型支持！\n\n我们使用 Mistral、OpenAI、Anthropic 和 Together 的最新模型重新运行了基准测试。\n\n## 变更内容\n* 功能：由 @Jeerhz 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F69 中为项目添加视觉模型\n* 功能：由 @Jeerhz 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F70 中实现 Elo 排名计算\n\n## 新贡献者\n* @Jeerhz 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F69 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fcompare\u002Fv0.0.2...v0.0.3","2024-11-20T11:12:52",{"id":158,"version":159,"summary_zh":160,"released_at":161},154230,"v0.0.2","## 变更内容\n* @oulianov 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F25 中添加了人工控制（仅限 Linux）功能，并简化了代码。\n* @SamPink 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F44 中增加了对 Anthropic 等模型的支持。\n* @SamPink 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F51 中修复了 Ollama 的 bug。\n* @zhimin-z 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F55 中修正了拼写错误。\n* @JGalego 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F59 中新增了对 Bedrock 的支持 ⛰️。\n* @nickschuetz 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F61 中确保了 Pydantic 的 bug 修复已到位。\n* @eltociear 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F58 中更新了 dashboard.ipynb 文件。\n* @harshkasat 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F64 中添加了 Dockerfile 和 docker-compose.yml 文件。\n* @oulianov 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F65 中将 ollama.py 重命名为 local.py。\n* @vithursant 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F66 中通过 llama-index 新增了对 Cerebras API 的支持。\n* @oulianov 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F67 中简化了 requirements.txt 文件。\n* @oulianov 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F68 中重新添加了对 Mistral 的支持。\n\n## 新贡献者\n* @SamPink 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F44 中完成了首次贡献。\n* @zhimin-z 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F55 中完成了首次贡献。\n* @JGalego 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F59 中完成了首次贡献。\n* @nickschuetz 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F61 中完成了首次贡献。\n* @eltociear 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F58 中完成了首次贡献。\n* @harshkasat 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F64 中完成了首次贡献。\n* @vithursant 在 https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fpull\u002F66 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fcompare\u002Fv0.0.1...v0.0.2","2024-10-09T14:08:22",{"id":163,"version":164,"summary_zh":165,"released_at":166},154231,"v0.0.1","\r\nhttps:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002Fllm-colosseum\u002Fassets\u002F19614572\u002F6c54a7af-bc07-4de5-a66f-24bf754d182a\r\n\r\n","2024-03-24T17:35:14"]