[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-THUDM--WebGLM":3,"tool-THUDM--WebGLM":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":107,"github_topics":108,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":145},4892,"THUDM\u002FWebGLM","WebGLM","WebGLM: An Efficient Web-enhanced Question Answering System (KDD 2023)","WebGLM 是一个高效且具成本效益的网页增强型问答系统，基于拥有 100 亿参数的通用语言模型（GLM）构建。它旨在解决传统大模型在面对实时信息或专业领域知识时，因训练数据截止而导致的回答滞后或不准确问题。通过深度融合网络搜索与信息检索能力，WebGLM 能够主动获取最新网络资讯，并结合人类偏好对齐技术，生成既精准又符合用户期望的回答。\n\n该项目特别适合人工智能研究人员、开发者以及需要构建实时问答应用的技术团队使用。对于希望探索“检索增强生成”（RAG）技术落地，或需要在有限算力下部署高性能问答系统的用户而言，WebGLM 提供了宝贵的开源参考与实现方案。\n\n其核心技术亮点在于高效的架构设计：不仅利用混合目标函数进行了大规模双语预训练，还引入了多查询注意力（Multi-Query Attention）和 FlashAttention 技术，显著提升了推理速度并降低了显存占用。这使得系统在保持强大性能的同时，更易于在实际场景中部署。作为 KDD 2023 的收录成果，WebGLM 展示了如何将静态的语言模型与动态的网络世界有效连接，为开发下一代智能助手奠定了坚实基础。","\u003Ch1>WebGLM: Towards An Efficient Web-enhanced Question Answering System with Human Preferences\u003C\u002Fh1>\n\n\u003Cp align=\"center\">📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.07906.pdf\" target=\"_blank\">Paper (KDD'23)\u003C\u002Fa> • 🌐 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM\u002Fblob\u002Fmain\u002FREADME_zh.md\" target=\"_blank\">中文 README\u003C\u002Fa> • 🤗 HF Repo \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FWebGLM\" target=\"_blank\">[WebGLM-10B]\u003C\u002Fa> \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FWebGLM-2B\" target=\"_blank\">[WebGLM-2B]\u003C\u002Fa> • 📚 Dataset \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FTHUDM\u002Fwebglm-qa\" target=\"_blank\">[WebGLM-QA]\u003C\u002Fa>\u003C\u002Fp>\n\nThis is the official implementation of WebGLM. If you find our open-sourced efforts useful, please 🌟 the repo to encourage our following developement!\n\n\u003C!--https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM\u002Fassets\u002F129033897\u002Fd2e1dd35-6340-4175-ac2d-fd585daa17cf-->\n\n**[Please click to watch the demo!]**\n\n[![Click to Watch Demo!](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_7a9097e13a05.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=ohjrlYCLLEU)\n\n_Read this in [中文](README_zh.md)._\n\n## Update\n**[2023\u002F06\u002F25]** Release [ChatGLM2-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B), an updated version of [ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B) which introduces several new features:\n\n1. **Stronger Performance**: we have fully upgraded the ChatGLM2-6B. It uses the hybrid objective function of [GLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM), and has undergone pre-training with 1.4T bilingual tokens and human preference alignment training. The [evaluation results](README.md#evaluation-results) show that, compared to the first-generation model, ChatGLM2-6B has achieved substantial improvements in performance on datasets like MMLU (+23%), CEval (+33%), GSM8K (+571%), BBH (+60%), showing strong competitiveness among models of the same size.\n2. **Longer Context**: Based on [FlashAttention](https:\u002F\u002Fgithub.com\u002FHazyResearch\u002Fflash-attention) technique, we have extended the context length of the base model from 2K in ChatGLM-6B to 32K, and trained with a context length of 8K during the dialogue alignment, allowing for more rounds of dialogue. However, the current version of ChatGLM2-6B has limited understanding of single-round ultra-long documents, which we will focus on optimizing in future iterations.\n3. **More Efficient Inference**: Based on [Multi-Query Attention](http:\u002F\u002Farxiv.org\u002Fabs\u002F1911.02150) technique, ChatGLM2-6B has more efficient inference speed and lower GPU memory usage: under the official  implementation, the inference speed has increased by 42% compared to the first generation; under INT4 quantization, the dialogue length supported by 6G GPU memory has increased from 1K to 8K.\n\nMore details please refer to [ChatGLM2-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B)。\n\n\u003C!-- TOC -->\n\n-   [Overview](#overview)\n    -   [Features](#features)\n-   [News](#news)\n-   [Preparation](#preparation)\n    -   [Prepare Code and Environments](#prepare-code-and-environments)\n    -   [Prepare SerpAPI Key](#prepare-serpapi-key)\n    -   [Prepare Retriever Checkpoint](#prepare-retriever-checkpoint)\n-   [Try WebGLM](#try-webglm)\n    -   [Export Environment Variables](#export-environment-variables)\n    -   [Run as Command Line Interface](#run-as-command-line-interface)\n    -   [Run as Web Service](#run-as-web-service)\n-   [Train WebGLM](#train-webglm)\n    -   [Train Generator](#train-generator)\n        -   [Prepare Data](#prepare-data)\n        -   [Training](#training)\n    -   [Train Retriever](#train-retriever)\n        -   [Prepare Data](#prepare-data-1)\n        -   [Training](#training-1)\n-   [Evaluation](#evaluation)\n-   [Real Application Cases](#real-application-cases)\n-   [Citation](#citation)\n\n# Overview\n\n![paper](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_d015e21d88fc.png)\n\nWebGLM aspires to provide an efficient and cost-effective web-enhanced question-answering system using the 10-billion-parameter General Language Model (GLM). It aims to improve real-world application deployment by integrating web search and retrieval capabilities into the pre-trained language model.\n\n## Features\n\n-   **LLM-augmented Retriever**: Enhances the retrieval of relevant web content to better aid in answering questions accurately.\n-   **Bootstrapped Generator**: Generates human-like responses to questions, leveraging the power of the GLM to provide refined answers.\n-   **Human Preference-aware Scorer**: Estimates the quality of generated responses by prioritizing human preferences, ensuring the system produces useful and engaging content.\n\n# News\n\n-   **[2023-06-24]** We support searching via [Bing](https:\u002F\u002Fwww.bing.com\u002F) now!\n-   **[2023-06-14]** We release our code and the [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.07906.pdf) of WebGLM!\n\n# Preparation\n\n## Prepare Code and Environments\n\nClone this repo, and install python requirements.\n\n```bash\npip install -r requirements.txt\n```\n\nInstall Nodejs.\n\n```bash\napt install nodejs # If you use Ubuntu\n```\n\nInstall playwright dependencies.\n\n```bash\nplaywright install\n```\n\nIf browsing environments are not installed in your host, you need to install them. Do not worry, playwright will give you instructions when you first execute it if so.\n\n## Prepare SerpAPI Key\n\nIn search process, we use SerpAPI to get search results. You need to get a SerpAPI key from [here](https:\u002F\u002Fserpapi.com\u002F).\n\nThen, set the environment variable `SERPAPI_KEY` to your key.\n\n```bash\nexport SERPAPI_KEY=\"YOUR KEY\"\n```\n\nAlternatively, you can use Bing search with local browser environment (playwright). You can add `--searcher bing` to start command lines to use Bing search. (See [Run as Command Line Interface](#run-as-command-line-interface) and [Run as Web Service](#run-as-web-service))\n\n## Prepare Retriever Checkpoint\n\nDownload the checkpoint on [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fshawliu9\u002Fwebglm-contriever) by running the command line below.\n\nYou can manually specify the path to save the checkpoint by `--save SAVE_PATH`.\n\n```bash\npython download.py retriever-pretrained-checkpoint\n```\n\n# Try WebGLM\n\nBefore you run the code, make sure that the space of your device is enough.\n\n## Export Environment Variables\n\nExport the environment variable `WEBGLM_RETRIEVER_CKPT` to the path of the retriever checkpoint. If you have downloaded the retriever checkpoint in the default path, you can simply run the command line below.\n\n```bash\nexport WEBGLM_RETRIEVER_CKPT=.\u002Fdownload\u002Fretriever-pretrained-checkpoint\n```\n\n## Run as Command Line Interface\n\nYou can try WebGLM-2B model by:\n\n```bash\npython cli_demo.py -w THUDM\u002FWebGLM-2B\n```\n\nOr directly for WebGLM-10B model:\n\n```bash\npython cli_demo.py\n```\n\nIf you want to use Bing search instead of SerpAPI, you can add `--searcher bing` to the command line, for example:\n\n```bash\npython cli_demo.py -w THUDM\u002FWebGLM-2B --searcher bing\n```\n\n## Run as Web Service\n\nRun `web_demo.py` with the same arguments as `cli_demo.py` to start a web service.\nFor example, you can try WebGLM-2B model with Bing search by:\n\n```bash\npython web_demo.py -w THUDM\u002FWebGLM-2B --searcher bing\n```\n\n# Train WebGLM\n\n## Train Generator\n\n### Prepare Data (WebGLM-QA)\n\nDownload the training data (WebGLM-QA) on [Tsinghua Cloud](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Fd\u002Fd290dcfc92e342f9a017\u002F) by running the command line below.\n\n```bash\npython download.py generator-training-data\n```\n\nIt will automatically download all the data and preprocess them into the seq2seq form that can be used immediately in `.\u002Fdownload`.\n\n### Training\n\nPlease refer to [GLM repo](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM#train-with-your-own-data) for seq2seq training.\n\n## Train Retriever\n\n### Prepare Data\n\nDownload the training data on [Tsinghua Cloud](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Fd\u002F3927b67a834c475288e2\u002F) by running the command line below.\n\n```bash\npython download.py retriever-training-data\n```\n\n### Training\n\nRun the following command line to train the retriever. If you have downloaded the retriever training data in the default path, you can simply run the command line below.\n\n```bash\npython train_retriever.py --train_data_dir .\u002Fdownload\u002Fretriever-training-data\n```\n\n# Evaluation\n\nYou can reproduce our results on TriviaQA, WebQuestions and NQ Open. Take TriviaQA for example, you can simply run the command line below:\n\n```bash\nbash scripts\u002Ftriviaqa.sh\n```\n\nand start running the experiment.\n\n# Real Application Cases\n\n[Here](assets\u002Fcases) you can see some examples of WebGLM real application scenarios.\n\n\u003Cdetails>\u003Csummary>\u003Cb>When will the COVID-19 disappear?\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_dd67ad562ec7.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>How to balance career and hobbies?\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_274075df6c7e.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>FL Studio and Cubase, which is better?\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_f2ad783b8a0d.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>Is attention better than CNN?\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_8be2c35dc3c1.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>How to survive in the first-tier cities without a high-salary work?\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_ba5e77fddd91.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>What do you think of version 3.5 of Genshin Impact?\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_fe8853533bcb.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>transformers are originated in NLP, but why they can be applied in CV?\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_d2aa70dba0a9.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>Who proposed Music Transformer? How does it work?\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_74653a5a0dd9.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>What is the backbone of Toolformer?\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_981743548683.png)\n\n\u003C\u002Fdetails>\n\n# License\n\nThis repository is licensed under the [Apache-2.0 License](LICENSE). The use of model weights is subject to the [Model_License](MODEL_LICENSE). All open-sourced data is for resarch purpose only.\n\n# Citation\n\nIf you use this code for your research, please cite our paper.\n\n```\n@misc{liu2023webglm,\n      title={WebGLM: Towards An Efficient Web-Enhanced Question Answering System with Human Preferences},\n      author={Xiao Liu and Hanyu Lai and Hao Yu and Yifan Xu and Aohan Zeng and Zhengxiao Du and Peng Zhang and Yuxiao Dong and Jie Tang},\n      year={2023},\n      eprint={2306.07906},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL}\n}\n```\n\n> This repo is simplified for easier deployment.\n","\u003Ch1>WebGLM：迈向高效且符合人类偏好的网络增强问答系统\u003C\u002Fh1>\n\n\u003Cp align=\"center\">📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.07906.pdf\" target=\"_blank\">论文（KDD'23）\u003C\u002Fa> • 🌐 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM\u002Fblob\u002Fmain\u002FREADME_zh.md\" target=\"_blank\">中文 README\u003C\u002Fa> • 🤗 HF 仓库 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FWebGLM\" target=\"_blank\">[WebGLM-10B]\u003C\u002Fa> \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FWebGLM-2B\" target=\"_blank\">[WebGLM-2B]\u003C\u002Fa> • 📚 数据集 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FTHUDM\u002Fwebglm-qa\" target=\"_blank\">[WebGLM-QA]\u003C\u002Fa>\u003C\u002Fp>\n\n这是 WebGLM 的官方实现。如果您觉得我们的开源工作有所帮助，请为本仓库点个 star，以鼓励我们继续开发！\n\n\u003C!--https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM\u002Fassets\u002F129033897\u002Fd2e1dd35-6340-4175-ac2d-fd585daa17cf-->\n\n**[请点击观看演示！]**\n\n[![点击观看演示！](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_7a9097e13a05.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=ohjrlYCLLEU)\n\n_请阅读 [中文版](README_zh.md)。_\n\n## 更新\n**[2023年6月25日]** 发布 [ChatGLM2-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B)，这是对 [ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B) 的升级版本，引入了多项新特性：\n\n1. **更强的性能**：我们对 ChatGLM2-6B 进行了全面升级。它采用了 [GLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM) 的混合目标函数，并使用 1.4T 双语数据进行了预训练，同时进行了人类偏好对齐训练。根据 [评估结果](README.md#evaluation-results)，与初代模型相比，ChatGLM2-6B 在 MMLU（+23%）、CEval（+33%）、GSM8K（+571%）、BBH（+60%）等数据集上的表现有了显著提升，展现出与同规模模型相比的强大竞争力。\n2. **更长的上下文**：基于 [FlashAttention](https:\u002F\u002Fgithub.com\u002FHazyResearch\u002Fflash-attention) 技术，我们将基础模型的上下文长度从 ChatGLM-6B 的 2K 扩展到了 32K，并在对话对齐过程中以 8K 的上下文长度进行训练，从而支持更多轮的对话。不过，当前版本的 ChatGLM2-6B 对于单轮超长文档的理解能力仍有限，我们将在后续迭代中重点优化这一方面。\n3. **更高效的推理**：基于 [Multi-Query Attention](http:\u002F\u002Farxiv.org\u002Fabs\u002F1911.02150) 技术，ChatGLM2-6B 的推理速度更快、显存占用更低：在官方实现下，推理速度比初代提升了 42%；而在 INT4 量化条件下，6GB 显存支持的对话长度由 1K 提升至 8K。\n\n更多细节请参阅 [ChatGLM2-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B)。\n\n\u003C!-- TOC -->\n\n-   [概述](#overview)\n    -   [特性](#features)\n-   [新闻](#news)\n-   [准备](#preparation)\n    -   [准备代码和环境](#prepare-code-and-environments)\n    -   [准备 SerpAPI 密钥](#prepare-serpapi-key)\n    -   [准备检索器检查点](#prepare-retriever-checkpoint)\n-   [试用 WebGLM](#try-webglm)\n    -   [导出环境变量](#export-environment-variables)\n    -   [作为命令行界面运行](#run-as-command-line-interface)\n    -   [作为 Web 服务运行](#run-as-web-service)\n-   [训练 WebGLM](#train-webglm)\n    -   [训练生成器](#train-generator)\n        -   [准备数据](#prepare-data)\n        -   [训练](#training)\n    -   [训练检索器](#train-retriever)\n        -   [准备数据](#prepare-data-1)\n        -   [训练](#training-1)\n-   [评估](#evaluation)\n-   [实际应用案例](#real-application-cases)\n-   [引用](#citation)\n\n# 概述\n\n![paper](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_d015e21d88fc.png)\n\nWebGLM 致力于利用拥有 100 亿参数的通用语言模型（GLM），提供一种高效且经济实惠的网络增强问答系统。通过将网络搜索和检索功能整合到预训练的语言模型中，旨在提升其在现实场景中的应用部署效果。\n\n## 特性\n\n-   **LLM 增强型检索器**：提升相关网页内容的检索能力，从而更准确地回答问题。\n-   **自举式生成器**：利用 GLM 的强大能力生成接近人类的回答，提供更加精准的答案。\n-   **人类偏好感知评分器**：通过优先考虑人类偏好来评估生成答案的质量，确保系统输出有用且吸引人的内容。\n\n# 新闻\n\n-   **[2023年6月24日]** 我们现在支持通过 [Bing](https:\u002F\u002Fwww.bing.com\u002F) 进行搜索！\n-   **[2023年6月14日]** 我们发布了 WebGLM 的代码及 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.07906.pdf)！\n\n# 准备\n\n## 准备代码和环境\n\n克隆本仓库，并安装 Python 依赖项。\n\n```bash\npip install -r requirements.txt\n```\n\n安装 Node.js。\n\n```bash\napt install nodejs # 如果您使用 Ubuntu\n```\n\n安装 Playwright 的依赖项。\n\n```bash\nplaywright install\n```\n\n如果您的主机上尚未安装浏览器环境，则需要先进行安装。不用担心，Playwright 在首次执行时会给出相应的提示。\n\n## 准备 SerpAPI 密钥\n\n在搜索过程中，我们使用 SerpAPI 获取搜索结果。您需要从 [这里](https:\u002F\u002Fserpapi.com\u002F) 获取一个 SerpAPI 密钥。\n\n然后，将环境变量 `SERPAPI_KEY` 设置为您获得的密钥。\n\n```bash\nexport SERPAPI_KEY=\"YOUR KEY\"\n```\n\n或者，您也可以使用本地浏览器环境（Playwright）进行必应搜索。只需在启动命令中添加 `--searcher bing` 即可使用必应搜索。（详见 [作为命令行界面运行](#run-as-command-line-interface) 和 [作为 Web 服务运行](#run-as-web-service)）\n\n## 准备检索器检查点\n\n通过运行以下命令，在 [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fshawliu9\u002Fwebglm-contriever) 上下载检索器检查点。\n\n您还可以通过 `--save SAVE_PATH` 参数手动指定保存检查点的路径。\n\n```bash\npython download.py retriever-pretrained-checkpoint\n```\n\n# 试用 WebGLM\n\n在运行代码之前，请确保您的设备有足够的存储空间。\n\n## 导出环境变量\n\n将环境变量 `WEBGLM_RETRIEVER_CKPT` 导出为检索器检查点的路径。如果您已将检索器检查点下载到默认路径，则可以直接运行以下命令。\n\n```bash\nexport WEBGLM_RETRIEVER_CKPT=.\u002Fdownload\u002Fretriever-pretrained-checkpoint\n```\n\n## 作为命令行界面运行\n\n您可以尝试使用 WebGLM-2B 模型：\n\n```bash\npython cli_demo.py -w THUDM\u002FWebGLM-2B\n```\n\n或者直接使用 WebGLM-10B 模型：\n\n```bash\npython cli_demo.py\n```\n\n如果您想使用必应搜索而不是 SerpAPI，可以在命令行中添加 `--searcher bing`，例如：\n\n```bash\npython cli_demo.py -w THUDM\u002FWebGLM-2B --searcher bing\n```\n\n## 作为 Web 服务运行\n\n使用与 `cli_demo.py` 相同的参数运行 `web_demo.py`，即可启动一个 Web 服务。例如，您可以尝试使用必应搜索的 WebGLM-2B 模型：\n\n```bash\npython web_demo.py -w THUDM\u002FWebGLM-2B --searcher bing\n```\n\n# 训练 WebGLM\n\n## 训练生成器\n\n### 准备数据 (WebGLM-QA)\n\n通过运行以下命令行，在[清华大学云](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Fd\u002Fd290dcfc92e342f9a017\u002F)上下载训练数据（WebGLM-QA）。\n\n```bash\npython download.py generator-training-data\n```\n\n它会自动下载所有数据，并将其预处理为 `.\u002Fdownload` 目录中可直接使用的 seq2seq 格式。\n\n### 训练\n\n请参考 [GLM 仓库](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM#train-with-your-own-data) 进行 seq2seq 训练。\n\n## 训练检索器\n\n### 准备数据\n\n通过运行以下命令行，在[清华大学云](https:\u002F\u002Fcloud.tsinghua.edu.cn\u002Fd\u002F3927b67a834c475288e2\u002F)上下载训练数据。\n\n```bash\npython download.py retriever-training-data\n```\n\n### 训练\n\n运行以下命令行来训练检索器。如果你已将检索器训练数据下载到默认路径，只需运行下面的命令即可。\n\n```bash\npython train_retriever.py --train_data_dir .\u002Fdownload\u002Fretriever-training-data\n```\n\n# 评估\n\n你可以在 TriviaQA、WebQuestions 和 NQ Open 数据集上复现我们的结果。以 TriviaQA 为例，只需运行以下命令行：\n\n```bash\nbash scripts\u002Ftriviaqa.sh\n```\n\n即可开始实验。\n\n# 实际应用案例\n\n[这里](assets\u002Fcases)你可以看到一些 WebGLM 的实际应用场景示例。\n\n\u003Cdetails>\u003Csummary>\u003Cb>新冠疫情什么时候会消失？\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_dd67ad562ec7.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>如何平衡事业与爱好？\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_274075df6c7e.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>FL Studio 和 Cubase，哪个更好？\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_f2ad783b8a0d.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>注意力机制比 CNN 更好吗？\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_8be2c35dc3c1.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>在一线城市没有高薪工作的情况下，如何生存？\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_ba5e77fddd91.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>你对原神 3.5 版本怎么看？\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_fe8853533bcb.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>Transformer 最初是用于自然语言处理的，为什么也能应用于计算机视觉呢？\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_d2aa70dba0a9.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>Music Transformer 是由谁提出的？它是如何工作的？\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_74653a5a0dd9.png)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>\u003Cb>Toolformer 的骨干网络是什么？\u003C\u002Fb>\u003C\u002Fsummary>\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_readme_981743548683.png)\n\n\u003C\u002Fdetails>\n\n# 许可证\n\n本仓库采用 [Apache-2.0 许可证](LICENSE)授权。模型权重的使用受 [Model_License](MODEL_LICENSE) 约束。所有开源数据仅用于研究目的。\n\n# 引用\n\n如果你在研究中使用了本代码，请引用我们的论文。\n\n```\n@misc{liu2023webglm,\n      title={WebGLM: Towards An Efficient Web-Enhanced Question Answering System with Human Preferences},\n      author={Xiao Liu and Hanyu Lai and Hao Yu and Yifan Xu and Aohan Zeng and Zhengxiao Du and Peng Zhang and Yuxiao Dong and Jie Tang},\n      year={2023},\n      eprint={2306.07906},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL}\n}\n```\n\n> 此仓库经过简化，以便于部署。","# WebGLM 快速上手指南\n\nWebGLM 是一个基于 100 亿参数 GLM 模型的高效网页增强问答系统。它结合了网络搜索检索能力与人类偏好对齐技术，能够生成准确且符合人类喜好的回答。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu) 或 macOS\n- **Python**: 3.8+\n- **Node.js**: 需安装 Nodejs 以支持部分前端功能\n- **显存**: \n    - 运行 WebGLM-2B 模型：建议 6GB+ 显存\n    - 运行 WebGLM-10B 模型：建议 16GB+ 显存\n\n### 前置依赖\n本项目依赖 `playwright` 进行网页浏览，首次运行时可能需要安装浏览器内核。\n\n## 安装步骤\n\n### 1. 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM.git\ncd WebGLM\n```\n\n### 2. 安装 Python 依赖\n```bash\npip install -r requirements.txt\n```\n\n### 3. 安装系统级依赖 (Ubuntu)\n```bash\napt install nodejs\n```\n\n### 4. 安装 Playwright 浏览器内核\n```bash\nplaywright install\n```\n*注：如果执行后提示缺少系统库，请按照终端输出的指令安装相应的系统依赖包。*\n\n### 5. 下载检索器检查点 (Retriever Checkpoint)\n国内用户推荐使用 ModelScope 或直接运行脚本下载：\n```bash\npython download.py retriever-pretrained-checkpoint\n```\n*默认下载路径为 `.\u002Fdownload\u002Fretriever-pretrained-checkpoint`。*\n\n## 基本使用\n\n在运行前，请配置必要的环境变量并选择搜索方式。\n\n### 1. 配置环境变量\n设置检索器检查点路径：\n```bash\nexport WEBGLM_RETRIEVER_CKPT=.\u002Fdownload\u002Fretriever-pretrained-checkpoint\n```\n\n### 2. 配置搜索服务 (二选一)\n\n**方案 A：使用 SerpAPI (推荐，无需本地浏览器渲染)**\n获取 [SerpAPI Key](https:\u002F\u002Fserpapi.com\u002F) 并导出：\n```bash\nexport SERPAPI_KEY=\"YOUR_SERPAPI_KEY\"\n```\n\n**方案 B：使用 Bing 搜索 (本地浏览器模式)**\n无需 Key，但需确保 `playwright` 已正确安装浏览器内核。使用时需在命令中附加 `--searcher bing` 参数。\n\n### 3. 运行命令行演示 (CLI)\n\n**运行 WebGLM-10B (默认):**\n```bash\npython cli_demo.py\n```\n*(若使用 Bing 搜索)*\n```bash\npython cli_demo.py --searcher bing\n```\n\n**运行 WebGLM-2B (轻量版):**\n```bash\npython cli_demo.py -w THUDM\u002FWebGLM-2B\n```\n*(若使用 Bing 搜索)*\n```bash\npython cli_demo.py -w THUDM\u002FWebGLM-2B --searcher bing\n```\n\n### 4. 运行 Web 服务\n启动本地 Web 界面进行交互：\n```bash\npython web_demo.py -w THUDM\u002FWebGLM-2B --searcher bing\n```\n启动后在浏览器访问显示的本地地址即可。","某金融分析师需要在极短时间内撰写一份关于“全球固态电池最新技术突破及主要厂商布局”的深度简报，以支持投资决策。\n\n### 没有 WebGLM 时\n- **信息滞后且碎片化**：手动搜索谷歌或百度只能获取零散新闻，难以实时聚合最新的学术论文、专利公告及财报数据，导致分析基于过时信息。\n- **幻觉风险高**：直接使用普通大模型回答专业问题，模型常因缺乏实时联网能力而编造不存在的技术参数或虚构合作案例，需人工逐条核实。\n- **效率低下**：分析师需花费数小时浏览数十个网页、阅读长篇报告并手动摘录关键数据，严重挤占核心分析时间。\n- **上下文丢失**：面对海量搜索结果，难以将不同来源的信息（如技术参数与市场份额）进行逻辑关联，生成的初稿往往缺乏深度洞察。\n\n### 使用 WebGLM 后\n- **实时精准检索**：WebGLM 自动调用搜索引擎，即时抓取并筛选出过去 24 小时内关于固态电池的最新顶会论文、厂商动态及行业数据，确保信息时效性。\n- **可信答案生成**：依托其“检索增强生成”机制，WebGLM 在回答时严格依据检索到的真实网页内容，自动标注信息来源，彻底消除模型胡编乱造的风险。\n- **秒级报告产出**：用户只需输入一个复杂问题，WebGLM 即可在几十秒内完成从多源信息检索、关键数据提取到逻辑综述的全过程，大幅缩短准备周期。\n- **深度逻辑整合**：WebGLM 能理解人类偏好，将分散的技术指标与市场布局自动关联，直接输出结构清晰、具备因果分析深度的专业段落，而非简单的资料堆砌。\n\nWebGLM 通过将实时网络检索与大模型推理深度融合，让专业人士能以最低成本获得既新鲜又可信的高质量决策依据。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_WebGLM_7a9097e1.jpg","THUDM","THUKEG","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTHUDM_698cabbc.png","ChatGLM, GLM-4, CogVLM, CodeGeeX, CogView, ImageReward, CogVideoX | CogDL, GraphMAE, AMiner | Zhipu.ai (Z.ai) & Knowledge Engineering Group (KEG)",null,"keg.cs.tsinghua@gmail.com","thukeg","https:\u002F\u002Fhuggingface.co\u002FTHUDM","https:\u002F\u002Fgithub.com\u002FTHUDM",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",98.6,{"name":87,"color":88,"percentage":89},"Shell","#89e051",1.4,1605,135,"2026-03-24T16:13:57","Apache-2.0",4,"Linux, macOS, Windows","未明确说明具体型号，但提及 INT4 量化下 6GB 显存可支持对话；运行 10B 模型通常建议更高显存（如 16GB+）","未说明",{"notes":99,"python":100,"dependencies":101},"1. 必须安装 Node.js 和 Playwright 及其浏览器依赖（playwright install）。2. 需要配置 SerpAPI Key 用于搜索，或添加 '--searcher bing' 参数使用本地 Bing 搜索。3. 运行前需下载检索器检查点（retriever checkpoint）。4. 确保设备有足够的磁盘空间存储模型和数据。5. 该仓库为简化部署版本。","未说明 (需安装 requirements.txt 中的依赖)",[102,103,104,105,106],"playwright","nodejs","SerpAPI (可选)","torch (隐含)","transformers (隐含)",[14,35],[109,110,111,112],"chatgpt","llm","rlhf","webglm","2026-03-27T02:49:30.150509","2026-04-07T13:27:29.462134",[116,121,126,131,136,141],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},22231,"运行 web_demo 时搜索后一直加载无法显示结果，或者出现 Pydantic 验证错误怎么办？","这通常是由于 Gradio 版本不兼容导致的。请将 gradio 升级到指定版本即可解决：\npip install gradio==3.38.0","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM\u002Fissues\u002F44",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},22230,"目前模型支持中文吗？未来有计划开放中文支持吗？","当前版本主要支持英文，使用中文测试可能会报错。维护者确认后续会有计划开放中文支持，更新后会在 Readme 中同步，请持续关注项目动态。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM\u002Fissues\u002F1",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},22232,"运行时报错 AttributeError: 'ChatGLMTokenizer' object has no attribute 'build_inputs_for_generation' 如何解决？","该错误通常是因为使用了不匹配的模型权重（如误用了 chatglm-6b）。请确保使用的是 WebGLM 专用的模型权重（例如 webglm-2b 模型），不要混用其他 ChatGLM 系列的权重。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM\u002Fissues\u002F6",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},22233,"运行代码时出现 TypeError: 'type' object is not subscriptable 错误怎么办？","这是由于 Python 版本过低导致的（通常发生在 Python 3.8 及以下版本）。代码中使用了 list[Type] 这种新式类型注解语法，需要 Python 3.9+ 才能直接支持。\n解决方案有两种：\n1. 升级 Python 版本到 3.9 或更高。\n2. 如果必须使用旧版本 Python，需修改报错文件，将 list[...] 改为 List[...] 并在文件头部添加 from typing import List。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM\u002Fissues\u002F4",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},22234,"运行时提示 \"Invalid API key\" 错误或 SerpAPI 相关问题如何解决？","可以通过以下两种方式解决：\n1. 显式传入 API Key：在运行命令中添加 -s \u003CYOUR_API_KEY> 参数。\n2. 切换到 Bing 搜索（推荐）：在最新版中已支持 Bing Search，可以通过添加 --searcher bing 参数跳过 SerpAPI 的配置步骤，无需 API Key 即可测试。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FWebGLM\u002Fissues\u002F16",{"id":142,"question_zh":143,"answer_zh":144,"source_url":125},22235,"为什么代码中没有看到 scorer（评分器）部分？","在当前版本中，为了简化部署流程和提高运行效率，开发团队暂时移除了 scorer 模块，以便用户能快速开始使用模型。未来的版本更新中会考虑重新提供 scorer 选项，届时在部署模型时可以选择是否启用该功能。",[]]