[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-CHATS-lab--verbalized-sampling":3,"tool-CHATS-lab--verbalized-sampling":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":32,"env_os":100,"env_gpu":100,"env_ram":100,"env_deps":101,"category_tags":107,"github_topics":109,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":124,"updated_at":125,"faqs":126,"releases":147},6342,"CHATS-lab\u002Fverbalized-sampling","verbalized-sampling","Verbalized Sampling, a training-free prompting strategy to mitigate mode collapse in LLMs by requesting responses with probabilities. Achieves 2-3x diversity improvement while maintaining quality. Model-agnostic framework with CLI\u002FAPI for creative writing, synthetic data generation, and dialogue simulation.","Verbalized Sampling 是一种无需训练的大语言模型提示策略，旨在解决模型生成内容单一、缺乏多样性的“模式坍塌”问题。传统方法往往依赖调整温度参数来增加随机性，但容易牺牲回答质量。Verbalized Sampling 则另辟蹊径，通过指令让模型一次性生成多个带概率值的备选回答，并专门从低概率的“长尾”分布中采样，从而在保持高质量的同时，将内容多样性提升 2 到 3 倍。\n\n该方案完全独立于模型架构，兼容 GPT、Claude、Gemini、Llama 等主流大模型，且与温度设置正交，互不干扰。它特别适合需要丰富创意和多变场景的用户群体：创作者可用其激发故事灵感，研究人员能借此高效生成合成数据，开发者则可通过提供的 Python 包或 CLI 工具轻松集成到对话模拟及开放问答系统中。普通用户只需复制简单的提示词模板，即可在任何聊天机器人中立即体验更多样的回复。作为一种即插即用的框架，Verbalized Sampling 以极低的成本解锁了大模型的潜在创造力，是让 AI 输出更加生动多元的实用利器。","\n\n\u003Cdiv align=\"center\">\n\u003Ch1>Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity\u003C\u002Fh1>\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fverbalized-sampling?style=for-the-badge&logo=pypi&logoColor=white)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fverbalized-sampling\u002F) [![Python](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fverbalized-sampling?style=for-the-badge&logo=python&logoColor=white&label=)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fverbalized-sampling\u002F) [![Homepage](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHomepage-4d8cd8?style=for-the-badge&logo=google-chrome&logoColor=white)](https:\u002F\u002Fwww.verbalized-sampling.com\u002F) [![Paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-2510.01171-red?style=for-the-badge)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.01171)  [![Blog](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBlog-4d8cd8?style=for-the-badge&logo=notion&logoColor=white)](https:\u002F\u002Fsimonucl.notion.site\u002Fverbalized-sampling) [![HuggingFace](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗%20Datasets-FFD21E?style=for-the-badge)](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FCHATS-Lab\u002Fverbalized-sampling)\n\u003C\u002Fdiv>\n\n---\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#quickstart\">Quickstart\u003C\u002Fa> | \n  \u003Ca href=\"#installation-and-usage\">Install\u003C\u002Fa> | \n  \u003Ca href=\"#colab-notebooks\">Colab\u003C\u002Fa> | \n  \u003Ca href=\"#reproducing-paper-results\">Reproduce Results\u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.01171\">Paper\u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fsimonucl.notion.site\u002Fverbalized-sampling\">Blog\u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Ftinyurl.com\u002Fvs-gallery\">Examples\u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fx.com\u002Fdch\u002Fstatus\u002F1978471395173740900\">Practical Tips\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=VoBdywmdim0\">Podcast\u003C\u002Fa> | \n  \u003Ca href=\"#citation\">Citation\u003C\u002Fa>\n\u003C\u002Fp>\n\n**Verbalized Sampling (VS)** is a simple prompting strategy that improves LLM diversity by 2-3x. It works by asking the model to generate multiple responses with their probabilities, then sampling from this distribution. VS is **training-free** (works with any LLM via prompting), **model-agnostic** (GPT, Claude, Gemini, Llama, etc.), **orthogonal to temperature**, and effective across tasks like **creative writing**, **social simulation**, **synthetic data generation**, and **open-ended QA**.\n\n## Quickstart\n\nTo try Verbalized Sampling, just copy and paste this into any chatbot (ChatGPT, Claude, Gemini, etc.). For best results, we recommend starting with models like GPT-5, Claude 4 Opus, and Gemini 2.5 Pro:\n\n```\n\u003Cinstructions>\nGenerate 5 responses to the user query, each within a separate \u003Cresponse> tag. Each \u003Cresponse> must include a \u003Ctext> and a numeric \u003Cprobability>.\nPlease sample at random from the tails of the distribution, such that the probability of each response is less than 0.10.\n\u003C\u002Finstructions>\n\nTell me a short story about a bear.\n```\n\nIf you want more stories, just respond and ask `Tell me 5 more stories` in the same conversation. For even better results, paste this into a `system prompt` instead:\n\n```\nYou are a helpful assistant. For each query, please generate a set of five possible responses, each within a separate \u003Cresponse> tag. Each \u003Cresponse> must include a \u003Ctext> and a numeric \u003Cprobability>.\nPlease sample at random from the tails of the distribution, such that the probability of each response is less than 0.10.\n```\nFor practical tips on getting the most out of this technique and general troubleshooting, please refer to this [X\u002FTwitter thread](https:\u002F\u002Fx.com\u002Fdch\u002Fstatus\u002F1978471395173740900)!\n\n## Installation and Usage\n\nFor all of the above in a single function call, the ability to automatically sample from the verbalized responses, and LangChain integration, use our Python package:\n\n```bash\npip install verbalized-sampling\n```\n\n```python\n# Set OPENAI_API_KEY or OPENROUTER_API_KEY in bash\nfrom verbalized_sampling import verbalize\n\n# Generate distribution of responses\ndist = verbalize(\"Tell me a joke\", k=5, tau=0.10, temperature=0.9)\n\n# Sample from the distribution\njoke = dist.sample(seed=42)\nprint(joke.text)\n```\n\n## Colab Notebooks\n\nHere are some examples of how to use verbalized sampling for generating more diverse stories, ideas, images, and how to use our package:\n\n| Notebook                           | Description                                                                                                                                  | Code                                             | Run it Yourself!                                                                                                                                                                      |\n| ---------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| **Direct vs. Verbalized Sampling** | Head-to-head comparison demonstrating VS effectiveness: 2-3x diversity improvement in creative tasks while maintaining quality               | [View on GitHub](notebooks\u002Fvs_base.ipynb)        | [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1UDk4W5w6gF0dQ9Tpu0sPQethEht51GXL#offline=true&sandboxMode=true) |\n| **Image Generation with VS**       | Visual comparison of Direct Prompting vs. Verbalized Sampling for text-to-image generation, showcasing creative diversity in artistic styles | [View on GitHub](notebooks\u002Fvs_with_image.ipynb)  | [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1J18VJRnrCjIb6sTivY-znb8C3JsLQCIz#offline=true&sandboxMode=true) |\n| **Complete Framework Tutorial**    | Step-by-step guide to using verbalized sampling: API basics, transforms, selection methods, recipes, and advanced features                   | [View on GitHub](notebooks\u002Fframework_demo.ipynb) | [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1eC0nIUVC1kyANxxzhNib44qmPphdWy9o#offline=true&sandboxMode=true) |\n\n## Reproducing Paper Results\n\nOur library includes everything you need to reproduce the results from our paper. For example:\n\n```bash\n# Run creative writing experiments\npython scripts\u002Ftasks\u002Frun_poem.py --model gpt-4.1 --methods direct vs_standard --num-responses 50\n\n# Evaluate bias mitigation on geographic data\npython scripts\u002Ftasks\u002Frun_state_name.py --model anthropic\u002Fclaude-sonnet-4 --methods direct vs_standard\n\n# Compare diversity metrics across methods\npython scripts\u002Ftasks\u002Frun_story.py --model gpt-4.1 --methods direct vs_standard vs_cot --metrics diversity ngram\n```\n\nFor complete experiment instructions with exact commands, parameter settings, and expected outputs, see **[EXPERIMENTS.md](scripts\u002FEXPERIMENTS.md)** which provides 1-to-1 mapping between paper sections and experiment scripts.\n\n### HF Datasets\nWe also released the generated datasets in our lab's HF Space. Please check the corresponding README for the exact schema.\n**📦 Full Collection:** https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FCHATS-Lab\u002Fverbalized-sampling\n\n| Task | Dataset |\n|------|---------|\n| **Joke Generation**| [🤗 Verbalized-Sampling-Joke-Generation](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Joke-Generation) |\n| **Random Number Generation** | [🤗 Verbalized-Sampling-Random-Number-Generator](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Random-Number-Generator) | \n| **Open-Ended QA** | [🤗 Verbalized-Sampling-Open-Ended-QA](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Open-Ended-QA) |\n| **Dialogue Simulation** | [🤗 Verbalized-Sampling-Dialogue-Simulation](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Dialogue-Simulation) |\n| **Synthetic Data (Math)** | [🤗 Verbalized-Sampling-Synthetic-Data-Generation](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Synthetic-Data-Generation) |\n  \n## Citation\n\nIf you use Verbalized Sampling in your research, please cite our paper:\n\n```bibtex\n@misc{zhang2025verbalizedsamplingmitigatemode,\n  title={Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity},\n  author={Jiayi Zhang and Simon Yu and Derek Chong and Anthony Sicilia and Michael R. Tomz and Christopher D. Manning and Weiyan Shi},\n  year={2025},\n  eprint={2510.01171},\n  archivePrefix={arXiv},\n  primaryClass={cs.CL},\n  url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.01171}\n}\n```\n\n## License\n\nThis project is licensed under the Apache License 2.0 - see the [LICENSE](LICENSE) file for details.\n","\u003Cdiv align=\"center\">\n\u003Ch1>言语化采样：如何缓解模式坍缩并释放大模型的多样性\u003C\u002Fh1>\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fverbalized-sampling?style=for-the-badge&logo=pypi&logoColor=white)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fverbalized-sampling\u002F) [![Python](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fverbalized-sampling?style=for-the-badge&logo=python&logoColor=white&label=)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fverbalized-sampling\u002F) [![主页](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHomepage-4d8cd8?style=for-the-badge&logo=google-chrome&logoColor=white)](https:\u002F\u002Fwww.verbalized-sampling.com\u002F) [![论文](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-2510.01171-red?style=for-the-badge)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.01171)  [![博客](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBlog-4d8cd8?style=for-the-badge&logo=notion&logoColor=white)](https:\u002F\u002Fsimonucl.notion.site\u002Fverbalized-sampling) [![HuggingFace](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗%20Datasets-FFD21E?style=for-the-badge)](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FCHATS-Lab\u002Fverbalized-sampling)\n\u003C\u002Fdiv>\n\n---\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#quickstart\">快速入门\u003C\u002Fa> | \n  \u003Ca href=\"#installation-and-usage\">安装与使用\u003C\u002Fa> | \n  \u003Ca href=\"#colab-notebooks\">Colab 笔记本\u003C\u002Fa> | \n  \u003Ca href=\"#reproducing-paper-results\">复现论文结果\u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.01171\">论文\u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fsimonucl.notion.site\u002Fverbalized-sampling\">博客\u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Ftinyurl.com\u002Fvs-gallery\">示例\u003C\u002Fa> | \n  \u003Ca href=\"https:\u002F\u002Fx.com\u002Fdch\u002Fstatus\u002F1978471395173740900\">实用技巧\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=VoBdywmdim0\">播客\u003C\u002Fa> | \n  \u003Ca href=\"#citation\">引用\u003C\u002Fa>\n\u003C\u002Fp>\n\n**言语化采样（VS）** 是一种简单的提示策略，能够将大模型的多样性提升 2–3 倍。其原理是让模型生成多个响应及其对应的概率，然后从该分布中进行采样。VS 具有 **无需训练**（仅通过提示即可适用于任何大模型）、**模型无关**（GPT、Claude、Gemini、Llama 等）、**与温度参数正交** 的特点，并且在 **创意写作**、**社会模拟**、**合成数据生成** 和 **开放式问答** 等任务中均表现出色。\n\n## 快速入门\n\n要尝试言语化采样，只需将其复制并粘贴到任何聊天机器人（ChatGPT、Claude、Gemini 等）中即可。为获得最佳效果，建议从 GPT-5、Claude 4 Opus 和 Gemini 2.5 Pro 等模型开始：\n\n```\n\u003Cinstructions>\n请为用户的问题生成 5 条回复，每条回复用单独的 \u003Cresponse> 标签包裹。每个 \u003Cresponse> 必须包含 \u003Ctext> 和一个数值型 \u003Cprobability>。\n请从分布的尾部随机采样，使得每条回复的概率都小于 0.10。\n\u003C\u002Finstructions>\n\n给我讲一个关于熊的小故事吧。\n```\n\n如果想要更多故事，只需在同一对话中回复 `再讲 5 个故事` 即可。若想进一步提升效果，可以将以下内容作为系统提示粘贴进去：\n\n```\n你是一个乐于助人的助手。对于每一个问题，请生成一组五条可能的回复，每条回复用单独的 \u003Cresponse> 标签包裹。每个 \u003Cresponse> 必须包含 \u003Ctext> 和一个数值型 \u003Cprobability>。\n请从分布的尾部随机采样，使得每条回复的概率都小于 0.10。\n```\n\n有关如何充分利用该技术及常见问题排查的实用技巧，请参阅此 [X\u002FTwitter 帖子](https:\u002F\u002Fx.com\u002Fdch\u002Fstatus\u002F1978471395173740900)！\n\n## 安装与使用\n\n如需一键完成上述所有操作、自动从言语化响应中采样以及与 LangChain 集成的功能，可使用我们的 Python 包：\n\n```bash\npip install verbalized-sampling\n```\n\n```python\n# 在 bash 中设置 OPENAI_API_KEY 或 OPENROUTER_API_KEY\nfrom verbalized_sampling import verbalize\n\n# 生成回复分布\ndist = verbalize(\"给我讲个笑话\", k=5, tau=0.10, temperature=0.9)\n\n# 从分布中采样\njoke = dist.sample(seed=42)\nprint(joke.text)\n```\n\n## Colab 笔记本\n\n以下是一些使用言语化采样生成更丰富多样的故事、想法、图像，以及如何使用我们软件包的示例：\n\n| 笔记本                           | 描述                                                                                                                                  | 代码                                             | 立即运行！                                                                                                                                                                      |\n| ---------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| **直接采样 vs. 言语化采样**       | 对比演示 VS 的有效性：在保持质量的同时，使创意任务中的多样性提升 2–3 倍                                               | [在 GitHub 上查看](notebooks\u002Fvs_base.ipynb)        | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1UDk4W5w6gF0dQ9Tpu0sPQethEht51GXL#offline=true&sandboxMode=true) |\n| **使用 VS 进行图像生成**           | 直接提示与言语化采样在文本到图像生成方面的视觉对比，展示艺术风格上的创意多样性                                           | [在 GitHub 上查看](notebooks\u002Fvs_with_image.ipynb)  | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1J18VJRnrCjIb6sTivY-znb8C3JsLQCIz#offline=true&sandboxMode=true) |\n| **完整框架教程**                   | 使用言语化采样的分步指南：API 基础、变换方法、选择策略、配方及高级功能                                                   | [在 GitHub 上查看](notebooks\u002Fframework_demo.ipynb) | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1eC0nIUVC1kyANxxzhNib44qmPphdWy9o#offline=true&sandboxMode=true) |\n\n## 复现论文结果\n\n我们的库包含了复现论文结果所需的一切。例如：\n\n```bash\n# 运行创意写作实验\npython scripts\u002Ftasks\u002Frun_poem.py --model gpt-4.1 --methods direct vs_standard --num-responses 50\n\n# 评估地理数据上的偏见缓解效果\npython scripts\u002Ftasks\u002Frun_state_name.py --model anthropic\u002Fclaude-sonnet-4 --methods direct vs_standard\n\n# 比较不同方法下的多样性指标\npython scripts\u002Ftasks\u002Frun_story.py --model gpt-4.1 --methods direct vs_standard vs_cot --metrics diversity ngram\n```\n\n完整的实验说明，包括确切的命令、参数设置和预期输出，请参阅 **[EXPERIMENTS.md](scripts\u002FEXPERIMENTS.md)** 文件，其中提供了论文各部分与实验脚本之间的对应关系。\n\n### HF 数据集\n我们还在实验室的 HF Space 上发布了生成的数据集。请查看相应的 README 文件以了解确切的模式。\n**📦 完整合集:** https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FCHATS-Lab\u002Fverbalized-sampling\n\n| 任务 | 数据集 |\n|------|---------|\n| **笑话生成**| [🤗 Verbalized-Sampling-Joke-Generation](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Joke-Generation) |\n| **随机数生成** | [🤗 Verbalized-Sampling-Random-Number-Generator](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Random-Number-Generator) | \n| **开放问答** | [🤗 Verbalized-Sampling-Open-Ended-QA](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Open-Ended-QA) |\n| **对话模拟** | [🤗 Verbalized-Sampling-Dialogue-Simulation](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Dialogue-Simulation) |\n| **合成数据（数学）** | [🤗 Verbalized-Sampling-Synthetic-Data-Generation](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FCHATS-Lab\u002FVerbalized-Sampling-Synthetic-Data-Generation) |\n\n## 引用\n\n如果您在研究中使用了 Verbalized Sampling，请引用我们的论文：\n\n```bibtex\n@misc{zhang2025verbalizedsamplingmitigatemode,\n  title={Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity},\n  author={Jiayi Zhang and Simon Yu and Derek Chong and Anthony Sicilia and Michael R. Tomz and Christopher D. Manning and Weiyan Shi},\n  year={2025},\n  eprint={2510.01171},\n  archivePrefix={arXiv},\n  primaryClass={cs.CL},\n  url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.01171}\n}\n```\n\n## 许可证\n\n本项目采用 Apache License 2.0 许可证——详情请参阅 [LICENSE](LICENSE) 文件。","# Verbalized Sampling 快速上手指南\n\nVerbalized Sampling (VS) 是一种无需训练的提示策略，旨在通过让大语言模型（LLM）生成带有概率的多个响应并从中采样，从而将模型输出的多样性提升 2-3 倍。该方法适用于创意写作、社会模拟、合成数据生成及开放式问答等场景，兼容 GPT、Claude、Gemini、Llama 等主流模型。\n\n## 环境准备\n\n*   **系统要求**：支持 Python 3.8+ 的操作系统（Linux, macOS, Windows）。\n*   **前置依赖**：\n    *   Python 包管理工具 `pip`。\n    *   有效的 LLM API 密钥（如 `OPENAI_API_KEY` 或 `OPENROUTER_API_KEY`）。\n*   **网络建议**：由于需要调用海外大模型 API，请确保您的开发环境具备访问国际互联网的能力，或配置好相应的代理设置。\n\n## 安装步骤\n\n使用 pip 直接安装官方发布的 Python 包：\n\n```bash\npip install verbalized-sampling\n```\n\n> **提示**：如果下载速度较慢，可尝试使用国内镜像源加速安装：\n> ```bash\n> pip install verbalized-sampling -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\n### 1. 代码调用（推荐）\n\n通过 Python 库调用，可自动处理响应分布生成与采样逻辑，并支持 LangChain 集成。\n\n**示例代码：**\n\n```python\n# 请在终端\u002Fbash 中预先设置环境变量: export OPENAI_API_KEY=\"your_key\" 或 export OPENROUTER_API_KEY=\"your_key\"\nfrom verbalized_sampling import verbalize\n\n# 生成响应分布\n# k: 生成响应的数量, tau: 概率阈值 (只采样概率低于此值的长尾响应), temperature: 温度参数\ndist = verbalize(\"Tell me a joke\", k=5, tau=0.10, temperature=0.9)\n\n# 从分布中采样\njoke = dist.sample(seed=42)\nprint(joke.text)\n```\n\n### 2. 直接提示词调用（无需安装）\n\n如果您希望直接在 ChatGPT、Claude 或 Gemini 网页版中使用，可将以下指令作为 **System Prompt（系统提示词）** 或直接发送给模型：\n\n```text\nYou are a helpful assistant. For each query, please generate a set of five possible responses, each within a separate \u003Cresponse> tag. Each \u003Cresponse> must include a \u003Ctext> and a numeric \u003Cprobability>.\nPlease sample at random from the tails of the distribution, such that the probability of each response is less than 0.10.\n```\n\n随后输入您的具体任务，例如：\n```text\nTell me a short story about a bear.\n```\n\n若需更多样化的结果，可在同一对话中继续回复 `Tell me 5 more stories`。","某游戏工作室的剧情策划正在利用大语言模型批量生成 NPC 的个性化对话，以丰富开放世界游戏的沉浸感。\n\n### 没有 verbalized-sampling 时\n- **回复高度雷同**：模型倾向于输出“安全”但平庸的套话，不同 NPC 对同一事件的反应千篇一律，缺乏性格区分度。\n- **创意陷入瓶颈**：即使调高温度参数（Temperature），生成的内容也往往只是在措辞上微调，核心逻辑和情节走向依然单一（模式坍塌）。\n- **人工成本高昂**：策划人员不得不花费大量时间手动修改或重写生成的对话，才能勉强达到“多样化”的验收标准。\n- **长尾创意缺失**：那些概率较低但极具戏剧张力或幽默感的“非典型”回复，几乎永远不会被模型主动选中输出。\n\n### 使用 verbalized-sampling 后\n- **多样性显著提升**：通过让模型显式输出多个带概率的回复并专门采样“长尾”选项，NPC 对话的风格差异扩大了 2-3 倍，真正实现了千人千面。\n- **挖掘独特剧情**：能够稳定获取那些原本被模型抑制的低概率创意（如古怪的比喻或反常的情绪反应），为游戏注入意想不到的惊喜。\n- **质量与创意兼得**：无需牺牲回答的通顺度和逻辑性，仅在采样策略上做文章，既保留了高质量基准，又打破了思维定势。\n- **工作流自动化**：直接通过 API 集成该策略，批量生产出的素材可直接用于游戏测试，大幅减少了人工二次创作的时间。\n\nverbalized-sampling 通过一种无需训练的提示策略，成功解锁了大模型潜藏的长尾创造力，让机器生成的文本从“标准答案”变成了“无限可能”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCHATS-lab_verbalized-sampling_4cae3442.png","CHATS-lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FCHATS-lab_c8d0e4d6.png","Conversation, Human-AI Technology, and Safety Lab",null,"shi_weiyan","https:\u002F\u002Fwyshi.github.io\u002Fgroup.html","https:\u002F\u002Fgithub.com\u002FCHATS-lab",[80,84,88,92],{"name":81,"color":82,"percentage":83},"Python","#3572A5",62.3,{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",37.3,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0.2,{"name":93,"color":94,"percentage":95},"Makefile","#427819",0.1,736,83,"2026-04-10T11:36:25","NOASSERTION","未说明",{"notes":102,"python":103,"dependencies":104},"该工具主要为提示词策略（Prompting Strategy），无需训练，兼容任意大语言模型（如 GPT, Claude, Gemini, Llama 等）。运行方式分为两种：1. 直接在聊天界面复制粘贴提示词使用；2. 通过 Python 包调用 API（需配置 OPENAI_API_KEY 或 OPENROUTER_API_KEY）。由于是基于 API 调用的轻量级库，对本地 GPU、显存及内存无特殊硬件要求，具体资源消耗取决于所调用的后端模型。","3.x (根据 PyPI badge 推断支持主流 Python 3 版本，具体下限未明确)",[64,105,106],"openai (隐含，需设置 OPENAI_API_KEY)","langchain (隐含，提及集成)",[13,35,16,14,108],"其他",[110,111,112,113,114,115,116,117,118,119,120,121,122,123],"claude","creative-writing","diversity","gemini","gpt","large-language-models","llm","mode-collapse","prompt-engineering","python","qwen","sampling","synthetic-data","dialogue-simulation","2026-03-27T02:49:30.150509","2026-04-11T03:24:24.023904",[127,132,137,142],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},28715,"Verbalized Sampling (VS) 是否适用于数学问题求解（如 AIME）？","VS 的核心优势在于激发多样化的推理轨迹，而非生成错误答案。对于数学等确定性问题的目标是正确性而非多样性。如果模型本身已经知道正确答案，VS 可以帮助其找到不同的有效解题路径，而不会导致错误。此外，利用 VS 生成多样化的（即使是错误的）推理过程，对于引导下一代推理模型的强化学习训练也是一个有前景的方向。","https:\u002F\u002Fgithub.com\u002FCHATS-lab\u002Fverbalized-sampling\u002Fissues\u002F32",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},28716,"在哪里可以下载论文中使用的生成数据（如创意写作、对话模拟和数学合成数据）？","生成的数据已发布在 HuggingFace 上。完整集合链接为：https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FCHATS-Lab\u002Fverbalized-sampling。具体任务数据集包括：\n- 笑话生成：Verbalized-Sampling-Joke-Generation\n- 随机数生成：Verbalized-Sampling-Random-Number-Generator\n- 开放式问答：Verbalized-Sampling-Open-Ended-QA\n- 对话模拟：Verbalized-Sampling-Dialogue-Simulation\n- 数学合成数据：Verbalized-Sampling-Synthetic-Data-Generation","https:\u002F\u002Fgithub.com\u002FCHATS-lab\u002Fverbalized-sampling\u002Fissues\u002F33",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},28717,"如何修改代码以调用 DeepSeek 模型的 API？","有两种方法：\n1. 通过 OpenRouter 调用（推荐，改动最小）：仓库主要依赖 OpenRouter 服务调用非 OpenAI 模型，它支持所有 DeepSeek 模型。你可以通过 OpenRouter 的 BYOK (Bring Your Own Key) 功能提供 DeepSeek API 密钥。\n2. 直接使用 DeepSeek API：需修改 `verbalized_sampling\u002Fllms\u002Fopenrouter.py` 文件的第 67-70 行，将客户端初始化为：\n```python\nclient = OpenAI(api_key=os.environ.get('DEEPSEEK_API_KEY'), base_url=\"https:\u002F\u002Fapi.deepseek.com\")\n```","https:\u002F\u002Fgithub.com\u002FCHATS-lab\u002Fverbalized-sampling\u002Fissues\u002F36",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},28718,"论文中创意写作评估（笑话、诗歌、故事）使用的具体数据集是什么？为什么文件中的行数与论文描述的 100 条数据不匹配？","数据集说明如下：\n- 笑话 (Joke)：`data\u002Fjoke.txt` 文件确实包含正好 100 个数据点（索引从 1 开始可能导致计数误解）。\n- 诗歌 (Poem) 和 故事 (Story)：数据源自 Creativity Index 仓库。为了获得用于评估的特定 100 个数据点，代码使用 **种子 42 (seed 42)** 从完整数据文件中进行了采样。\n您可以直接使用提供的代码库复现实验，因为其中已包含该采样逻辑。","https:\u002F\u002Fgithub.com\u002FCHATS-lab\u002Fverbalized-sampling\u002Fissues\u002F34",[]]