[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-henrywoo--chatllama":3,"tool-henrywoo--chatllama":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,2,"2026-04-17T11:29:14",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":77,"owner_twitter":75,"owner_website":75,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":75,"difficulty_score":87,"env_os":88,"env_gpu":89,"env_ram":88,"env_deps":90,"category_tags":95,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":96,"updated_at":97,"faqs":98,"releases":114},8498,"henrywoo\u002Fchatllama","chatllama","ChatLLaMA 📢 Open source implementation for LLaMA-based ChatGPT runnable in a single GPU. 15x faster training process than ChatGPT","ChatLLaMA 是一个基于 Meta LLaMA 大语言模型的开源项目，旨在帮助开发者构建类似 ChatGPT 的对话式 AI 服务。它核心解决了 LLaMA 原生模型缺乏针对指令任务微调（RLHF）的问题，让用户能够利用自己的数据集，通过强化学习从人类反馈中训练出具备流畅对话能力的智能助手。\n\n该项目特别适合拥有单张 GPU 资源的开发者、研究人员及技术爱好者。其最大的技术亮点在于极高的效率与低成本：得益于 LLaMA 架构本身的小体积优势，ChatLLaMA 的训练速度比传统 ChatGPT 流程快约 15 倍，并内置了 DeepSpeed ZERO 技术以进一步加速微调过程。此外，它全面支持从 7B 到 65B 的各种 LLaMA 模型规格，用户可根据对训练时间和推理性能的需求灵活选择。需要注意的是，ChatLLaMA 提供的是完整的算法实现代码，使用者需自行向 Meta 申请获取基础模型权重即可开始定制属于自己的对话模型。","# ChatLLaMA\r\n\r\n> 📢 Open source implementation for LLaMA-based ChatGPT runnable in a single GPU. 15x faster training process than `ChatGPT`\r\n\r\n- 🔥 Please check [`pyllama`](https:\u002F\u002Fgithub.com\u002Fjuncongmoo\u002Fpyllama) for `LLaMA` installation and `single GPU inference` setup.\r\n- 🔥 To train ChatGPT in 5 mins - [minichatgpt](https:\u002F\u002Fgithub.com\u002Fjuncongmoo\u002Fminichatgpt)\r\n\r\n\r\nMeta has recently released LLaMA, a collection of foundational large language models ranging from 7 to 65 billion parameters.\r\nLLaMA is creating a lot of excitement because it is smaller than GPT-3 but has better performance. For example, LLaMA's 13B architecture outperforms GPT-3 despite being 10 times smaller. This new collection of fundamental models opens the door to faster inference performance and chatGPT-like real-time assistants, while being cost-effective and running on a single GPU.\r\n\r\nHowever, LLaMA was not fine-tuned for instruction task with a Reinforcement Learning from Human Feedback (RLHF) training process.\r\n\r\nThe good news is that we introduce `ChatLLaMA`, the first open source implementation of LLaMA based on RLHF:\r\n\r\n- A complete open source implementation that enables you to build a ChatGPT-style service based on pre-trained LLaMA models.\r\n- Compared to the original ChatGPT, the training process and single-GPU inference are much faster and cheaper by taking advantage of the smaller size of LLaMA architectures.\r\n- ChatLLaMA has built-in support for DeepSpeed ZERO to speedup the fine-tuning process.\r\n- The library also supports all LLaMA model architectures (7B, 13B, 33B, 65B), so that you can fine-tune the model according to your preferences for training time and inference performance.\r\n\r\n\r\n\u003Cimg width=\"1032\" alt=\"Screen Shot 2023-02-26 at 10 56 13 PM\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhenrywoo_chatllama_readme_851d31e7577f.png\">\r\n\r\nImage from [OpenAI’s blog](https:\u002F\u002Fopenai.com\u002Fblog\u002Fchatgpt).\r\n\r\n\r\n# Installation\r\n\r\n```\r\npip install chatllama\r\n```\r\n\r\n\r\n# Get started with ChatLLaMA\r\n\r\n> :warning: Please note this code represents the algorithmic implementation for RLHF training process of LLaMA and does not contain the model weights. To access the model weights, you need to apply to Meta's [form](https:\u002F\u002Fforms.gle\u002Fjk851eBVbX1m5TAv5).\r\n\r\nChatLLaMA allows you to easily train LLaMA-based architectures in a similar way to ChatGPT, using RLHF.\r\nFor example, below is the code to start the training in the case of ChatLLaMA 7B.\r\n\r\n```python\r\nfrom chatllama.rlhf.trainer import RLTrainer\r\nfrom chatllama.rlhf.config import Config\r\n\r\npath = \"path_to_config_file.yaml\"\r\nconfig = Config(path=path)\r\ntrainer = RLTrainer(config.trainer)\r\ntrainer.distillate()\r\ntrainer.train()\r\ntrainer.training_stats.plot()\r\n```\r\n\r\nNote that you should provide Meta's original weights and your custom dataset before starting the fine-tuning process. Alternatively, you can generate your own dataset using LangChain's agents.\r\n\r\n```python\r\npython generate_dataset.py\r\n```\r\n\r\n","# ChatLLaMA\n\n> 📢 基于 LLaMA 的开源 ChatGPT 实现，可在单张 GPU 上运行。训练速度比 `ChatGPT` 快 15 倍。\n\n- 🔥 请查看 [`pyllama`](https:\u002F\u002Fgithub.com\u002Fjuncongmoo\u002Fpyllama)，了解 `LLaMA` 的安装及 `单 GPU 推理` 的设置。\n- 🔥 如果想在 5 分钟内训练出一个 ChatGPT——试试 [minichatgpt](https:\u002F\u002Fgithub.com\u002Fjuncongmoo\u002Fminichatgpt)！\n\nMeta 近日发布了 LLaMA，这是一系列基础大型语言模型的集合，参数规模从 70 亿到 650 亿不等。LLaMA 备受关注，因为它比 GPT-3 更小，但性能却更优。例如，LLaMA 的 130 亿参数架构尽管体积仅为 GPT-3 的十分之一，其表现却超越了后者。这一全新的基础模型系列为更快的推理性能、类 ChatGPT 的实时助手打开了大门，同时成本更低，且仅需单张 GPU 即可运行。\n\n然而，LLaMA 并未通过基于人类反馈的强化学习（RLHF）训练来针对指令任务进行微调。\n\n好消息是，我们推出了 `ChatLLaMA`，这是首个基于 RLHF 的 LLaMA 开源实现：\n\n- 完整的开源实现，使您能够基于预训练的 LLaMA 模型构建类似 ChatGPT 的服务。\n- 相较于原始的 ChatGPT，由于 LLaMA 架构更小，其训练过程和单 GPU 推理都更加迅速且经济。\n- ChatLLaMA 内置对 DeepSpeed ZERO 的支持，以加速微调过程。\n- 该库还支持所有 LLaMA 模型架构（7B、13B、33B、65B），因此您可以根据对训练时间和推理性能的需求选择合适的模型进行微调。\n\n\n\u003Cimg width=\"1032\" alt=\"Screen Shot 2023-02-26 at 10 56 13 PM\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhenrywoo_chatllama_readme_851d31e7577f.png\">\n\n图片来自 [OpenAI 官方博客](https:\u002F\u002Fopenai.com\u002Fblog\u002Fchatgpt)。\n\n\n# 安装\n\n```bash\npip install chatllama\n```\n\n\n# 使用 ChatLLaMA 入门\n\n> :warning: 请注意，这段代码仅实现了 LLaMA 的 RLHF 训练算法，并不包含模型权重。要获取模型权重，您需要向 Meta 的 [申请表](https:\u002F\u002Fforms.gle\u002Fjk851eBVbX1m5TAv5) 提交申请。\n\nChatLLaMA 让您能够以类似于 ChatGPT 的方式，利用 RLHF 轻松训练基于 LLaMA 的模型架构。例如，以下代码展示了如何启动 ChatLLaMA 7B 的训练过程。\n\n```python\nfrom chatllama.rlhf.trainer import RLTrainer\nfrom chatllama.rlhf.config import Config\n\npath = \"path_to_config_file.yaml\"\nconfig = Config(path=path)\ntrainer = RLTrainer(config.trainer)\ntrainer.distillate()\ntrainer.train()\ntrainer.training_stats.plot()\n```\n\n需要注意的是，在开始微调之前，您需要提供 Meta 的原始权重以及您自定义的数据集。此外，您也可以使用 LangChain 的智能体生成自己的数据集。\n\n```bash\npython generate_dataset.py\n```","# ChatLLaMA 快速上手指南\n\nChatLLaMA 是一个基于 LLaMA 模型的开源实现，支持通过人类反馈强化学习（RLHF）构建类似 ChatGPT 的对话服务。该项目针对单 GPU 环境进行了优化，训练速度显著快于原始 ChatGPT 方案，并内置 DeepSpeed ZERO 加速微调过程。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统和依赖要求：\n\n*   **硬件要求**：至少一张支持 CUDA 的 NVIDIA GPU（项目主打单卡运行，具体显存需求取决于选择的模型大小：7B\u002F13B\u002F33B\u002F65B）。\n*   **前置依赖**：\n    *   Python 环境。\n    *   **LLaMA 基础环境**：本项目不包含 LLaMA 的安装脚本，请先参考 [`pyllama`](https:\u002F\u002Fgithub.com\u002Fjuncongmoo\u002Fpyllama) 完成 LLaMA 的安装及单卡推理环境配置。\n    *   **模型权重**：代码仅包含算法实现，不包含模型权重。您需要向 Meta 官方提交 [申请表](https:\u002F\u002Fforms.gle\u002Fjk851eBVbX1m5TAv5) 获取原始权重文件。\n    *   **数据集**：准备自定义指令数据集，或使用项目提供的脚本生成数据。\n\n## 安装步骤\n\n使用 pip 直接安装 ChatLLaMA 核心库：\n\n```bash\npip install chatllama\n```\n\n> **提示**：如果下载速度较慢，可尝试使用国内镜像源加速安装：\n> ```bash\n> pip install chatllama -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\n以下是基于 ChatLLaMA 7B 模型启动 RLHF 训练的最小化示例。\n\n### 1. 准备数据\n在开始微调前，您需要准备数据集。您可以使用 LangChain 代理生成自己的数据集：\n\n```bash\npython generate_dataset.py\n```\n\n### 2. 启动训练\n创建配置文件（`config_file.yaml`），然后使用以下 Python 代码加载配置并启动训练流程（包括蒸馏、训练及统计图表生成）：\n\n```python\nfrom chatllama.rlhf.trainer import RLTrainer\nfrom chatllama.rlhf.config import Config\n\npath = \"path_to_config_file.yaml\"\nconfig = Config(path=path)\ntrainer = RLTrainer(config.trainer)\ntrainer.distillate()\ntrainer.train()\ntrainer.training_stats.plot()\n```\n\n**注意**：请在配置文件中正确指向您从 Meta 获取的原始权重路径以及准备好的自定义数据集路径。","一家初创教育科技公司希望基于自有题库构建一个能进行苏格拉底式引导教学的 AI 助教，但受限于预算仅拥有单张消费级显卡。\n\n### 没有 chatllama 时\n- **硬件门槛极高**：想要复现 ChatGPT 级别的指令微调效果，通常需要多卡 A100 集群，单张显卡无法加载大模型或训练速度极慢，导致项目直接搁置。\n- **训练周期漫长**：即使勉强在云端租用算力进行全量微调，由于缺乏针对 LLaMA 架构的深度优化，完成一轮 RLHF（人类反馈强化学习）训练可能需要数周时间，严重拖慢产品迭代。\n- **技术落地困难**：官方 LLaMA 模型未针对对话场景进行 RLHF 对齐，直接用于教学会出现“只背答案不引导”的问题，而自行构建完整的 RLHF 训练流水线代码量巨大且极易出错。\n- **成本难以承受**：高昂的云端算力租赁费和漫长的调试时间，使得小规模团队在模型上线前就可能耗尽资金。\n\n### 使用 chatllama 后\n- **单卡即可运行**：chatllama 专为单 GPU 环境优化，利用 LLaMA 较小的参数量优势，让团队在本地单张显卡上就能流畅运行从 7B 到 65B 的全系列模型进行推理和微调。\n- **训练效率飞跃**：内置 DeepSpeed ZERO 加速技术，将原本需要数周的 RLHF 训练过程缩短至分钟级（官方宣称比传统 ChatGPT 训练快 15 倍），一天内即可完成多轮策略迭代。\n- **开箱即用的 RLHF 流程**：提供了完整的开源实现，开发者只需几行代码调用 `RLTrainer` 并导入自定义的教学问答数据集，即可快速获得具备“引导式提问”能力的专属模型。\n- **极致性价比**：大幅降低了对昂贵算力集群的依赖，使得小团队也能以极低的成本拥有媲美商业闭源模型的定制化对话能力。\n\nchatllama 通过极致的单卡优化和高效的 RLHF 实现，让资源有限的团队也能低成本、快速地构建出高质量的垂直领域对话助手。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhenrywoo_chatllama_be0da8d9.png","henrywoo","Henry","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhenrywoo_a4a5938b.png",null,"USA","wufuheng@gmail.com","https:\u002F\u002Fgithub.com\u002Fhenrywoo",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,1199,131,"2026-04-16T07:58:59",4,"未说明","必需 NVIDIA GPU（支持单卡运行），具体型号和显存大小取决于所选模型架构（7B-65B），需配合 DeepSpeed ZERO 使用",{"notes":91,"python":88,"dependencies":92},"本项目仅提供基于 RLHF 的算法实现，不包含模型权重。用户需自行向 Meta 申请获取 LLaMA 原始权重文件后方可进行微调或推理。支持所有 LLaMA 架构（7B, 13B, 33B, 65B），可根据训练时间和推理性能需求选择。",[93,94],"pyllama","DeepSpeed",[35,14],"2026-03-27T02:49:30.150509","2026-04-18T00:45:52.809502",[99,104,109],{"id":100,"question_zh":101,"answer_zh":102,"source_url":103},38044,"项目是否支持 Hugging Face Transformers 或量化模型？","目前不建议集成。维护者指出相关的 Hugging Face 仓库和量化方案（如 GPTQ-for-LLaMa）尚不稳定，测试表明它们无法正常工作。建议等待官方正式支持或更稳定的版本发布。","https:\u002F\u002Fgithub.com\u002Fhenrywoo\u002Fchatllama\u002Fissues\u002F3",{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},38045,"如何使用或分发基于此项目的代码以符合许可证要求？","本项目遵循 Apache 2.0 许可证。如果复用代码，必须保留原始版权声明并明确提及原作者的工作。若发现未注明出处的复制行为，需立即添加署名以避免违规。","https:\u002F\u002Fgithub.com\u002Fhenrywoo\u002Fchatllama\u002Fissues\u002F1",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},38043,"导入 'ConversationalBufferWindowMemory' 时出现 ImportError 怎么办？","这是一个拼写错误。请将代码中的 'ConversationalBufferWindowMemory' 更正为 'ConversationBufferWindowMemory'（注意去掉 's'）。","https:\u002F\u002Fgithub.com\u002Fhenrywoo\u002Fchatllama\u002Fissues\u002F6",[115],{"id":116,"version":117,"summary_zh":75,"released_at":118},306235,"v0.0.4","2023-02-27T19:41:37"]