[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ParisNeo--lollms-webui":3,"tool-ParisNeo--lollms-webui":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":71,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":125,"forks":126,"last_commit_at":127,"license":128,"difficulty_score":10,"env_os":129,"env_gpu":130,"env_ram":131,"env_deps":132,"category_tags":146,"github_topics":147,"view_count":23,"oss_zip_url":71,"oss_zip_packed_at":71,"status":151,"created_at":152,"updated_at":153,"faqs":154,"releases":184},2571,"ParisNeo\u002Flollms-webui","lollms-webui","Lord of Large Language and Multi modal Systems Web User Interface","lollms-webui 是一款功能强大的本地化 Web 交互界面，全称为“大型语言与多模态系统之主”。它旨在为用户提供一个统一、便捷的操作平台，让用户能够轻松部署、管理和运行各类开源大语言模型（LLM）及多模态 AI 系统。\n\n在私有化部署日益重要的今天，许多用户面临模型配置复杂、依赖环境难搭建以及缺乏直观操作界面的痛点。lollms-webui 通过图形化的网页界面，屏蔽了底层复杂的代码配置与命令行操作，让用户无需深厚的技术背景即可在本地电脑上快速启动并对话先进的 AI 模型，有效解决了从模型下载到实际应用的“最后一公里”问题，同时确保了数据完全留存于本地，保障隐私安全。\n\n这款工具非常适合希望探索本地 AI 潜力的普通用户、需要离线环境进行原型验证的开发者，以及关注数据隐私的研究人员。其独特的技术亮点在于对“多模态”的原生支持，不仅能处理文本对话，还能整合图像生成与分析能力，并且兼容多种主流模型架构。无论是想在个人电脑上体验智能助手，还是构建定制化的 AI 应用，lollms-webui 都能提供流畅且低门槛的使用体验。","\u003Cimg width=\"1024\" height=\"1024\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FParisNeo_lollms-webui_readme_fce0ae68e053.png\" \u002F>\n\n\n\n\n\n",null,"# LoLLMs WebUI 快速上手指南\n\nLoLLMs (Large Language Models Made Simple) WebUI 是一个功能强大的本地大语言模型部署与管理平台，支持多种后端（如 llama.cpp, exllama, vllm 等），提供友好的网页界面进行模型聊天、训练微调及插件扩展。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Windows 10\u002F11, Linux (Ubuntu\u002FDebian 推荐), macOS\n*   **Python 版本**：Python 3.8 - 3.11 (推荐 3.10)\n*   **硬件要求**：\n    *   **CPU 模式**：任意现代 CPU，建议 8GB+ 内存。\n    *   **GPU 模式 (推荐)**：NVIDIA GPU (显存建议 6GB 以上以运行 7B 模型)，需安装对应的 CUDA 驱动。\n*   **前置依赖**：\n    *   Git\n    *   pip (Python 包管理工具)\n\n> **国内加速建议**：\n> 在中国大陆地区，建议在安装 Python 依赖时临时切换至清华或阿里镜像源，以提升下载速度：\n> ```bash\n> export PIP_INDEX_URL=https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> # Windows PowerShell: $env:PIP_INDEX_URL=\"https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\"\n> ```\n\n## 安装步骤\n\n### 1. 克隆项目仓库\n打开终端（Terminal）或命令提示符，执行以下命令拉取代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui.git\ncd lollms-webui\n```\n\n### 2. 创建虚拟环境（推荐）\n为了避免依赖冲突，建议创建独立的 Python 虚拟环境：\n\n```bash\npython -m venv venv\n```\n\n激活虚拟环境：\n*   **Linux\u002FmacOS**:\n    ```bash\n    source venv\u002Fbin\u002Factivate\n    ```\n*   **Windows**:\n    ```bash\n    venv\\Scripts\\activate\n    ```\n\n### 3. 安装依赖\n根据您的需求选择安装方式。\n\n**方式 A：标准安装（自动检测硬件）**\n```bash\npip install -r requirements.txt\n```\n\n**方式 B：强制 GPU 支持（NVIDIA）**\n如果自动检测未生效或您需要明确指定 CUDA 版本，可先安装 torch 再安装依赖：\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install -r requirements.txt\n```\n\n### 4. 初始化与启动\n运行主程序脚本，首次运行会自动下载必要的配置文件并引导您选择模型后端：\n\n```bash\npython app.py\n```\n\n启动成功后，终端将显示访问地址，通常为 `http:\u002F\u002Flocalhost:9600`。\n\n## 基本使用\n\n1.  **访问界面**：\n    打开浏览器，访问 `http:\u002F\u002Flocalhost:9600`。\n\n2.  **配置模型**：\n    *   进入 **Settings** (设置) 页面。\n    *   在 **Model Zone** 中选择您想要的模型后端（例如 `llama-cpp` 适合大多数用户）。\n    *   点击 **Install Model** 或 **Download Model**，从列表中选择并下载一个模型（如 `Llama-3-8B-Instruct`）。\n    *   *注：若您已有 `.gguf` 格式的模型文件，可将其放入 `models` 文件夹并在界面中刷新加载。*\n\n3.  **开始对话**：\n    *   返回 **Chat** (聊天) 页面。\n    *   在顶部确认已选中刚才下载的模型。\n    *   在输入框中输入问题，例如：\n        ```text\n        请用中文介绍什么是 LoLLMs？\n        ```\n    *   点击发送，即可体验本地大模型的回复。\n\n4.  **进阶功能**：\n    *   **Personas (角色)**：在设置中切换不同的系统提示词（System Prompt），让 AI 扮演程序员、作家等角色。\n    *   **Plugins (插件)**：在插件市场启用联网搜索、代码解释器等功能模块。","某小型 AI 初创团队需要在本地私有化部署多模态大模型，以处理包含图表和文本的混合数据，同时严格保障数据不出内网。\n\n### 没有 lollms-webui 时\n- 团队成员必须各自编写复杂的 Python 脚本加载模型，环境配置冲突频发，新人上手门槛极高。\n- 每次切换不同架构的模型（如从纯文本模型切换到多模态模型）都需要手动修改代码参数并重启服务，效率低下。\n- 缺乏统一的可视化界面，无法直观地上传图像或文档进行多模态交互测试，只能依赖命令行输入路径。\n- 模型推理过程如同黑盒，难以实时监控显存占用、生成速度等关键指标，排查性能瓶颈耗时耗力。\n- 团队协作困难，每个人本地的模型版本和配置不一致，导致测试结果无法复现和对比。\n\n### 使用 lollms-webui 后\n- 通过一键式 Web 界面即可轻松部署和管理各类大模型，彻底消除了繁琐的环境配置问题，全员可立即投入工作。\n- 在网页端下拉菜单即可秒级切换不同模型，无需重启服务或修改代码，灵活应对多样化的业务需求。\n- 直接在浏览器中拖拽上传图片或文档，即时获得结合视觉与文本的智能分析结果，多模态交互变得简单直观。\n- 仪表盘实时展示资源消耗与生成状态，团队能迅速定位性能瓶颈并优化推理参数，系统运行更加稳定。\n- 所有成员访问同一套中央部署的服务，确保模型版本、配置参数完全一致，极大提升了协作效率与结果可信度。\n\nlollms-webui 将原本碎片化、高门槛的本地大模型运维工作，转化为统一、高效且可视化的团队协作流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FParisNeo_lollms-webui_50d02fc8.png","ParisNeo","Saifeddine ALOUI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FParisNeo_4a07a940.png","Research engeneer in sensor fusion and ai applications to robotics.\r\nPationate about llms and thinker about future of AI, its benefits and potential dangers.\r\n","CEA","France","ParisNeo_AI","lollms.com","https:\u002F\u002Fgithub.com\u002FParisNeo",[85,89,93,97,101,105,109,113,117,121],{"name":86,"color":87,"percentage":88},"Python","#3572A5",42.2,{"name":90,"color":91,"percentage":92},"CSS","#663399",39.7,{"name":94,"color":95,"percentage":96},"Vue","#41b883",12.8,{"name":98,"color":99,"percentage":100},"JavaScript","#f1e05a",2.5,{"name":102,"color":103,"percentage":104},"HTML","#e34c26",0.9,{"name":106,"color":107,"percentage":108},"Shell","#89e051",0.8,{"name":110,"color":111,"percentage":112},"Batchfile","#C1F12E",0.6,{"name":114,"color":115,"percentage":116},"Inno Setup","#264b99",0.3,{"name":118,"color":119,"percentage":120},"Jupyter Notebook","#DA5B0B",0.1,{"name":122,"color":123,"percentage":124},"C++","#f34b7d",0,4778,582,"2026-04-02T15:51:37","Apache-2.0","Windows, Linux, macOS","非必需（支持 CPU 运行）；若使用 GPU，推荐 NVIDIA 显卡（支持 CUDA），AMD (ROCm) 或 Apple Silicon (MPS)。显存需求取决于模型大小，运行 7B 参数模型建议 6GB+，更大模型需 12GB-24GB+","最低 8GB，推荐 16GB 或以上（大型模型需更多）",{"notes":133,"python":134,"dependencies":135},"该工具提供一键安装脚本，可自动处理大部分依赖。首次运行时需下载主程序及默认模型文件（体积较大，建议确保网络通畅）。支持多种后端（如 llama.cpp, exllama 等）以优化不同硬件上的推理速度。","3.9+",[136,137,138,139,140,141,142,143,144,145],"torch","transformers","accelerate","gradio","numpy","pillow","requests","pyyaml","scipy","soundfile",[26,13,14,15],[148,149,150],"ai","llm","text-generation","ready_partial","2026-03-27T02:49:30.150509","2026-04-06T08:42:03.565330",[155,160,165,170,175,180],{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},11883,"在 Ubuntu 上安装 sentencepiece 时遇到编译错误（如找不到 Python.h）怎么办？","这通常是因为缺少 Python 开发头文件和构建工具。请运行以下命令安装依赖：\n1. `sudo apt install build-essential`\n2. `sudo apt install python3-dev`（或者针对特定版本如 `python3.11-dev`）。\n安装完成后重新尝试安装即可解决。","https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Fissues\u002F20",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},11884,"在 Ubuntu 23 或 Debian 上运行 app.py 时出现 'ImportError: libGL.so.1' 错误如何解决？","该错误是由于系统缺少 OpenGL 共享库文件。虽然自动安装脚本可能无法解决此问题，建议手动检查并安装相关图形库依赖。如果自动脚本失效，可以尝试手动重新安装依赖项，或者确保系统已安装 `libgl1-mesa-glx` 或类似的 OpenGL 库包。部分用户反馈手动配置 Conda 环境并重新安装依赖可解决问题。","https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Fissues\u002F459",{"id":166,"question_zh":167,"answer_zh":168,"source_url":169},11885,"运行时遇到 'TypeError: NoneType object is not subscriptable' 错误或数据库为空的问题怎么办？","这通常与空数据库或初始化问题有关。维护者已修复了空数据库导致的问题。如果更新后仍遇到上下文长度限制错误（如 'prompt is too long'），可以通过传递 `ctx_size` 参数给运行脚本或 `app.py` 来调整上下文大小，默认值为 512。例如在启动时指定更大的上下文窗口。","https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Fissues\u002F66",{"id":171,"question_zh":172,"answer_zh":173,"source_url":174},11886,"在 Windows 上运行 run.bat 时卡在 Logo 界面且无输出是什么原因？","如果程序卡在 Logo 界面且 CPU 使用率飙升后无输出，可能是模型生成失败或硬件指令集不兼容（如 AVX2 未启用）。日志中若显示 `AVX2 = 0`，说明当前 CPU 不支持或未启用 AVX2 指令集，这可能导致某些预编译模型无法运行。此外，确认模型是否已正确转换，尽管部分情况下模型无需再次转换即可工作。如果 UI 能加载但无回复，请检查系统日志中的 `llama_generate` 相关信息。","https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Fissues\u002F74",{"id":176,"question_zh":177,"answer_zh":178,"source_url":179},11887,"运行 run.sh 时出现 'Illegal instruction (core dumped)' 错误怎么处理？","该错误通常表明二进制文件使用了当前 CPU 不支持的指令集（如 AVX、AVX2 等）。这常见于在不支持这些指令集的旧 CPU 上运行为新 CPU 编译的程序。解决方法包括：1. 确认 CPU 是否支持所需指令集；2. 尝试从源码重新编译项目以适配当前 CPU；3. 检查是否安装了错误的预编译包。此前有用户通过安装 `python3.11-dev` 解决了部分依赖问题，但核心指令集问题需硬件层面匹配或重新编译。","https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Fissues\u002F55",{"id":181,"question_zh":182,"answer_zh":183,"source_url":169},11888,"如何调整模型的上下文长度（Token Limit）以避免 'prompt is too long' 错误？","当提示词过长导致报错（如 'prompt is too long (537 tokens, max 508)'）时，可以通过修改 `ctx_size` 参数来增加允许的上下文长度。该参数可以传递给运行脚本或直接在 `app.py` 中配置。默认值通常为 512，根据显存和内存情况可适当调大此数值。",[185,190,195,200,205,210,215,220,225,230,235,240,245,250,255,260,265,270,275,280],{"id":186,"version":187,"summary_zh":188,"released_at":189},62320,"v14","增强的用户界面：\n主题系统\n所有角色的本地化\n修复了用户界面中的一些 bug\n修复了一些安全问题。","2024-11-11T23:41:15",{"id":191,"version":192,"summary_zh":193,"released_at":194},62321,"v13","- 轻如鸿毛\n- 移除了对 Conda 的依赖\n\n## 变更内容\n* 由 @ParisNeo 在 https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Fpull\u002F559 中更新了 win_install.bat\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Fcompare\u002Fv12...v13","2024-10-07T22:03:05",{"id":196,"version":197,"summary_zh":198,"released_at":199},62322,"v12","- 新的提示词系统\n- 智能路由新版本，可根据提示词的复杂度更精准地选择大模型\n- 界面升级\n- 新增应用商店：用户可以构建、测试并分享应用给朋友。目前已有大量应用（全部免费）\n- 为人物角色库新增专属页面\n- 新增服务\n- 新增接口\n- 完整的 RESTful 后端。","2024-09-01T01:34:14",{"id":201,"version":202,"summary_zh":203,"released_at":204},62323,"v9.8","- 修复了一些安全问题\n- 界面优化：\n  - 挂载的人物形象界面更加易用。可以加载和查看更多的人物形象。\n  - 人物形象之间可以更方便地互相交流。\n  - 修复了 Web UI 中的一些错误。\n- 设置功能增强：\n  - 服务动物园取代了服务器配置。\n  - 服务现在按类型（TTS、STT、TTI、TTT）进行了良好组织。\n- 第三代人物形象支持函数调用，使得构建功能强大、能力无与伦比的复杂人物形象变得更加容易。\n- 修复了 macOS 安装程序。\n- ","2024-05-20T00:53:55",{"id":206,"version":207,"summary_zh":208,"released_at":209},62324,"v9.6","增强的用户界面  \n增强了生成过程的相关信息展示（如令牌数量、令牌速率、预热时间等）  \n增强的安全性  \n代码压缩工具  \n个性化的模型加载功能现已支持（有助于模型对比和优化）","2024-04-21T22:01:35",{"id":211,"version":212,"summary_zh":213,"released_at":214},62325,"v9.5","增强的安全性  \n新增ComfyUI界面  \n新增Ollama安装程序","2024-03-31T19:25:30",{"id":216,"version":217,"summary_zh":218,"released_at":219},62326,"v9.4","发布说明 - LoLLMs v9.4\n\n我们很高兴地宣布LoLLMs v9.4版本正式发布，此次更新为我们的强大语言模型系统带来了显著的功能增强和全新特性。本版本重点在于扩展能力、提升用户体验，并确保安装流程更加 streamlined。\n\n主要功能与改进：\n\n技能库管理：\n\n引入了全新的技能库管理系统，使用户能够轻松管理和组织自己的技能。\n现在用户可以方便地对技能进行分类、搜索以及启用或禁用操作。\n技能库提供了一个集中式平台，用于管理所有已安装的技能。\n新增多种绑定：\n\n增加了对多种新绑定的支持，实现与各类平台和服务的无缝集成。\n用户现在可以将LoLLMs连接到更广泛的外部系统和API。\n这些新绑定进一步拓展了自动化任务的可能性，并增强了LoLLMs的功能性。\n互联网使用优化：\n\n重新设计了LoLLMs与互联网交互的方式，提供更高效、更安全的使用体验。\n提升了网络连接和数据获取能力，从而获得更快、更可靠的结果。\n实施了强大的安全措施，以保护用户数据并维护隐私。\nComfyUI及其他服务：\n\n集成了ComfyUI，这是一个功能强大且易于使用的界面，用于与LoLLMs交互。\n新增了对多项新服务的支持，进一步扩展了用户可执行的任务类型和功能范围。\n这些新增内容为用户提供了更多选择和灵活性，帮助其更好地利用LoLLMs的强大能力。\n重要变更：\n\n不再支持或允许手动安装LoLLMs。\n用户必须使用提供的安装脚本来正确设置LoLLMs。\n安装脚本会自动处理必要的依赖项、环境配置及各项设置。\n这一变更旨在为所有用户提供一致且可靠的安装流程。\n我们强烈建议所有用户升级至LoLLMs v9.4，以充分利用新功能、改进之处以及性能提升。请参考更新后的文档和安装指南，以顺利完成过渡。\n\n安全性增强与漏洞修复：\nLoLLMs v9.4高度重视安全性的提升及漏洞的修复工作。我们进行了全面的安全审计，实施了多层防护机制，强化了身份验证，应用了安全补丁，并采用了先进的加密技术。这些措施有效保障了用户数据及在LoLLMs中交互过程的安全性和完整性。\n\n感谢您选择LoLLMs！\n\nLoLLMs团队（ParisNeo + Lollms）","2024-03-18T23:35:15",{"id":221,"version":222,"summary_zh":223,"released_at":224},62327,"v9.3","- 通过为端点添加更严格的类型检查和数据 sanitization，增强了安全性\n- 新增新闻板块，可在 WebUI 中直接获取更新信息：\n![image](https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Fassets\u002F827993\u002F65bb973e-ade5-4b6e-b1e6-972ccf8f092b)\n- 升级了绑定库。\n- 修复了多模态模型及图像导入问题。\n- 将所有数据移至“discussion”文件夹，以便更轻松地找到对话文件。\n- 在 Playground 中新增了分词可视化功能。\n- 支持将 Markdown 作为文本输入。\n- 通过一个小技巧使 AI 能够访问列名，现在 CSV 文件已可在 RAG 中使用。因此，您可以加载 CSV 文件，并向 AI 查询特定条目。\n\n如果您喜欢这项工作，请考虑给本仓库加星标。","2024-02-29T09:47:23",{"id":226,"version":227,"summary_zh":228,"released_at":229},62328,"v9.2","更多安全修复\n在 Playground 中为音频转录功能添加了完整音频支持\n对界面进行了一些优化改进\n","2024-02-17T02:22:41",{"id":231,"version":232,"summary_zh":233,"released_at":234},62329,"v9.1","漏洞修复：\n- 修复了 CORS 安全问题。现在仅允许来自 Web 界面的请求来源。（用户若需，可自行设置其他来源，但默认配置为拒绝所有来自其他网站的访问）\n- 修复了路径遍历漏洞：所有接收用户输入的接口现已进行输入净化，以防止路径遍历攻击。\n- 修复了代码注入漏洞：除 execute_code 接口外，其余接口均已添加输入净化机制以防范代码注入；而 execute_code 接口在将 Lollms 对外暴露时会自动禁用。\n- 所有使用用户输入数据的 os.system 调用现已替换为更安全的实现方式。\n- 用户可关闭代码执行功能。\n- 用户可启用代码验证功能，启用后后端在接收到代码执行指令时会主动提示确认。\n- 新增支持 HTTPS。只需将您的证书放置在个人目录下的 certs 子文件夹中即可。\n\n- 设置文件夹中新增多项配置。\n- 新增多种角色设定。\n\n对于 macOS 用户，请在安装完成后进入设置界面并选择您的硬件配置。\n\n祝您使用愉快！","2024-02-15T00:23:27",{"id":236,"version":237,"summary_zh":238,"released_at":239},62330,"v9.0","Code fully moved to fastAPI\r\n\r\nNew bindings. Faster than ever.\r\nBetter binding installation parameters with fixed versions. \r\n\r\nCreated new install method for hugging face, exllamav2 and python llama cpp.\r\nAdded conda library so that we can install more complex stuff from lollms directly.\r\n\r\nNew multi tools paradigms to solve libraries versions problems and incompatibility between them.\r\nAdded ollama client and server\r\nAdded vllm client and server\r\nAdded petals client and server\r\n\r\nFull compatibility with open ai API allowing the user to use any client application with lollms, which basically means that you can use for example google gimini binding and use lollms to route it to autogen or some other open ai compatible API, just configure it to use the lollms server instead.\r\n\r\nNew lollms generation interface that allows you to build your own apps using raw generation or persona augmented generation through lollms.\r\n\r\nAn unreal engine plugin is gonna be released to give life to your lollms characters\r\n ","2024-01-27T21:10:22",{"id":241,"version":242,"summary_zh":243,"released_at":244},62331,"v8.5","Moved to python 3.11\r\nNew hardware management system\r\nUpgraded bindings\r\nNew services : sd + xtts\r\nLoras support in hugging face and python_llama_cpp bindings\r\n","2024-01-04T03:04:56",{"id":246,"version":247,"summary_zh":248,"released_at":249},62332,"v8.0","- Changed the name\r\n- Added more interactive options\r\n- Added loads of personas\r\n- Added many new Bindings\r\n- Added many new models","2023-12-16T15:09:43",{"id":251,"version":252,"summary_zh":253,"released_at":254},62333,"v7.0","- Enhanced personality functionalities\r\n- Reorganized structure\r\n- AWQ support\r\n- Multimodality support\r\n- Many new personas\r\n- Interactive view","2023-11-15T20:24:05",{"id":256,"version":257,"summary_zh":258,"released_at":259},62334,"v6.7","- Added long term memory\r\n- Fixed some bugs\r\n- Exllama 2 support\r\n- Open AI support\r\n- First Extensions implementation (still in beta)\r\n\r\n\r\n## Note:\r\nHomebrew is required on macos","2023-10-15T23:46:46",{"id":261,"version":262,"summary_zh":263,"released_at":264},62335,"v6.5.0","The first stable release of 6.5.\r\nPetals integration for distributed text generation\r\nA special windows wsl version of lollms for windows users.\r\nFor linux\u002Fmacos, just follow the instructions from the README.md page of the project.","2023-09-21T21:40:49",{"id":266,"version":267,"summary_zh":268,"released_at":269},62336,"v6.5rc2","Release candidate 2\r\nAdded leaderboard link to the zoo\r\nAdded Aristotle to philosophers\r\nMultiple bugfixes\r\nGPT4ALL supports Vulkan for AMD users\r\n\r\nAdded lollms with petals to use a decentralized text generation on windows over wsl.","2023-09-17T00:37:53",{"id":271,"version":272,"summary_zh":273,"released_at":274},62337,"v6.5","A release candidate for lollms V6.5.\r\nFor windows use the installer\r\nFor other platforms use the scripts from scripts folder in the repository.\r\n[https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Ftree\u002Fmain\u002Fscripts](https:\u002F\u002Fgithub.com\u002FParisNeo\u002Flollms-webui\u002Ftree\u002Fmain\u002Fscripts)\r\n","2023-09-15T00:31:42",{"id":276,"version":277,"summary_zh":278,"released_at":279},62338,"v6.0","- New UI engine\r\n- Added lollms playground presets system\r\n- Enhanced prompting\r\n- Better intrgration with stable diffusion\r\n- Enhanced speed for bindings\r\n","2023-08-27T20:08:44",{"id":281,"version":282,"summary_zh":283,"released_at":284},62339,"v5.0","- New personalities structure\r\n- New localization engine\r\n- Incorportated Playground into the main app\r\n- Multiple enhancements in personalities","2023-08-19T00:34:49"]