[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-answerlink--IntelliQ":3,"tool-answerlink--IntelliQ":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":79,"stars":104,"forks":105,"last_commit_at":106,"license":107,"difficulty_score":108,"env_os":109,"env_gpu":110,"env_ram":110,"env_deps":111,"category_tags":119,"github_topics":77,"view_count":23,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":163},2682,"answerlink\u002FIntelliQ","IntelliQ","Advanced Multi-Turn QA System with LLM and Intent Recognition. 基于LLM大语言模型意图识别、参数抽取结合slot词槽技术实现多轮问答、NL2API. 打造Function Call多轮问答最佳实践","IntelliQ 是一款基于大语言模型（LLM）打造的开源多轮问答系统，旨在解决传统对话机器人在复杂场景下意图识别不准、关键信息遗漏以及难以对接业务接口等痛点。它不仅仅是一个聊天机器人，更是一个能够理解用户深层需求、自动提取时间与地点等参数，并直接调用外部 API 完成实际任务（如查询或办理业务）的智能助手。\n\n该项目特别适合希望构建高精度对话应用的开发者、技术团队及研究人员使用。通过结合先进的意图识别与词槽填充（Slot Filling）技术，IntelliQ 实现了从自然语言到 API 调用（NL2API）的无缝转化，让 Function Call 在多轮对话中更加稳定可靠。其独特的技术亮点包括支持流式输出（SSE）以提供实时聊天体验、灵活的后端接口对接能力，以及前后端分离的现代化架构（React + Flask），便于快速集成与二次开发。无论是需要处理复杂业务流程的企业应用，还是探索多轮对话最佳实践的技术项目，IntelliQ 都提供了一套高效、可扩展的解决方案，帮助团队轻松打造懂业务、能执行的智能对话系统。","\n# IntelliQ\n## 介绍\nIntelliQ 是一个开源项目，旨在提供一个基于大型语言模型（LLM）的多轮问答系统。该系统结合了先进的意图识别和词槽填充（Slot Filling）技术，致力于提升对话系统的理解深度和响应精确度。本项目为开发者社区提供了一个灵活、高效的解决方案，用于构建和优化各类对话型应用。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanswerlink_IntelliQ_readme_4a0c9c41938b.gif\"  height=\"388\" width=\"690\">\n\n## 工作流程\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanswerlink_IntelliQ_readme_06bfc56e9679.png\"  height=\"388\" width=\"690\">\n\n## 特性\n1. **多轮对话管理**：能够处理复杂的对话场景，支持连续多轮交互。\n2. **意图识别**：准确判定用户输入的意图，支持自定义意图扩展。\n3. **词槽填充**：动态识别并填充关键信息（如时间、地点、对象等）。\n4. **接口槽技术**：直接与外部APIs对接，实现数据的实时获取和处理。\n5. **前后端分离**：React前端 + Flask后端，支持现代化Web开发模式。\n6. **流式AI聊天**：支持Server-Sent Events (SSE)，实现实时聊天体验。\n7. **跨域支持**：内置CORS配置，支持本地开发和生产部署。\n8. **环境配置**：灵活的环境变量配置，支持开发\u002F生产环境切换。\n9. **一键启动**：提供跨平台启动脚本，团队成员无需手动配置。\n10. **易于集成**：提供了详细的API文档，支持多种编程语言和平台集成。\n\n## 安装和使用\n\n### 🌏环境要求\n- Python 3.8+\n- Node.js 16+ (包含npm包管理器)\n- npm 7+ (随Node.js自动安装)\n\n> **注意**: npm是Node.js的包管理器，安装Node.js时会自动包含npm。如果您还没有安装Node.js，请访问 [Node.js官网](https:\u002F\u002Fnodejs.org\u002F) 下载安装。\n\n### 🔧修改配置\n配置项在 config\u002F__init__.py\n* GPT_URL: AI平台的URL\n* API_KEY: 修改为自己的API密钥\n* API_BASE_URL: 修改为查询\u002F办理的接口\n\n### 📋 安装步骤\n\n确保您已安装 git、python3、node.js。然后执行以下步骤：\n\n**1. 克隆代码**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ.git\ncd IntelliQ\n```\n\n**2. 后端配置**\n```bash\n# 创建Python虚拟环境\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate  # Linux\u002FmacOS\n# venv\\Scripts\\activate   # Windows\n\n# 安装Python依赖\npip install -r requirements.txt\n```\n\n**3. 前端配置**\n```bash\ncd frontend\nnpm install\ncd ..\n```\n\n**4. 环境配置**\n- 复制 `.env.example` 为 `.env` 并根据需要修改配置\n- 复制 `frontend\u002F.env.example` 为 `frontend\u002F.env` 并根据需要修改配置\n\n**5. 启动服务**\n\n启动后端服务：\n```bash\npython app.py\n```\n\n启动前端服务（新开一个终端窗口）：\n```bash\ncd frontend && npm start\n```\n\n**访问地址：**\n- 前端界面：http:\u002F\u002Flocalhost:3000\n- 后端API：http:\u002F\u002Flocalhost:5050\n- API健康检查：http:\u002F\u002Flocalhost:5050\u002Fapi\u002Fhealth\n\n### 🔗 API接口\n\n#### 健康检查\n```\nGET \u002Fapi\u002Fhealth\n```\n\n#### 流式AI聊天\n```\nPOST \u002Fapi\u002Fllm_chat\nContent-Type: application\u002Fjson\nAccept: text\u002Fevent-stream\n\n{\n  \"messages\": [],\n  \"user_input\": \"用户输入\",\n  \"session_id\": \"可选的会话ID\"\n}\n```\n\n#### 获取模拟槽位\n```\nGET \u002Fapi\u002Fmock_slots\n```\n\n#### 重置会话\n```\nPOST \u002Fapi\u002Freset_session\n{\n  \"session_id\": \"会话ID\"\n}\n```\n\n更多详细信息请查看 [前后端联调说明](.\u002F前后端联调说明.md)。\n\n## 贡献\n\n非常欢迎和鼓励社区贡献。如果您想贡献代码，请遵循以下步骤：\n\n    Fork 仓库\n    创建新的特性分支 (git checkout -b feature\u002FAmazingFeature)\n    提交更改 (git commit -m 'Add some AmazingFeature')\n    推送到分支 (git push origin feature\u002FAmazingFeature)\n    开启Pull Request\n\n查看 [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fblob\u002Fmain\u002FCONTRIBUTING.md)  了解更多信息。\n\n### All Thanks To Our Contributors:\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanswerlink_IntelliQ_readme_7d3dcae91afb.png\" \u002F>\n\u003C\u002Fa>\n\n## License\n\n**Apache License, Version 2.0**\n\n## 版本更新\nv2.0 2025-7-17 实现真实的API的对接；优化流程；升级前端\n\nv1.3 2024-1-15 集成通义千问线上模型\n\nv1.2 2023-12-24 支持Qwen私有化模型\n\nv1.1 2023-12-21 改造通用场景处理器；完成高度抽象封装；提示词调优\n\nv1.0 2023-12-17 首次可用更新；框架完成\n\nv0.1 2023-11-23 首次更新；流程设计\n","# IntelliQ\n## 介绍\nIntelliQ 是一个开源项目，旨在提供一个基于大型语言模型（LLM）的多轮问答系统。该系统结合了先进的意图识别和词槽填充（Slot Filling）技术，致力于提升对话系统的理解深度和响应精确度。本项目为开发者社区提供了一个灵活、高效的解决方案，用于构建和优化各类对话型应用。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanswerlink_IntelliQ_readme_4a0c9c41938b.gif\"  height=\"388\" width=\"690\">\n\n## 工作流程\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanswerlink_IntelliQ_readme_06bfc56e9679.png\"  height=\"388\" width=\"690\">\n\n## 特性\n1. **多轮对话管理**：能够处理复杂的对话场景，支持连续多轮交互。\n2. **意图识别**：准确判定用户输入的意图，支持自定义意图扩展。\n3. **词槽填充**：动态识别并填充关键信息（如时间、地点、对象等）。\n4. **接口槽技术**：直接与外部APIs对接，实现数据的实时获取和处理。\n5. **前后端分离**：React前端 + Flask后端，支持现代化Web开发模式。\n6. **流式AI聊天**：支持Server-Sent Events (SSE)，实现实时聊天体验。\n7. **跨域支持**：内置CORS配置，支持本地开发和生产部署。\n8. **环境配置**：灵活的环境变量配置，支持开发\u002F生产环境切换。\n9. **一键启动**：提供跨平台启动脚本，团队成员无需手动配置。\n10. **易于集成**：提供了详细的API文档，支持多种编程语言和平台集成。\n\n## 安装和使用\n\n### 🌏环境要求\n- Python 3.8+\n- Node.js 16+ (包含npm包管理器)\n- npm 7+ (随Node.js自动安装)\n\n> **注意**: npm是Node.js的包管理器，安装Node.js时会自动包含npm。如果您还没有安装Node.js，请访问 [Node.js官网](https:\u002F\u002Fnodejs.org\u002F) 下载安装。\n\n### 🔧修改配置\n配置项在 config\u002F__init__.py\n* GPT_URL: AI平台的URL\n* API_KEY: 修改为自己的API密钥\n* API_BASE_URL: 修改为查询\u002F办理的接口\n\n### 📋 安装步骤\n\n确保您已安装 git、python3、node.js。然后执行以下步骤：\n\n**1. 克隆代码**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ.git\ncd IntelliQ\n```\n\n**2. 后端配置**\n```bash\n# 创建Python虚拟环境\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate  # Linux\u002FmacOS\n# venv\\Scripts\\activate   # Windows\n\n# 安装Python依赖\npip install -r requirements.txt\n```\n\n**3. 前端配置**\n```bash\ncd frontend\nnpm install\ncd ..\n```\n\n**4. 环境配置**\n- 复制 `.env.example` 为 `.env` 并根据需要修改配置\n- 复制 `frontend\u002F.env.example` 为 `frontend\u002F.env` 并根据需要修改配置\n\n**5. 启动服务**\n\n启动后端服务：\n```bash\npython app.py\n```\n\n启动前端服务（新开一个终端窗口）：\n```bash\ncd frontend && npm start\n```\n\n**访问地址：**\n- 前端界面：http:\u002F\u002Flocalhost:3000\n- 后端API：http:\u002F\u002Flocalhost:5050\n- API健康检查：http:\u002F\u002Flocalhost:5050\u002Fapi\u002Fhealth\n\n### 🔗 API接口\n\n#### 健康检查\n```\nGET \u002Fapi\u002Fhealth\n```\n\n#### 流式AI聊天\n```\nPOST \u002Fapi\u002Fllm_chat\nContent-Type: application\u002Fjson\nAccept: text\u002Fevent-stream\n\n{\n  \"messages\": [],\n  \"user_input\": \"用户输入\",\n  \"session_id\": \"可选的会话ID\"\n}\n```\n\n#### 获取模拟槽位\n```\nGET \u002Fapi\u002Fmock_slots\n```\n\n#### 重置会话\n```\nPOST \u002Fapi\u002Freset_session\n{\n  \"session_id\": \"会话ID\"\n}\n```\n\n更多详细信息请查看 [前后端联调说明](.\u002F前后端联调说明.md)。\n\n## 贡献\n\n非常欢迎和鼓励社区贡献。如果您想贡献代码，请遵循以下步骤：\n\n    Fork 仓库\n    创建新的特性分支 (git checkout -b feature\u002FAmazingFeature)\n    提交更改 (git commit -m 'Add some AmazingFeature')\n    推送到分支 (git push origin feature\u002FAmazingFeature)\n    开启Pull Request\n\n查看 [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fblob\u002Fmain\u002FCONTRIBUTING.md)  了解更多信息。\n\n### All Thanks To Our Contributors:\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanswerlink_IntelliQ_readme_7d3dcae91afb.png\" \u002F>\n\u003C\u002Fa>\n\n## License\n\n**Apache License, Version 2.0**\n\n## 版本更新\nv2.0 2025-7-17 实现真实的API的对接；优化流程；升级前端\n\nv1.3 2024-1-15 集成通义千问线上模型\n\nv1.2 2023-12-24 支持Qwen私有化模型\n\nv1.1 2023-12-21 改造通用场景处理器；完成高度抽象封装；提示词调优\n\nv1.0 2023-12-17 首次可用更新；框架完成\n\nv0.1 2023-11-23 首次更新；流程设计","# IntelliQ 快速上手指南\n\nIntelliQ 是一个基于大型语言模型（LLM）的开源多轮问答系统，集成了意图识别、词槽填充及流式对话能力。本指南将帮助开发者在几分钟内完成本地部署并运行。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows\n*   **Python**：版本 3.8 或更高\n*   **Node.js**：版本 16 或更高（安装时会自动包含 npm 7+）\n*   **其他工具**：Git\n\n> **提示**：国内用户安装 Node.js 若遇网络问题，可访问 [Node.js 中文镜像站](https:\u002F\u002Fnpmmirror.com\u002Fmirrors\u002Fnode\u002F) 下载。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ.git\ncd IntelliQ\n```\n\n### 2. 配置后端环境\n创建并激活 Python 虚拟环境，安装依赖：\n```bash\n# 创建虚拟环境\npython3 -m venv venv\n\n# 激活环境 (Linux\u002FmacOS)\nsource venv\u002Fbin\u002Factivate\n# 激活环境 (Windows)\n# venv\\Scripts\\activate\n\n# 安装依赖 (推荐使用国内镜像源加速)\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 配置前端环境\n```bash\ncd frontend\n# 安装依赖 (推荐使用淘宝镜像源加速)\nnpm install --registry=https:\u002F\u002Fregistry.npmmirror.com\ncd ..\n```\n\n### 4. 修改配置文件\n编辑 `config\u002F__init__.py` 文件，填入您的 AI 服务配置：\n*   `GPT_URL`: 填写 AI 平台接口地址\n*   `API_KEY`: 填写您的 API 密钥\n*   `API_BASE_URL`: 填写业务查询或办理的接口地址\n\n同时，复制环境变量模板：\n```bash\ncp .env.example .env\ncp frontend\u002F.env.example frontend\u002F.env\n```\n*(如有需要，可根据实际场景微调 `.env` 中的配置)*\n\n## 基本使用\n\n完成上述步骤后，通过两个终端窗口分别启动后端和前端服务。\n\n**第一步：启动后端服务**\n在当前目录（已激活 Python 虚拟环境）执行：\n```bash\npython app.py\n```\n*后端默认运行在：http:\u002F\u002Flocalhost:5050*\n\n**第二步：启动前端服务**\n打开一个新的终端窗口，进入 frontend 目录并启动：\n```bash\ncd frontend && npm start\n```\n*前端默认运行在：http:\u002F\u002Flocalhost:3000*\n\n**第三步：体验对话**\n在浏览器中访问 `http:\u002F\u002Flocalhost:3000`，即可开始与 IntelliQ 进行多轮交互测试。\n\n---\n**API 快速测试示例**\n您也可以通过命令行直接测试流式聊天接口：\n```bash\ncurl -X POST http:\u002F\u002Flocalhost:5050\u002Fapi\u002Fllm_chat \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -H \"Accept: text\u002Fevent-stream\" \\\n  -d '{\"messages\": [], \"user_input\": \"你好，请介绍一下你自己\", \"session_id\": \"test_001\"}'\n```","某电商平台的客服团队正试图升级其售后系统，以自动处理用户复杂的退换货及订单查询请求。\n\n### 没有 IntelliQ 时\n- **对话断裂严重**：传统关键词匹配机器人无法理解上下文，用户需反复重复“订单号”或“商品名称”，体验极差。\n- **意图识别僵化**：面对“我想退那个昨天买的红色鞋子”这类非标准表述，系统常误判为普通咨询，无法触发退货流程。\n- **数据获取滞后**：无法直接对接内部 ERP 接口，客服需人工复制参数去后台查单，导致响应延迟高达数分钟。\n- **开发维护成本高**：每新增一个业务场景（如修改地址），都需要硬编码大量规则脚本，迭代周期长达数周。\n\n### 使用 IntelliQ 后\n- **多轮交互流畅**：凭借 LLM 驱动的上下文管理，IntelliQ 能记住前文信息，自动引导用户补全缺失的“时间”或“原因”槽位，无需用户重复输入。\n- **意图精准捕获**：利用先进的意图识别技术，即使面对口语化表达，也能准确判定为“申请退货”并提取关键参数。\n- **实时 API 联动**：通过内置的 NL2API 与接口槽技术，系统自动抽取订单号调用后端接口，秒级返回物流状态或执行退款操作。\n- **敏捷业务扩展**：开发者只需配置新的意图模板和 API 地址，即可在小时内上线新服务，无需重写底层逻辑。\n\nIntelliQ 将原本僵硬的规则问答转化为具备“理解 - 决策 - 执行”闭环的智能代理，显著提升了自动化解决率与用户满意度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanswerlink_IntelliQ_44508165.png","answerlink","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fanswerlink_85829aa4.png",null,"https:\u002F\u002Fgithub.com\u002Fanswerlink",[80,84,88,92,96,100],{"name":81,"color":82,"percentage":83},"JavaScript","#f1e05a",48.7,{"name":85,"color":86,"percentage":87},"Python","#3572A5",43.1,{"name":89,"color":90,"percentage":91},"Shell","#89e051",4.9,{"name":93,"color":94,"percentage":95},"Batchfile","#C1F12E",2.5,{"name":97,"color":98,"percentage":99},"CSS","#663399",0.5,{"name":101,"color":102,"percentage":103},"HTML","#e34c26",0.3,694,97,"2026-03-30T14:25:36","Apache-2.0",4,"Linux, macOS, Windows","未说明",{"notes":112,"python":113,"dependencies":114},"该项目采用前后端分离架构（React + Flask）。需配置大语言模型 API 密钥（GPT_URL, API_KEY）及业务接口地址。支持流式输出（SSE），启动时需分别运行后端（app.py）和前端（npm start）服务。","3.8+",[115,116,117,118],"Flask","React","Node.js 16+","npm 7+",[26,15],"2026-03-27T02:49:30.150509","2026-04-06T06:55:38.295114",[123,128,133,138,143,148,153,158],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},12427,"问答功能没有反应或报错怎么办？","这通常是由于模型 API 调用失败或连接超时导致的。建议检查模型配置，目前项目已简化模型请求流程，可以直接配置“硅基流动”的 Key 进行测试。如果是本地部署模型（如 vLLM），请确保使用 OpenAI 兼容接口进行接入。","https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fissues\u002F6",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},12428,"如何接入本地部署的大模型（如 Qwen-72b）？","可以直接使用 OpenAI 标准兼容接口进行接入。无需修改核心代码，只需在配置中指向本地模型的 OpenAI 兼容 endpoint 即可。可以参考相关演示视频了解具体的运行和配置方法。","https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fissues\u002F7",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},12429,"意图识别不准或槽位填充错误如何解决？","可以通过在场景模板文件（scene_template.json）中添加具体的示例（examples）来显著提高准确率。动态示例模块可以作为可选项配置，通过提供 Few-shot 样本帮助模型更好地理解意图和提取参数。","https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fissues\u002F2",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},12430,"多轮对话中场景切换判断不准确或无法自动结束怎么办？","项目已对此进行优化，现在会结合多轮会话记忆一起判断场景是否改变，以提高准确性。此外，建议在场景模板中提供 example 来增强模型对上下文的理解，避免在长对话中出现逻辑混乱。","https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fissues\u002F13",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},12431,"前端文件中的 WebSocket IP 地址需要手动修改吗？","不需要。项目代码已经调整，无需手动修改 user_input.html 文件中的 IP 地址，系统会自动处理连接配置。","https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fissues\u002F12",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},12432,"文档链接打不开或 README 中缺少文档怎么办？","该问题已在最新版本中修复并优化。请拉取最新代码或查看更新后的 README 文档，文档链接现已正常可用。","https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fissues\u002F4",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},12433,"遇到正则表达式报错 TypeError: expected string or bytes-like object, got 'NoneType' 怎么处理？","这通常是因为上游模型 API 返回了空值（None）导致后续处理出错。根本原因往往是模型服务连接超时或密钥配置错误（如 Azure OpenAI 连接超时）。请优先检查模型 API 的网络连通性和 Key 配置，或切换到稳定的模型服务商（如硅基流动）进行测试。","https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fissues\u002F14",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},12434,"项目是否有后续开发计划或针对弱模型的优化？","维护者表示会继续迭代项目。针对能力较弱的模型（不支持 Function Call 的模型），目前的优化方向包括：增加动态示例 Prompt 以提高泛化性、引入检索方法辅助意图识别以防场景过多时准确率下降、以及结合多轮记忆优化场景结束判断。欢迎社区提交 PR 共同改进。","https:\u002F\u002Fgithub.com\u002Fanswerlink\u002FIntelliQ\u002Fissues\u002F8",[]]