[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ZTE-AICloud--Co-Sight":3,"tool-ZTE-AICloud--Co-Sight":64},[4,17,27,35,44,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,52,43,53,15,54,26,13,55],"数据工具","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":68,"owner_company":68,"owner_location":68,"owner_email":68,"owner_twitter":68,"owner_website":68,"owner_url":78,"languages":79,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":23,"env_os":100,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":107,"github_topics":108,"view_count":23,"oss_zip_url":68,"oss_zip_packed_at":68,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":145},4142,"ZTE-AICloud\u002FCo-Sight","Co-Sight",null,"Co-Sight 是一款旨在帮助用户快速构建类似 Manus 智能体系统的开源框架。它致力于在成本、质量、稳定性与易用性之间找到最佳平衡点，让用户能够一键部署属于自己的私有化 AI 助手。\n\n针对当前市场上闭源平台费用高昂、访问受限且难以私有化，而现有开源方案又在功能完整度和报告美观度上略显不足的问题，Co-Sight 提供了高效的解决方案。其核心亮点在于支持使用低成本的大语言模型，却能生成媲美 Claude 等高端模型的高质量、排版精美的分析报告，涵盖行业研究、生活指南及热点新闻分析等多种场景。同时，它具备灵活的私有化部署能力，确保数据安全可控。\n\n这款工具非常适合希望搭建企业内部智能分析系统的技术团队、追求数据隐私的研究人员，以及想要低成本体验高级 AI 代理能力的开发者。通过简单的环境配置和模型接入，用户即可轻松启动项目，无需等待邀请码，真正实现对智能工作流的自主掌控。","\n## 🚀 Still worried about the invitation code? One-click deployment of Co-Sight to quickly build your own Manus-like system!\n\n[![简体中文](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F简体中文-点击查看-orange)](README-zh.md)\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2510.21557-b31b1b)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.21557)\n\nSince the release of Manus, some closed-source platforms have faced problems such as high cost, limited access, and difficulty in privatization deployment, although they have excellent user experience and commercial support. Although open source frameworks have higher flexibility and transparency, they are slightly lacking in terms of functional integrity, style richness, and stability.\n\n**Co-Sight** Committed to striking the best balance between cost, quality, stability and ease of use. It supports low-cost large models to generate high-quality and beautiful reports comparable to Claude models, and can be flexibly deployed in private environments, helping enterprises and individuals quickly build their own Manus-like systems.\n\n## 🔍Sample Demo\n\n| Scene                 | Example links                                                                 | Preview of the effect                           |\n|-----------------------|-------------------------------------------------------------------------------|-------------------------------------------------|\n| **Industry Research** | [ZTE analysis report](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=SNd8kYPxr3s)                       | ![](assets\u002FPasted_image_20250501015026.png)     |\n| **Personal life**     | [2025 May Day Shanghai Travel Guide](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=IkAGq0e1Lio&feature=youtu.be) | \u003Cbr>![](assets\u002FPasted_image_20250501015117.png) |\n| **Hot news**              | [Analysis of the Global Impact of Trump's Tariff Policy](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=19-BmlHuG_E)                  | ![](assets\u002FPasted_image_20250501015617.png)     |\n| **...**               |                                                                               |                                                 |\n\n**We welcome you to contribute more examples in the Lab to enrich our case library!**  \n\nGitHub Address：[https:\u002F\u002Fgithub.com\u002FCo-Sight-Series\u002FCo-Sight-Lab](https:\u002F\u002Fgithub.com\u002FCo-Sight-Series\u002FCo-Sight-Lab)\n\n## 🛠Installation Guide\n\n1. **Download the project**：You can choose one of the following methods to download the project to your local computer：\n   \n   **1. Use Git clone**\n   Visit https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight ，Click on the green 'Code' button,\n\n   ```bash\n   # 1. Select HTTP protocol\n   git clone https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight.git\n   \n   # 2. Select SSH\n   git clone git@github.com:ZTE-AICloud\u002FCo-Sight.git\n   \n   cd Co-Sight\n   ```\n\n   **2. Download the zip file**\n   Visit https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight ， Click on the green 'Code' button, select 'Download ZIP', download it and unzip it to enter the project directory.\n\n2. **Prepare the environment**：python version >= 3.11\n  \n3. **Install dependencies**：  Run the following command in the project directory to install dependencies:\n```shell\npip install -r requirements.txt\n```\n\n## ⚙️Configuration\n\n1. **Copy the template`.env_template`and generated `.env`**（the document has been joined `.gitignore`，securely store private information）：\n2. **edit** `.env` **configure core parameters**：\n\t1. Large model configuration: Configure the corresponding large model address, model name, API-KEY, etc., and further (optionally) configure the planning, execution, tools, and multi-modal model;\n\t2. Search engine configuration (optional): configure the API-KEY of the relevant search engine;\n\t\t1. Google Search how to apply：https:\u002F\u002Fdevelopers.google.com\u002Fcustom-search\u002Fv1\u002Foverview?hl=zh-cn#api_key\n\t\t   ![](assets\u002FPasted_image_20250916105315.png)\t\n\t\t2. Tavily Search how to apply：https:\u002F\u002Fapp.tavily.com\u002Fhome\n\t\t   ![](assets\u002FPasted_image_20250502115315.png)\n3. **Configure MCP tool**\n```python\n# 在工程根路径下的config\u002Fmcp_server_config.json按需配置如下信息,支持配置多个\n[\n  {\n    \"skill_name\": \"MCP技能名称\",\n    \"skill_type\": \"local_mcp\",\n    \"display_name_zh\": \"MCP工具中文名称\",\n    \"display_name_en\": \"MCP工具英文名称\",\n    \"description_zh\": \"MCP工具中文描述\",\n    \"description_en\": \"MCP工具中文描述\",\n    \"mcp_server_config\": {\n      \"command\": \"python\",\n      \"args\": [\n        \"mcp_server.py\"\n      ]\n    }\n  }\n]\n```\n\t\t  \n## ▶️ Quick Start\n\n1. **start the service**：cosight_server\u002Fdeep_research\u002Fmain.py\n![](.\u002Fassets\u002FPasted_image_20250430225822.png)\n2. **open your browser and visit**\n`http:\u002F\u002Flocalhost:7788\u002Fcosight\u002F`\n3. **Enter your first task in the input box and experience the power of the intelligent research engine!**\n\n![](assets\u002FPasted_image_20250501020936.png)\n\n\n## 🐳 Use Docker\n\n1. download the docker offline image\nhttps:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight\u002Freleases\u002Fdownload\u002Fv0.0.1\u002Fco-sight-v001.tar\n\n2. start the docker image\n```shell\n# load an offline image\ndocker load -i co-sight-v001.tar\n# start the docker container\ndocker run -d -p 7788:7788 co-sight\n# copy the configured .env file into the container (the model and search engine will be configured in a Co-Sight interface)\ndocker cp .env ac39023b3b3fdc3245ec1cc0293afb6b0a5efd4675ee79535ed6663c3e2a2558:\u002Fhome\u002FCo-Sight\n# Restart the image to take effect environment variables\ndocker restart ac39023b3b3fdc3245ec1cc0293afb6b0a5efd4675ee79535ed6663c3e2a2558\n```\n\n3. **open your browser and visit**\n`http:\u002F\u002Flocalhost:7788\u002Fcosight\u002F`\n\n## 📣 Resource Requirements\n- **CPU**: 4 cores  \n- **Memory**: 4GB  \n- **Disk**: 1GB  \n  - Dependencies: 400MB  \n  - Project files: 50MB  \n  - Minimum required disk space: 500MB  \n  - Recommended disk space: 1GB\n\nThis configuration ensures basic system operation and successful dependency installation for stable performance.\n\n## 🤝 Contribution Guidelines\n\nPRs and Issues are very welcome! If you have any ideas or suggestions:\n\n- file an issue describe your idea and issue\n  \n- Initiate a PR: Improve documentation, add examples, or refine features.\n  \n\nTogether, we make the Co Sight Agent even more powerful.\n\n## 📄 Paper\n\nIf you use Co-Sight in your research, please cite our paper:\n\n```bibtex\n@article{zhang2025cosight,\n  title={Co-Sight: Enhancing LLM-Based Agents via Conflict-Aware Meta-Verification and Trustworthy Reasoning with Structured Facts},\n  author={Zhang, Hongwei and Lu, Ji and Jiang, Shiqing and Zhu, Chenxiang and Xie, Li and Zhong, Chen and Chen, Haoran and Zhu, Yurui and Du, Yongsheng and Gao, Yanqin and Huang, Lingjun and Wang, Baoli and Tan, Fang and Zou, Peng},\n  journal={arXiv preprint arXiv:2510.21557},\n  year={2025},\n  url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.21557}\n}\n```\n\nPaper: https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.21557","## 🚀 还在为邀请码发愁吗？一键部署 Co-Sight，快速搭建属于你的 Manus 类系统！\n\n[![简体中文](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F简体中文-点击查看-orange)](README-zh.md)\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2510.21557-b31b1b)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.21557)\n\n自 Manus 发布以来，尽管一些闭源平台拥有出色的用户体验和商业支持，但它们也面临着成本高昂、访问受限以及难以私有化部署等问题。而开源框架虽然具备更高的灵活性和透明度，但在功能完整性、样式丰富性和稳定性方面稍显不足。\n\n**Co-Sight** 致力于在成本、质量、稳定性和易用性之间找到最佳平衡。它支持使用低成本的大模型生成媲美 Claude 模型的高质量美观报告，并且可以灵活地部署在私有环境中，帮助企业和个人快速构建自己的 Manus 类系统。\n\n## 🔍 示例演示\n\n| 场景                 | 示例链接                                                                 | 效果预览                           |\n|-----------------------|-------------------------------------------------------------------------------|-------------------------------------------------|\n| **行业研究** | [中兴通讯分析报告](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=SNd8kYPxr3s)                       | ![](assets\u002FPasted_image_20250501015026.png)     |\n| **个人生活**     | [2025年五一上海旅游指南](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=IkAGq0e1Lio&feature=youtu.be) | \u003Cbr>![](assets\u002FPasted_image_20250501015117.png) |\n| **热点新闻**              | [特朗普关税政策对全球影响分析](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=19-BmlHuG_E)                  | ![](assets\u002FPasted_image_20250501015617.png)     |\n| **...**               |                                                                               |                                                 |\n\n**我们欢迎你在 Lab 中贡献更多示例，丰富我们的案例库！**  \n\nGitHub 地址：[https:\u002F\u002Fgithub.com\u002FCo-Sight-Series\u002FCo-Sight-Lab](https:\u002F\u002Fgithub.com\u002FCo-Sight-Series\u002FCo-Sight-Lab)\n\n## 🛠 安装指南\n\n1. **下载项目**：你可以选择以下任一种方式将项目下载到本地电脑：\n\n   **1. 使用 Git 克隆**\n   访问 https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight ，点击绿色的“Code”按钮，\n\n   ```bash\n   # 1. 选择 HTTP 协议\n   git clone https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight.git\n   \n   # 2. 选择 SSH\n   git clone git@github.com:ZTE-AICloud\u002FCo-Sight.git\n   \n   cd Co-Sight\n   ```\n\n   **2. 下载 ZIP 文件**\n   访问 https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight ，点击绿色的“Code”按钮，选择“Download ZIP”，下载后解压进入项目目录。\n\n2. **准备环境**：Python 版本 >= 3.11\n  \n3. **安装依赖**：在项目目录下运行以下命令以安装依赖：\n```shell\npip install -r requirements.txt\n```\n\n## ⚙️ 配置\n\n1. **复制模板文件 `.env_template` 并生成 `.env`**（该文件已被加入 `.gitignore`，请妥善保管私密信息）：\n2. **编辑 `.env` 配置核心参数**：\n\t1. 大模型配置：配置相应的大模型地址、模型名称、API-KEY 等，并进一步（可选）配置规划、执行、工具及多模态模型；\n\t2. 搜索引擎配置（可选）：配置相关搜索引擎的 API-KEY；\n\t\t1. Google 搜索申请方法：https:\u002F\u002Fdevelopers.google.com\u002Fcustom-search\u002Fv1\u002Foverview?hl=zh-cn#api_key\n\t\t   ![](assets\u002FPasted_image_20250916105315.png)\t\n\t\t2. Tavily 搜索申请方法：https:\u002F\u002Fapp.tavily.com\u002Fhome\n\t\t   ![](assets\u002FPasted_image_20250502115315.png)\n3. **配置 MCP 工具**\n```python\n# 在工程根路径下的config\u002Fmcp_server_config.json按需配置如下信息,支持配置多个\n[\n  {\n    \"skill_name\": \"MCP技能名称\",\n    \"skill_type\": \"local_mcp\",\n    \"display_name_zh\": \"MCP工具中文名称\",\n    \"display_name_en\": \"MCP工具英文名称\",\n    \"description_zh\": \"MCP工具中文描述\",\n    \"description_en\": \"MCP工具中文描述\",\n    \"mcp_server_config\": {\n      \"command\": \"python\",\n      \"args\": [\n        \"mcp_server.py\"\n      ]\n    }\n  }\n]\n```\n\t\t  \n## ▶️ 快速开始\n\n1. **启动服务**：cosight_server\u002Fdeep_research\u002Fmain.py\n![](.\u002Fassets\u002FPasted_image_20250430225822.png)\n2. **打开浏览器并访问**\n`http:\u002F\u002Flocalhost:7788\u002Fcosight\u002F`\n3. **在输入框中输入你的第一个任务，体验智能研究引擎的强大功能！**\n\n![](assets\u002FPasted_image_20250501020936.png)\n\n\n## 🐳 使用 Docker\n\n1. 下载 Docker 离线镜像\nhttps:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight\u002Freleases\u002Fdownload\u002Fv0.0.1\u002Fco-sight-v001.tar\n\n2. 启动 Docker 镜像\n```shell\n# 加载离线镜像\ndocker load -i co-sight-v001.tar\n# 启动 Docker 容器\ndocker run -d -p 7788:7788 co-sight\n# 将配置好的 .env 文件拷贝到容器内（模型和搜索引擎将在 Co-Sight 界面中配置）\ndocker cp .env ac39023b3b3fdc3245ec1cc0293afb6b0a5efd4675ee79535ed6663c3e2a2558:\u002Fhome\u002FCo-Sight\n# 重启镜像使环境变量生效\ndocker restart ac39023b3b3fdc3245ec1cc0293afb6b0a5efd4675ee79535ed6663c3e2a2558\n```\n\n3. **打开浏览器并访问**\n`http:\u002F\u002Flocalhost:7788\u002Fcosight\u002F`\n\n## 📣 资源要求\n- **CPU**: 4 核  \n- **内存**: 4GB  \n- **磁盘**: 1GB  \n  - 依赖：400MB  \n  - 项目文件：50MB  \n  - 最小所需磁盘空间：500MB  \n  - 推荐磁盘空间：1GB\n\n此配置可确保系统基本运行及依赖成功安装，从而实现稳定性能。\n\n## 🤝 贡献指南\n\n非常欢迎 PR 和 Issue！如果你有任何想法或建议：\n\n- 提交一个 Issue 描述你的想法和问题\n  \n- 发起一个 PR：改进文档、添加示例或优化功能。\n  \n\n让我们一起让 Co Sight Agent 更加强大。\n\n## 📄 论文\n\n如果你在研究中使用了 Co-Sight，请引用我们的论文：\n\n```bibtex\n@article{zhang2025cosight,\n  title={Co-Sight: Enhancing LLM-Based Agents via Conflict-Aware Meta-Verification and Trustworthy Reasoning with Structured Facts},\n  author={Zhang, Hongwei and Lu, Ji and Jiang, Shiqing and Zhu, Chenxiang and Xie, Li and Zhong, Chen and Chen, Haoran and Zhu, Yurui and Du, Yongsheng and Gao, Yanqin and Huang, Lingjun and Wang, Baoli and Tan, Fang and Zou, Peng},\n  journal={arXiv preprint arXiv:2510.21557},\n  year={2025},\n  url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.21557}\n}\n```\n\n论文：https:\u002F\u002Farxiv.org\u002Fabs\u002F2510.21557","# Co-Sight 快速上手指南\n\nCo-Sight 是一款开源的智能研究代理工具，旨在以低成本构建类似 Manus 的高质量报告生成系统。它支持私有化部署，能够利用低成本的的大模型生成精美、专业的行业研究与生活指南报告。\n\n## 1. 环境准备\n\n在开始之前，请确保您的服务器或本地计算机满足以下最低配置要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows\n*   **CPU**：4 核及以上\n*   **内存**：4GB 及以上\n*   **磁盘空间**：建议预留 1GB（依赖包约 400MB，项目文件约 50MB）\n*   **Python 版本**：>= 3.11\n*   **网络**：需能访问 GitHub 及所选大模型\u002F搜索引擎的 API 接口\n\n> **提示**：国内开发者若遇到 `pip` 下载慢的问题，建议使用国内镜像源（如清华源、阿里源）进行依赖安装。\n\n## 2. 安装步骤\n\n您可以选择 **源码安装** 或 **Docker 部署** 两种方式。\n\n### 方式一：源码安装（推荐开发调试）\n\n#### 2.1 下载项目\n使用 `git` 克隆项目代码：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight.git\ncd Co-Sight\n```\n或者手动下载 ZIP 包并解压进入目录。\n\n#### 2.2 安装依赖\n在项目根目录下执行以下命令安装所需库（推荐使用国内镜像加速）：\n```shell\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n#### 2.3 配置文件\n1. 复制环境变量模板：\n   ```bash\n   cp .env_template .env\n   ```\n2. 编辑 `.env` 文件，填入您的核心参数：\n   *   **大模型配置**：填写模型地址、模型名称、API-KEY（支持规划、执行、多模态等模型配置）。\n   *   **搜索引擎配置（可选）**：填写 Google Custom Search 或 Tavily 的 API-KEY。\n     *   Google 申请地址：https:\u002F\u002Fdevelopers.google.com\u002Fcustom-search\u002Fv1\u002Foverview\n     *   Tavily 申请地址：https:\u002F\u002Fapp.tavily.com\u002Fhome\n\n#### 2.4 配置 MCP 工具（可选）\n如需扩展工具能力，编辑 `config\u002Fmcp_server_config.json`：\n```python\n[\n  {\n    \"skill_name\": \"MCP 技能名称\",\n    \"skill_type\": \"local_mcp\",\n    \"display_name_zh\": \"MCP 工具中文名称\",\n    \"display_name_en\": \"MCP Tool Name\",\n    \"description_zh\": \"MCP 工具中文描述\",\n    \"description_en\": \"MCP tool description\",\n    \"mcp_server_config\": {\n      \"command\": \"python\",\n      \"args\": [\n        \"mcp_server.py\"\n      ]\n    }\n  }\n]\n```\n\n### 方式二：Docker 部署（推荐生产环境）\n\n#### 2.1 加载离线镜像\n下载并加载 Docker 镜像（需先手动下载 `co-sight-v001.tar`）：\n```shell\ndocker load -i co-sight-v001.tar\n```\n\n#### 2.2 启动容器\n```shell\ndocker run -d -p 7788:7788 --name co-sight-container co-sight\n```\n\n#### 2.3 注入配置\n将本地配置好的 `.env` 文件复制到容器中，并重启使配置生效：\n```shell\n# 获取容器 ID (如果上面指定了 name 可直接用 co-sight-container)\nCONTAINER_ID=$(docker ps -q --filter \"name=co-sight\")\n\n# 复制配置文件\ndocker cp .env $CONTAINER_ID:\u002Fhome\u002FCo-Sight\u002F.env\n\n# 重启容器\ndocker restart $CONTAINER_ID\n```\n\n## 3. 基本使用\n\n完成安装与配置后，即可启动服务体验智能研究报告生成功能。\n\n#### 3.1 启动服务\n如果是源码安装，运行以下命令启动后端服务：\n```bash\npython cosight_server\u002Fdeep_research\u002Fmain.py\n```\n*(Docker 用户跳过此步，容器已在后台运行)*\n\n#### 3.2 访问界面\n打开浏览器，访问以下地址：\n```text\nhttp:\u002F\u002Flocalhost:7788\u002Fcosight\u002F\n```\n\n#### 3.3 开始任务\n在输入框中输入您的研究任务，例如：\n*   “撰写一份关于中兴通讯的行业分析报告”\n*   \"2025 年五一上海旅游攻略”\n*   “分析特朗普关税政策对全球的影响”\n\n点击提交，系统将自动进行搜索、规划、推理并生成图文并茂的专业报告。","某中型咨询公司的分析师团队需要每周为不同客户快速产出深度行业研究报告，涵盖数据检索、逻辑分析及排版美化全流程。\n\n### 没有 Co-Sight 时\n- **高昂的授权成本**：依赖闭源商业平台（如 Manus）生成报告，按次或按月付费昂贵，难以支撑高频次的定制化需求。\n- **数据隐私风险**：敏感的行业数据和客户信息必须上传至第三方云端，无法满足企业内部对数据私有化部署的合规要求。\n- **工作流割裂低效**：研究人员需手动在搜索引擎、大模型对话框和文档编辑器之间切换，人工整合信息耗时且容易出错。\n- **报告质量不稳定**：开源方案虽免费但功能残缺，生成的报告往往格式混乱、缺乏深度分析，无法直接交付给客户。\n\n### 使用 Co-Sight 后\n- **低成本私有化部署**：通过一键部署将 Co-Sight 搭建在公司内部服务器，仅利用低成本大模型即可运行，彻底消除授权费并保障数据安全。\n- **端到端自动化生产**：从输入“中兴通讯行业分析”指令开始，Co-Sight 自动调用搜索工具获取最新数据、规划分析路径并撰写全文，无需人工干预。\n- **媲美顶尖模型的输出**：生成的报告不仅逻辑严密、数据详实，且排版精美程度可直接对标 Claude 等高端模型，大幅提升交付专业度。\n- **灵活适配多场景**：无论是复杂的行业研报，还是具体的差旅攻略或热点政策解读，均可通过配置 MCP 工具快速切换任务类型，响应敏捷。\n\nCo-Sight 让企业以极低的成本和最高的安全性，拥有了自主可控的“超级分析师”团队，实现了高质量研报的规模化即时生产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZTE-AICloud_Co-Sight_c5ee0f19.png","ZTE-AICloud","中兴智算","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FZTE-AICloud_0fbd3112.png","https:\u002F\u002Fgithub.com\u002FZTE-AICloud",[80,84,88,92],{"name":81,"color":82,"percentage":83},"Python","#3572A5",62.8,{"name":85,"color":86,"percentage":87},"JavaScript","#f1e05a",19.9,{"name":89,"color":90,"percentage":91},"CSS","#663399",16,{"name":93,"color":94,"percentage":95},"HTML","#e34c26",1.2,1007,285,"2026-04-03T10:01:17","Apache-2.0","未说明","最低 4GB",{"notes":103,"python":104,"dependencies":105},"支持 Docker 部署（提供离线镜像）；需配置大模型 API-KEY 及可选的搜索引擎（Google\u002FTavily）API-KEY；支持通过 JSON 配置文件自定义 MCP 工具；磁盘空间建议预留 1GB（依赖约 400MB，项目文件约 50MB）。",">=3.11",[106],"requirements.txt 中定义的依赖包 (具体列表未在 README 中列出)",[15],[109,110,111,112],"agent","aim","zte","aicloud","2026-03-27T02:49:30.150509","2026-04-06T12:06:00.955814",[116,121,125,130,135,140],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},18877,"运行时报错 ModuleNotFoundError: No module named 'cosight_server' 如何解决？","该问题通常由环境变量或路径配置引起。根据反馈，更新代码到最新版本后问题已解决。请确保您已拉取最新代码，并检查是否在正确的项目根目录下运行命令。如果问题依旧，请确认 Python 环境已正确安装所有依赖（pip install -r requirements.txt）。","https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight\u002Fissues\u002F12",{"id":122,"question_zh":123,"answer_zh":124,"source_url":120},18878,"执行任务时遇到 413 Request Entity Too Large 错误怎么办？","此错误通常发生在尝试抓取过大的文件（如大型 PDF 报告）时，导致请求实体过大被服务器拒绝。目前建议在搜索设置中避免直接抓取超大附件，或在网络代理层（如 openresty）调整客户端最大身体大小限制。若无法调整服务器配置，可尝试手动下载大文件后通过本地路径提供给系统分析。",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},18879,"安装依赖时提示 No space left on device（磁盘空间不足）如何处理？","这是因为磁盘空间不足以安装庞大的依赖包（特别是包含 CUDA 工具的 nvidia 系列包）。解决方案包括：1. 清理磁盘空间；2. 使用 `pip install --no-cache-dir -r requirements.txt` 减少缓存占用；3. 将临时目录指向空间更大的分区（设置 TMPDIR 环境变量）。项目方已在 README 中补充了具体的磁盘和 CPU 资源要求，安装前请务必查阅。","https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight\u002Fissues\u002F20",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},18880,"如何配置搜索引擎（SearchEngine）以定制搜索内容？","默认配置为全网搜索，可覆盖整个互联网内容。用户可以根据具体使用场景和需求，在配置文件中灵活调整搜索引擎参数（如特定的 Site 限制、关键词过滤等），以获得更精准的搜索结果。具体的配置项通常位于 `.env` 文件或专门的搜索配置模块中。","https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight\u002Fissues\u002F58",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},18881,"Gaia 基准测试的结果是用当前开源代码复现的吗？","是的，各大 benchmarks 上的源码基础框架大部分已在 `Co-Sight2.0_benchmarks` 仓库公开，用户可以获取核心框架代码进行复现。此外，官方正在准备详细的技术分析报告，包含框架架构设计、核心算法原理及性能优化策略，将在近期发布以帮助用户更好地理解和使用。","https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight\u002Fissues\u002F55",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},18882,"发现分支中包含泄露的 API Key 和代理信息，是否安全？","如果您在克隆仓库时发现 `.env` 文件中包含看似敏感的 API Key 或代理信息，请放心，维护者已确认这些信息已被作废（invalidated），不再具有任何权限，因此不存在安全风险。尽管如此，建议在使用时替换为您自己的密钥以确保最佳实践。","https:\u002F\u002Fgithub.com\u002FZTE-AICloud\u002FCo-Sight\u002Fissues\u002F44",[146],{"id":147,"version":148,"summary_zh":149,"released_at":150},109387,"v0.0.1","共视 v0.0.1\n\ndocker：co-sight-v001.tar","2025-05-02T13:54:21"]