[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xeneta--LeadQualifier":3,"tool-xeneta--LeadQualifier":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":78,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":98,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":99,"updated_at":100,"faqs":101,"releases":132},3919,"xeneta\u002FLeadQualifier","LeadQualifier",":dart: Qualify sales leads with machine learning","LeadQualifier 是一款由 Xeneta 开源的机器学习工具，旨在帮助销售团队利用算法自动评估潜在客户的价值。在传统销售流程中，人工筛选海量线索不仅耗时费力，还容易因主观判断遗漏高价值客户。LeadQualifier 通过分析公司描述等文本数据，自动将销售线索标记为“合格”或“不合格”，从而显著提升销售效率与转化率。\n\n该工具主要面向具备一定编程基础的开发者和数据科学家，同时也适合希望构建定制化销售预测模型的企业技术团队。用户既可以使用项目提供的脱敏数据集来测试和优化自己的算法，挑战现有的性能榜单；也可以基于企业内部数据，训练专属的线索评分模型。\n\n在技术实现上，LeadQualifier 展示了完整的机器学习工作流，涵盖数据预处理、特征提取（如 TF-IDF 向量化）及模型训练。项目内置了随机森林和 SGD 分类器等基准模型，其中 SGD 分类器在测试中表现优异，F1 分数达到 0.905。此外，代码库还包含了使用 TensorFlow 进行神经网络实验的示例，为探索更复杂的深度学习方案提供了参考。通过简单的脚本配置，用户即可快速部署从模型训练到实际线索预测的全流程应用。","# LeadQualifier\n\nThis repo is a collection of scripts we use at Xeneta to **qualify sales leads** with machine learning. Read more about this project in the Medium article [Boosting Sales With Machine Learning](https:\u002F\u002Fmedium.com\u002Fxeneta\u002Fboosting-sales-with-machine-learning-fbcf2e618be3).\n\nYou can use this repo for **two things:**\n\n1. Try to beat our predictions using **our data** and your own algorithm\n2. Create a lead qualifier for your company, using **your own data**\n\n## Setup\n\nStart off by running the following command:\n\n    pip install -r requirements.txt\n\nYou'll also need to download the stopword from the [nltk](http:\u002F\u002Fwww.nltk.org\u002Findex.html) package. Run the Python interpreter and type the following:\n\n    import nltk\n    nltk.download('stopwords')\n\n# 1. Experiment with your own algorithms\n\nWe'd love to see more algorithms on the leaderboard, so send us a pull request once you've implemented one.\n\n## [Xeneta Qualifier](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fxeneta_qualifier)\n\nWe've provided you with our vectorized and transformed data [here](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fxeneta_qualifier\u002Fdata). We can unfortunately not share the raw text data, as it contains sensitive company information (who our customers are).\n\nTo test our your own algorithm, simply add it the [run.py](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Fblob\u002Fmaster\u002Fxeneta_qualifier\u002Frun.py) file and run the script:\n\n    python run.py\n\nThanks to [lampts](https:\u002F\u002Fgithub.com\u002Flampts) for implementing the best performing algorithm so far, the [SGDClassifier](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fgenerated\u002Fsklearn.linear_model.SGDClassifier.html).\n\n### Leaderboard:\n\n| Algorithm     | Precision     | Recall | F1 Score|\n| ------------- |:--------------| :------|:--------|\n| SGD Classifier| 0.872         | 0.940  | 0.905   |\n| Random Forest | 0.845         | 0.915  | 0.878   |\n\n\n**PS:** We're also experimenting with a neural net (in TensorFlow) in the nn.py file.\n\n\n# 2. Create your own lead qualifier\n\nTo create your own lead qualifier, you'll need to get hold of company descriptions (to create your dataset). We currently use [FullContact](https:\u002F\u002Fwww.fullcontact.com\u002Fdeveloper) for this.  \n\n**Note:** We've added dummy data, so that you can run both scripts without getting errors, and to give you examples on how the sheets should look like.\n\n## [Train Algorithm](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Ftrain_algorithm)\n\nThis script trains an algorithm on **your own** input data. It expects two excel sheets named **qualified** and **disqualified** in the [input](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Ftrain_algorithm\u002Finput) folder. These sheets need to contain two columns:\n\n- URL\n- Description\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxeneta_LeadQualifier_readme_30a29e9ef3bd.png)\n\nRun the script:\n\n    python run.py\n\nIt'll dump three files into the [qualify_leads](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fqualify_leads) project:\n\n- algorithm\n- vectorizer\n- tfidf_vectorizer\n\nYou're now ready to start classifying your sales leads!\n\n## [Qualify Leads](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fqualify_leads)\n\nThis is the script that actually predicts the quality of your leads. Add an excel sheet named **data** in the [input](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fqualify_leads\u002Finput) folder. Use the same format as the example file that's already there.\n\nRun the script:\n\n    python run.py\n\nIt'll output an excel sheet with a column named **Prediction**, where 1 equals *qualified* and 0 equals *disqualified*:\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxeneta_LeadQualifier_readme_1696b399c553.png)\n\nGot questions? Email me at per@xeneta.com.\n","# 领导者资格评估器\n\n此仓库是我们Xeneta公司用于通过机器学习对销售线索进行**资格评估**的脚本集合。有关该项目的更多信息，请参阅Medium文章[利用机器学习提升销售业绩](https:\u002F\u002Fmedium.com\u002Fxeneta\u002Fboosting-sales-with-machine-learning-fbcf2e618be3)。\n\n您可以使用此仓库完成**两件事**：\n\n1. 使用**我们的数据**和您自己的算法，尝试超越我们的预测结果。\n2. 使用**您自己的数据**为贵公司创建一个线索资格评估工具。\n\n## 设置\n\n首先运行以下命令：\n\n    pip install -r requirements.txt\n\n您还需要从[nltk](http:\u002F\u002Fwww.nltk.org\u002Findex.html)包中下载停用词。启动Python解释器并输入以下内容：\n\n    import nltk\n    nltk.download('stopwords')\n\n# 1. 尝试您自己的算法\n\n我们非常希望在排行榜上看到更多优秀的算法，因此在您实现了一个算法后，请向我们提交拉取请求。\n\n## [Xeneta资格评估器](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fxeneta_qualifier)\n\n我们已在此处提供给您经过向量化和转换的数据[这里](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fxeneta_qualifier\u002Fdata)。遗憾的是，我们无法共享原始文本数据，因为其中包含敏感的公司信息（即我们的客户是谁）。\n\n要测试您自己的算法，只需将其添加到[run.py](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Fblob\u002Fmaster\u002Fxeneta_qualifier\u002Frun.py)文件中，并运行该脚本：\n\n    python run.py\n\n感谢[lampts](https:\u002F\u002Fgithub.com\u002Flampts)实现了迄今为止表现最佳的算法——[SGD分类器](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002Fmodules\u002Fgenerated\u002Fsklearn.linear_model.SGDClassifier.html)。\n\n### 排行榜：\n\n| 算法         | 精确率     | 召回率 | F1分数|\n| ------------- |:--------------| :------|:--------|\n| SGD分类器   | 0.872         | 0.940  | 0.905   |\n| 随机森林    | 0.845         | 0.915  | 0.878   |\n\n\n**附注：** 我们还在nn.py文件中尝试使用TensorFlow构建神经网络。\n\n\n# 2. 创建您自己的线索资格评估器\n\n要创建您自己的线索资格评估器，您需要获取公司简介（以构建您的数据集）。目前我们使用[FullContact](https:\u002F\u002Fwww.fullcontact.com\u002Fdeveloper)来完成这一任务。\n\n**注意：** 我们添加了示例数据，以便您无需担心错误即可运行这两个脚本，并为您提供表格样式的参考。\n\n## [训练算法](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Ftrain_algorithm)\n\n此脚本会基于**您自己的**输入数据训练一个算法。它期望在[input](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Ftrain_algorithm\u002Finput)文件夹中存在名为**qualified**和**disqualified**的两个Excel表格。这些表格需要包含两列：\n\n- URL\n- 描述\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxeneta_LeadQualifier_readme_30a29e9ef3bd.png)\n\n运行脚本：\n\n    python run.py\n\n脚本会将三个文件输出到[qualify_leads](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fqualify_leads)项目中：\n\n- algorithm\n- vectorizer\n- tfidf_vectorizer\n\n现在您已经准备好开始对销售线索进行分类了！\n\n## [线索资格评估](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fqualify_leads)\n\n这是实际用于预测线索质量的脚本。请在[input](https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Ftree\u002Fmaster\u002Fqualify_leads\u002Finput)文件夹中添加一个名为**data**的Excel表格。请使用与现有示例文件相同的格式。\n\n运行脚本：\n\n    python run.py\n\n脚本将生成一个Excel表格，其中包含一列名为**Prediction**，值为1表示*合格*，值为0表示*不合格*：\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxeneta_LeadQualifier_readme_1696b399c553.png)\n\n如有疑问，请发送邮件至per@xeneta.com。","# LeadQualifier 快速上手指南\n\nLeadQualifier 是一个基于机器学习的销售线索筛选工具，由 Xeneta 开源。它可以帮助企业利用历史数据训练模型，自动判断新的销售线索是否合格（Qualified）。\n\n## 环境准备\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows\n*   **Python 版本**：建议 Python 3.6+\n*   **前置依赖**：\n    *   `pip` (Python 包管理工具)\n    *   `nltk` (自然语言处理工具包)\n    *   `scikit-learn`, `pandas`, `openpyxl` 等（将通过 requirements.txt 自动安装）\n\n> **提示**：国内用户安装 Python 依赖时，建议指定清华或阿里镜像源以加速下载。\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier.git\n    cd LeadQualifier\n    ```\n\n2.  **安装 Python 依赖**\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **下载 NLTK 停用词数据**\n    启动 Python 交互界面并执行以下命令：\n    ```python\n    import nltk\n    nltk.download('stopwords')\n    ```\n    *注：若下载缓慢，可手动下载 `stopwords` 数据包并放置于本地 NLTK 数据目录。*\n\n## 基本使用\n\n本项目提供两种主要使用场景：使用官方脱敏数据进行算法实验，或使用自有数据构建专属筛选器。\n\n### 场景一：运行官方示例算法（实验模式）\n\n此模式使用 Xeneta 提供的已向量化数据测试不同算法的效果。\n\n1.  进入实验目录：\n    ```bash\n    cd xeneta_qualifier\n    ```\n2.  （可选）在 `run.py` 中添加你自己的算法逻辑。\n3.  运行脚本查看评估结果（精确率、召回率、F1 分数）：\n    ```bash\n    python run.py\n    ```\n\n### 场景二：使用自有数据训练并预测（生产模式）\n\n若需为公司创建专属的线索筛选器，请按以下步骤操作：\n\n#### 第一步：训练模型\n1.  准备数据：在 `train_algorithm\u002Finput` 文件夹中放入两个 Excel 文件，分别命名为 **qualified.xlsx**（合格线索）和 **disqualified.xlsx**（不合格线索）。\n    *   文件需包含两列：`URL` 和 `Description`。\n    *   *参考项目中的 dummy data 格式。*\n2.  进入训练目录并运行：\n    ```bash\n    cd ..\u002Ftrain_algorithm\n    python run.py\n    ```\n3.  生成产物：脚本运行成功后，会在 `qualify_leads` 项目中生成三个关键文件：`algorithm`（模型）、`vectorizer` 和 `tfidf_vectorizer`。\n\n#### 第二步：预测新线索\n1.  准备待测数据：在 `qualify_leads\u002Finput` 文件夹中放入名为 **data.xlsx** 的文件，格式同上（包含 `URL` 和 `Description`）。\n2.  进入预测目录并运行：\n    ```bash\n    cd ..\u002Fqualify_leads\n    python run.py\n    ```\n3.  查看结果：脚本将输出一个新的 Excel 文件，其中包含 **Prediction** 列：\n    *   `1` 代表 **Qualified** (合格)\n    *   `0` 代表 **Disqualified** (不合格)","某 B2B SaaS 初创公司的销售团队每天需从数百个通过官网表单和第三方数据源获取的潜在客户中筛选高价值目标，以便集中精力跟进。\n\n### 没有 LeadQualifier 时\n- 销售人员需人工逐条阅读公司描述和网站信息，耗时费力且效率极低。\n- 缺乏统一评估标准，不同销售对“合格线索”的判断主观性强，导致资源浪费。\n- 大量低质量线索混杂其中，挤占了跟进高意向客户的时间，转化率长期低迷。\n- 无法快速处理新增数据，面对突发的大规模线索涌入时往往束手无策。\n\n### 使用 LeadQualifier 后\n- 利用机器学习模型自动分析公司描述与 URL 特征，秒级完成数百条线索的初筛分类。\n- 基于历史成交数据训练专属算法（如 SGD Classifier），建立客观统一的线索评分标准。\n- 输出带有明确\"Prediction\"标记的表格，销售团队可优先聚焦标记为\"1\"的高潜客户，显著提升成单率。\n- 流程高度自动化，新线索导入 Excel 即可运行脚本获取结果，轻松应对业务增长带来的数据洪峰。\n\nLeadQualifier 将原本需要数小时的人工筛选工作压缩至分钟级，让销售团队从繁琐的数据清洗中解放出来，专注于真正有价值的客户沟通。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxeneta_LeadQualifier_b6cc38d4.png","xeneta","Xeneta","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxeneta_993486c5.png","",null,"tech@xeneta.com","http:\u002F\u002Fwww.xeneta.com\u002F","https:\u002F\u002Fgithub.com\u002Fxeneta",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,650,106,"2026-04-01T21:04:44","MIT","未说明",{"notes":94,"python":92,"dependencies":95},"项目主要依赖 scikit-learn 进行机器学习（如 SGDClassifier），并提及正在实验 TensorFlow 神经网络。运行前需通过 Python 交互界面手动下载 nltk 的 stopwords 数据包。训练自定义模型时需要准备包含'URL'和'Description'列的 Excel 文件。由于涉及敏感公司信息，原始文本数据未公开，仅提供向量化后的数据用于测试。",[96,97],"nltk","scikit-learn",[15],"2026-03-27T02:49:30.150509","2026-04-06T06:53:20.715000",[102,107,112,117,122,127],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},17901,"如何安装项目依赖？","项目已添加 setup 说明和 requirements.txt 文件。您可以使用 pip 安装依赖：pip install -r requirements.txt。","https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Fissues\u002F5",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},17902,"在 Python 3 (OSX) 上安装时遇到 'csv' 包无法找到的错误怎么办？","这是一个已知问题，'csv' 是 Python 标准库的一部分，不需要也不应该作为外部包安装。解决方法是在 requirements.txt 文件中注释掉或删除 'csv' 这一行，然后重新运行安装命令。","https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Fissues\u002F9",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},17903,"除了准确率（Accuracy），还有哪些指标可以评估模型性能？","建议同时查看精确率（Precision）、召回率（Recall）和 F1 分数，因为仅看准确率可能会掩盖模型在查找潜在客户方面的不足。如果需要单一指标，可以使用 ROC 曲线下面积（AUC）。维护者已将这些指标添加到 README 和相关训练脚本中。","https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Fissues\u002F7",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},17904,"如何使用 SGDClassifier 和 ElasticNet 惩罚项来提高模型准确率？","可以使用以下代码配置并训练模型：sgd = SGDClassifier(n_iter=500, loss='modified_huber', penalty='elasticnet')，然后调用 sgd.fit(X, labels) 进行训练。用户反馈这种方法可以将准确率提升至 88% 左右。具体实现可参考相关 Notebook 或 run.py 脚本。","https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Fissues\u002F6",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},17905,"train_algorithm\u002Frun.py 中的 cleanUp 函数有一个未使用的 'disc' 参数，这会影响模型训练吗？","该参数确实是多余的，在代码逻辑中并未被实际使用。维护者已确认这是遗留代码并会将其移除。您可以安全地忽略该参数或直接使用更新后的代码版本。","https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Fissues\u002F8",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},17906,"是否支持使用不平衡训练集来调整误报和漏报的容忍度？","这是一个很好的建议，可以通过使用不平衡训练集或深入分析评分概率来调整类型 I 和类型 II 错误的容忍度。目前官方暂未实施此功能，但欢迎社区提交 Pull Request 来实现这一特性。","https:\u002F\u002Fgithub.com\u002Fxeneta\u002FLeadQualifier\u002Fissues\u002F1",[]]