[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cnkuangshi--LightCTR":3,"tool-cnkuangshi--LightCTR":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":79,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":80,"languages":81,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":106,"env_os":107,"env_gpu":108,"env_ram":109,"env_deps":110,"category_tags":116,"github_topics":117,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":125,"updated_at":126,"faqs":127,"releases":163},3198,"cnkuangshi\u002FLightCTR","LightCTR","Lightweight and Scalable framework that combines mainstream algorithms of Click-Through-Rate prediction based computational DAG, philosophy of Parameter Server and Ring-AllReduce collective communication.","LightCTR 是一款专为点击率（CTR）预测设计的轻量级、可扩展开源框架，旨在高效处理大规模稀疏数据。它主要解决了传统模型在面对高维稀疏特征时训练效率低、难以分布式扩展以及特征交叉能力不足的痛点，特别适用于广告推荐、用户行为序列分析及文本内容挖掘等场景。\n\n该框架非常适合机器学习开发者、算法研究人员及需要构建高性能推荐系统的工程师使用。对于希望深入理解分布式训练底层逻辑的学习者，LightCTR 清晰的代码执行逻辑也极具参考价值。\n\n在技术亮点上，LightCTR 创新性地融合了参数服务器（Parameter Server）与环状全归约（Ring-AllReduce）通信机制，支持高效的分布式训练。其核心基于计算有向无环图（DAG），内置了从经典的宽深模型、因子分解机（FM\u002FFFM）到梯度提升树、变分自编码器及注意力机制等多种主流算法。此外，它还支持半精度量化压缩、无锁多线程训练及多种优化器，能够在保证模型高精度的同时，显著降低资源消耗并提升推理速度，是平衡性能与效果的理想选择。","![Alt text -w135](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_ed4d9f1985f8.png)\n## LightCTR Overview\nLightCTR is a lightweight and scalable framework that combines mainstream algorithms of Click-Through-Rate prediction based **computational DAG, philosophy of Parameter Server and Ring-AllReduce collective communication**. The library is suitable for sparse data and designed for large-scale distributed model training.\n\nMeanwhile, LightCTR is also an **undergoing experimental study** and open source project that oriented to code readers. The clear execution logic will be of significance to leaners on the machine-learning related field.\n\n## Features\n* Distributed training based on Parameter Server and Ring-AllReduce collective communication\n* Directed Acyclic Graph(DAG) of autograd computation\n* Gradient clipping, stale synchronous parallel(SSP) and Asynchronous SGD with Delay compensation\n* Compressing Neural Network with Half precision and Quantization(PQ or Int8)\n* Shared parameters Key-Value pairs store in physical nodes by DHT in Shared memory\n* Lock-free Multi-threaded training and SIMD operations\n* Optimizer implemented by Mini-Batch GD, Adagrad, FTRL, Adam, etc\n\n## List of Implemented Algorithms\n\n* Wide & Deep Model\n* Factorization Machine, Field-aware Factorization Machine, Neural Factorization Machine\n* Gradient Boosting Tree Model\n* Gaussian Mixture Clustering Model\n* Topic Model PLSA, Embedding Model\n* Ngram Convolution Neural Network, Self-Attention Recurrent Neural Network\n* Variational AutoEncoder\n* Approximate Nearest Neighbors Retrieval\n\n## Benchmark\n#### High performance\n\u003Cdiv>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_2fd560f91162.png\" width = \"350\"\u002F>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_dd857cf13f06.png\" width = \"350\"\u002F>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_e8218c4962a8.png\" width = \"350\"\u002F>\n\u003C\u002Fdiv>\n\n#### Scalable\n\u003Cdiv>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_96f19dca017a.png\" width = \"420\"\u002F>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_9a806d3a00ec.png\" width = \"420\"\u002F>\n\u003C\u002Fdiv>\n\n## Introduction (zh)\n#### 用于群体发现\n点击率预估即是给合适的用户群体投放合适的内容，以达成促进广告收益或交易转化率的目的。具体操作来说，将收集到的用户点击与行为数据，用离散值与连续值结构化描述特征、归一化与De-bias等处理后，选择合适的模型拟合流量的数据分布，来对用户是否会对某一内容感兴趣并带来商业转化的概率进行评估；通常可将所有特征组合输入集成树模型`LightCTR::GBM`预先找群体，训练得到的每个叶子节点代表一个用户群，再使用`LightCTR::LR`或`LightCTR::MLP`对树模型建立的低维0\u002F1群体特征做进一步分类。\n当标识类别的离散特征过多使得输入变得高维稀疏，可能达到树模型与神经网络的处理瓶颈；一般可使用`LightCTR::FM`或`LightCTR::FFM`将离散特征做特征交叉训练，提升了特征利用率并降低了数据稀疏下的过拟合的风险，每维特征映射在低维空间中，也方便作为连续特征输入其他模型。\n相比使用FM预训练特征低维映射后、再输入DNN中的两阶段训练，通过DNN在输入层按Field内部局部连接，在输入层直接端到端训练特征低维Embedding，可以更好的保证模型时效性；或采用将DNN嵌入FM模型中的`LightCTR::NFM`及其他相关变种，进行特征非线性高维组合，提升模型的表征能力，拥有更好的AUC表现。\n\n#### 用于行为序列\n用户点击内容序列往往蕴含内容间的局部相关性信息，如前后点击同一类商品或查看同一类网页，这些行为序列的局部关系可被`LightCTR::Embedding`建模捕获，得到点击内容或行为的低维隐向量表示；或基于变分自编码器`LightCTR::VAE`实现特征组合衍生，增强低维特征的表达能力；低维隐向量可被用来判断相关性或直接作为其他模型输入。进一步，序列数据经过平滑处理后，将训练好的行为隐向量按时序输入循环神经网络`LightCTR::LSTMUnit`，最后将RNN输出的特征表达输入`LightCTR::Softmax`分类器，利用预设的监督标签，训练对用户的评估模型或判别模型；\n当预设标签覆盖率不足时，可将高维特征表达输入`LightCTR::GMM`进行无监督聚类，聚类簇概括为意图簇，作为用户意图匹配的依据，补充到用户画像的人群类别中。\n\n#### 用于内容分析\n用户评论、搜索广告页面上下文等文本也蕴含很多用户的兴趣信息可被挖掘，如搜索广告场景下用户关键词需要匹配语义相关度最高的拍卖词进而投放高转化率的广告，因此分析文本信息是点击率预估的重要依据。在提取整段文本语义信息方面，首先可使用`LightCTR::Embedding`预先训练词向量表，对文本中出现的词按词频做词向量加权并移除主成分；或参考Skip-thought方法结合负例采样，将文本中每个词向量按时序输入`LightCTR::LSTMUnit`，训练得到文本的语义特征表达，向量内积对应文本相关度。此外，参考DSSM将由文本词向量构成的矩阵，输入Ngram卷积神经网络`LightCTR::CNN`用于提取句子局部语义相关性特征，并结合正负样本训练对预设标签的Pairwise判别模型。\n当文本缺乏分类标签时，可使用`LightCTR::PLSA`无监督的获取文章主题分布，应用于按主题分布区分不同内容类别、计算长语料与短查询间的语义相似度，也可通过后验计算得到上下文中各词汇的重要程度，作为长文本关键词摘要。\n\n#### 分层模型融合\n更复杂的模型带来更好的表征能力，但同时也加大了计算时间消耗，而响应时间与点击率呈强负相关，因此为了兼顾线上点击率预估的性能与效果，可使用不同模型逐层预测，如第一层采用在线学习、并引入稀疏解的简单模型`LightCTR::FTRL_LR`，第二层采用上文提到的输入层局部连接的`LightCTR::MLP`、或`LightCTR::NFM`等复杂模型进行精细预测。在系统层面，抽取并缓存DNN模型中最后一组全连接层权值或输出，作为用户或商品的固定表达，使用`LightCTR::ANN`近邻向量检索的TopN结果作为推荐召回，在最大化CTR\u002FROI的同时，降低线上推理的平均响应时间。此外，LightCTR在探索通过模型参数分位点压缩、二值网络等方法，在不损失预测精度前提下大幅提升计算效率。\n\n#### 多机多线程并行计算\nLightCTR使用SIMD向量化指令、流水线并行、多核心多线程计算、Cache-aware等多重优化手段实现单机高性能数值计算，但当模型参数量超过单机内存容量、或单机训练效率达不到时效性要求时，LightCTR进一步提供了基于参数服务器与Ring-AllReduce的可扩展模型集群训练方案。\n* 参数服务器模式下，集群分为Master, ParamServer与Worker三种角色；一个集群有一个Master负责集群启动与运行状态的维护，大规模模型稀疏与稠密Tensor参数以DHT散布在多个ParamServer上，与多个负责模型数据并行梯度运算的Worker协同，每轮训练都先从ParamServer拉取(Pull)一个样本Batch的参数，运算得到的参数梯度推送(Push)到ParamServer进行梯度汇总。ParamServer通过梯度TopK截断、延迟梯度补偿等手段，异步无锁、半同步的更新参数。参数在ParamServer上紧凑存储，按特征命中率进行优选与淘汰；使用变长编码\u002F半精度\u002FInt8的方式压缩梯度传输量，并用Batch化参数请求与读写分离的方法提升网络同步效率。\n* 环拓扑Ring-AllReduce模式下，LightCTR在不引入协调节点下实现集群训练进度的动态自平衡，结合梯度融合机制，实现了高效、高稳定性的去中心化梯度同步，适合稠密参数模型的可扩展训练；在这种模式下每个节点存储全量模型可单独提供推理预测能力，训练过程通过有限次迭代获取其他节点梯度结果，在一定集群规模与合适的Batch size、学习率设置下可实现训练任务的线性加速比。\n* LightCTR分布式集群采取心跳监控、消息重传等Failover容错方式。此外，LightCTR也在探索RDMA、DPDK、多网卡等网络优化方式来降低网络通信延时。\n\n## Quick Start\n* LightCTR depends on C++11 and ZeroMQ only, lightweight and modular design\n* Easy to use, just change configuration (e.g. Learning Rate, Data source) in `main.cpp`\n* run `.\u002Fbuild.sh` to start training task on Parameter Server mode or `.\u002Fbuild_ring.sh` to start on Ring-AllReduce mode\n* Current CI Status: [![Build Status](https:\u002F\u002Ftravis-ci.org\u002Fcnkuangshi\u002FLightCTR.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Fcnkuangshi\u002FLightCTR) on Ubuntu and MacOS\n\n## Welcome to Contribute\n* Welcome everyone interested in intersection of machine learning and scalable systems to contribute code, create issues or pull requests.\n* LightCTR is released under the Apache License, Version 2.0.\n\n## Disclaimer\n* Please note that LightCTR is still undergoing and it does not give any warranties, as to the suitability or usability.\n\n","![Alt text -w135](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_ed4d9f1985f8.png)\n## LightCTR 概述\nLightCTR 是一个轻量级且可扩展的框架，结合了主流的点击率预测算法，基于 **计算有向无环图、参数服务器理念和 Ring-AllReduce 集体通信**。该库适用于稀疏数据，并专为大规模分布式模型训练而设计。\n\n同时，LightCTR 也是一项面向代码阅读者的 **正在进行中的实验性研究** 和开源项目。其清晰的执行逻辑对于机器学习相关领域的学习者具有重要意义。\n\n## 功能特性\n* 基于参数服务器和 Ring-AllReduce 集体通信的分布式训练\n* 自动求导计算的有向无环图（DAG）\n* 梯度裁剪、过时同步并行（SSP）以及带有延迟补偿的异步 SGD\n* 使用半精度和量化技术（PQ 或 Int8）压缩神经网络\n* 共享参数键值对通过 DHT 存储在共享内存中的物理节点上\n* 无锁多线程训练和 SIMD 操作\n* 支持小批量梯度下降、Adagrad、FTRL、Adam 等优化器\n\n## 已实现算法列表\n\n* Wide & Deep 模型\n* 因子分解机、领域感知因子分解机、神经网络因子分解机\n* 梯度提升树模型\n* 高斯混合聚类模型\n* 主题模型 PLSA、嵌入模型\n* Ngram 卷积神经网络、自注意力循环神经网络\n* 变分自编码器\n* 近似最近邻检索\n\n## 基准测试\n#### 高性能\n\u003Cdiv>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_2fd560f91162.png\" width = \"350\"\u002F>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_dd857cf13f06.png\" width = \"350\"\u002F>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_e8218c4962a8.png\" width = \"350\"\u002F>\n\u003C\u002Fdiv>\n\n#### 可扩展性\n\u003Cdiv>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_96f19dca017a.png\" width = \"420\"\u002F>\n\u003Cimg style=\"float:left;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_readme_9a806d3a00ec.png\" width = \"420\"\u002F>\n\u003C\u002Fdiv>\n\n## 介绍 (zh)\n#### 用于群体发现\n点击率预估即是给合适的用户群体投放合适的内容，以达成促进广告收益或交易转化率的目的。具体操作来说，将收集到的用户点击与行为数据，用离散值与连续值结构化描述特征、归一化与De-bias等处理后，选择合适的模型拟合流量的数据分布，来对用户是否会对某一内容感兴趣并带来商业转化的概率进行评估；通常可将所有特征组合输入集成树模型`LightCTR::GBM`预先找群体，训练得到的每个叶子节点代表一个用户群，再使用`LightCTR::LR`或`LightCTR::MLP`对树模型建立的低维0\u002F1群体特征做进一步分类。\n当标识类别的离散特征过多使得输入变得高维稀疏，可能达到树模型与神经网络的处理瓶颈；一般可使用`LightCTR::FM`或`LightCTR::FFM`将离散特征做特征交叉训练，提升了特征利用率并降低了数据稀疏下的过拟合的风险，每维特征映射在低维空间中，也方便作为连续特征输入其他模型。\n相比使用FM预训练特征低维映射后、再输入DNN中的两阶段训练，通过DNN在输入层按Field内部局部连接，在输入层直接端到端训练特征低维Embedding，可以更好的保证模型时效性；或采用将DNN嵌入FM模型中的`LightCTR::NFM`及其他相关变种，进行特征非线性高维组合，提升模型的表征能力，拥有更好的AUC表现。\n\n#### 用于行为序列\n用户点击内容序列往往蕴含内容间的局部相关性信息，如前后点击同一类商品或查看同一类网页，这些行为序列的局部关系可被`LightCTR::Embedding`建模捕获，得到点击内容或行为的低维隐向量表示；或基于变分自编码器`LightCTR::VAE`实现特征组合衍生，增强低维特征的表达能力；低维隐向量可被用来判断相关性或直接作为其他模型输入。进一步，序列数据经过平滑处理后，将训练好的行为隐向量按时序输入循环神经网络`LightCTR::LSTMUnit`，最后将RNN输出的特征表达输入`LightCTR::Softmax`分类器，利用预设的监督标签，训练对用户的评估模型或判别模型；\n当预设标签覆盖率不足时，可将高维特征表达输入`LightCTR::GMM`进行无监督聚类，聚类簇概括为意图簇，作为用户意图匹配的依据，补充到用户画像的人群类别中。\n\n#### 用于内容分析\n用户评论、搜索广告页面上下文等文本也蕴含很多用户的兴趣信息可被挖掘，如搜索广告场景下用户关键词需要匹配语义相关度最高的拍卖词进而投放高转化率的广告，因此分析文本信息是点击率预估的重要依据。在提取整段文本语义信息方面，首先可使用`LightCTR::Embedding`预先训练词向量表，对文本中出现的词按词频做词向量加权并移除主成分；或参考Skip-thought方法结合负例采样，将文本中每个词向量按时序输入`LightCTR::LSTMUnit`，训练得到文本的语义特征表达，向量内积对应文本相关度。此外，参考DSSM将由文本词向量构成的矩阵，输入Ngram卷积神经网络`LightCTR::CNN`用于提取句子局部语义相关性特征，并结合正负样本训练对预设标签的Pairwise判别模型。\n当文本缺乏分类标签时，可使用`LightCTR::PLSA`无监督的获取文章主题分布，应用于按主题分布区分不同内容类别、计算长语料与短查询间的语义相似度，也可通过后验计算得到上下文中各词汇的重要程度，作为长文本关键词摘要。\n\n#### 分层模型融合\n更复杂的模型带来更好的表征能力，但同时也加大了计算时间消耗，而响应时间与点击率呈强负相关，因此为了兼顾线上点击率预估的性能与效果，可使用不同模型逐层预测，如第一层采用在线学习、并引入稀疏解的简单模型`LightCTR::FTRL_LR`，第二层采用上文提到的输入层局部连接的`LightCTR::MLP`、或`LightCTR::NFM`等复杂模型进行精细预测。在系统层面，抽取并缓存DNN模型中最后一组全连接层权值或输出，作为用户或商品的固定表达，使用`LightCTR::ANN`近邻向量检索的TopN结果作为推荐召回，在最大化CTR\u002FROI的同时，降低线上推理的平均响应时间。此外，LightCTR在探索通过模型参数分位点压缩、二值网络等方法，在不损失预测精度前提下大幅提升计算效率。\n\n#### 多机多线程并行计算\nLightCTR使用SIMD向量化指令、流水线并行、多核心多线程计算、Cache-aware等多重优化手段实现单机高性能数值计算，但当模型参数量超过单机内存容量、或单机训练效率达不到时效性要求时，LightCTR进一步提供了基于参数服务器与Ring-AllReduce的可扩展模型集群训练方案。\n* 参数服务器模式下，集群分为Master, ParamServer与Worker三种角色；一个集群有一个Master负责集群启动与运行状态的维护，大规模模型稀疏与稠密Tensor参数以DHT散布在多个ParamServer上，与多个负责模型数据并行梯度运算的Worker协同，每轮训练都先从ParamServer拉取(Pull)一个样本Batch的参数，运算得到的参数梯度推送(Push)到ParamServer进行梯度汇总。ParamServer通过梯度TopK截断、延迟梯度补偿等手段，异步无锁、半同步的更新参数。参数在ParamServer上紧凑存储，按特征命中率进行优选与淘汰；使用变长编码\u002F半精度\u002FInt8的方式压缩梯度传输量，并用Batch化参数请求与读写分离的方法提升网络同步效率。\n* 环拓扑Ring-AllReduce模式下，LightCTR在不引入协调节点下实现集群训练进度的动态自平衡，结合梯度融合机制，实现了高效、高稳定性的去中心化梯度同步，适合稠密参数模型的可扩展训练；在这种模式下每个节点存储全量模型可单独提供推理预测能力，训练过程通过有限次迭代获取其他节点梯度结果，在一定集群规模与合适的Batch size、学习率设置下可实现训练任务的线性加速比。\n* LightCTR分布式集群采取心跳监控、消息重传等Failover容错方式。此外，LightCTR也在探索RDMA、DPDK、多网卡等网络优化方式来降低网络通信延时。\n\n## 快速入门\n* LightCTR 仅依赖 C++11 和 ZeroMQ，设计轻量且模块化。\n* 使用简单，只需在 `main.cpp` 中更改配置（例如学习率、数据源）。\n* 运行 `.\u002Fbuild.sh` 以在参数服务器模式下启动训练任务，或运行 `.\u002Fbuild_ring.sh` 以在 Ring-AllReduce 模式下启动训练任务。\n* 当前 CI 状态：[![Build Status](https:\u002F\u002Ftravis-ci.org\u002Fcnkuangshi\u002FLightCTR.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Fcnkuangshi\u002FLightCTR) 在 Ubuntu 和 MacOS 上。\n\n## 欢迎贡献\n* 欢迎所有对机器学习与可扩展系统交叉领域感兴趣的人士参与代码贡献、创建问题或提交拉取请求。\n* LightCTR 根据 Apache 许可证第 2.0 版发布。\n\n## 免责声明\n* 请注意，LightCTR 仍在开发中，不提供任何关于其适用性或可用性的保证。","# LightCTR 快速上手指南\n\nLightCTR 是一个轻量级、可扩展的点击率（CTR）预估框架，专为大规模稀疏数据分布式训练设计。它结合了参数服务器（Parameter Server）和环状全归约（Ring-AllReduce）通信机制，支持多种主流深度学习与机器学习算法。\n\n## 环境准备\n\n### 系统要求\n*   **操作系统**: Ubuntu 或 macOS (CI 测试通过)\n*   **编译器**: 支持 C++11 标准的编译器 (如 GCC, Clang)\n\n### 前置依赖\nLightCTR 设计极简，仅依赖以下核心库：\n*   **C++11**: 标准库支持\n*   **ZeroMQ**: 用于分布式通信\n\n> **国内加速建议**：\n> 在 Ubuntu 系统上，推荐使用国内镜像源安装依赖，以提升下载速度：\n> ```bash\n> # 以 Ubuntu 为例，替换为阿里云或清华源后安装\n> sudo apt-get update\n> sudo apt-get install libzmq3-dev build-essential\n> ```\n\n## 安装步骤\n\nLightCTR 采用模块化设计，无需复杂的安装过程，只需克隆代码并执行构建脚本即可。\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fcnkuangshi\u002FLightCTR.git\n    cd LightCTR\n    ```\n\n2.  **配置模型参数**\n    在运行前，需根据需求修改 `main.cpp` 文件中的配置项（如学习率、数据源路径、模型类型等）。\n    ```bash\n    vim main.cpp\n    # 修改对应的配置参数，例如：\n    # config.learning_rate = 0.01;\n    # config.data_source = \".\u002Fdata\u002Fsample.txt\";\n    ```\n\n3.  **编译构建**\n    根据所需的分布式模式选择对应的构建脚本：\n\n    *   **参数服务器模式 (Parameter Server)**：适合大规模稀疏参数模型。\n        ```bash\n        .\u002Fbuild.sh\n        ```\n\n    *   **环状全归约模式 (Ring-AllReduce)**：适合稠密参数模型及去中心化训练。\n        ```bash\n        .\u002Fbuild_ring.sh\n        ```\n\n## 基本使用\n\n构建成功后，可直接运行生成的可执行文件启动训练任务。\n\n### 1. 启动训练\n默认情况下，编译后的程序将读取 `main.cpp` 中配置的参数并开始训练。\n\n*   **PS 模式启动示例**：\n    ```bash\n    .\u002Flight_ctr_ps\n    ```\n    *(注：具体可执行文件名可能因编译输出而异，请查看当前目录下的生成文件)*\n\n*   **Ring 模式启动示例**：\n    在多机环境下，需在各个节点分别运行编译后的程序，它们会自动通过 ZeroMQ 发现彼此并建立环形通信。\n\n### 2. 典型应用场景\n根据 `main.cpp` 中的配置，您可以轻松切换以下算法模型：\n*   **基础模型**: `LightCTR::LR` (逻辑回归), `LightCTR::FM` (因子分解机), `LightCTR::FFM` (域感知因子分解机)\n*   **深度学习**: `LightCTR::MLP` (多层感知机), `LightCTR::NFM` (神经因子分解机), `LightCTR::LSTMUnit` (序列建模)\n*   **其他算法**: `LightCTR::GBM` (梯度提升树), `LightCTR::VAE` (变分自编码器), `LightCTR::ANN` (近似最近邻检索)\n\n### 3. 分层融合示例\n为了实现高性能在线预估，可在代码中配置分层策略：\n1.  第一层使用 `LightCTR::FTRL_LR` 进行快速粗排。\n2.  第二层使用 `LightCTR::NFM` 或 `LightCTR::MLP` 对粗排结果进行精排。\n3.  利用 `LightCTR::ANN` 缓存向量表示，加速推荐召回。\n\n> **注意**：LightCTR 目前仍处于实验性研究阶段，适用于算法学习与大规模系统探索，生产环境使用前请充分验证其稳定性。","某大型电商平台的广告团队正面临“双 11\"大促前的模型升级挑战，需要在海量稀疏用户行为数据上训练高精度的点击率（CTR）预估模型。\n\n### 没有 LightCTR 时\n- **训练效率低下**：面对亿级稀疏特征，传统单机或简单分布式框架内存溢出频发，训练一个 Wide & Deep 模型往往需要数天，无法跟上每日更新的流量分布。\n- **特征交叉瓶颈**：处理高维离散特征时，手动构建特征交叉组合不仅工程量大，且容易因数据稀疏导致过拟合，难以捕捉用户细粒度的兴趣偏好。\n- **通信开销巨大**：在多节点集群训练中，参数同步采用的传统方式导致网络带宽成为瓶颈，随着节点增加，加速比反而下降，算力浪费严重。\n- **线上响应延迟**：复杂的深度模型推理耗时过长，无法满足广告竞价系统毫秒级的响应要求，被迫在模型精度和在线性能之间做妥协。\n\n### 使用 LightCTR 后\n- **极速分布式训练**：利用 LightCTR 的 Parameter Server 与 Ring-AllReduce 混合架构，轻松支撑大规模稀疏数据，将原本数天的训练时间缩短至小时级，实现模型天级甚至实时更新。\n- **自动化特征表征**：直接调用 LightCTR::FFM 或 NFM 算法，端到端自动学习低维 Embedding 并高效完成特征非线性交叉，显著提升了稀疏数据下的 AUC 表现。\n- **线性扩展能力**：得益于无锁多线程与高效的集体通信机制，增加训练节点即可近乎线性地提升训练速度，充分释放集群算力。\n- **分层推理优化**：采用 LightCTR 的分层融合策略，第一层用 FTRL_LR 快速筛选，第二层用轻量级 DNN 精细预估，并结合 ANN 向量检索，在保证高转化率的同时将线上推理延迟降低 60%。\n\nLightCTR 通过其高性能分布式架构与丰富的算法库，帮助团队在海量稀疏数据场景下实现了从“训不动、推不快”到“实时迭代、精准命中”的跨越。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcnkuangshi_LightCTR_90e0377a.png","cnkuangshi","Kuangshi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcnkuangshi_cd481062.png",null,"Beijing","https:\u002F\u002Fgithub.com\u002Fcnkuangshi",[82,86,90,94,98],{"name":83,"color":84,"percentage":85},"C++","#f34b7d",92.5,{"name":87,"color":88,"percentage":89},"C","#555555",6.2,{"name":91,"color":92,"percentage":93},"Python","#3572A5",0.6,{"name":95,"color":96,"percentage":97},"Makefile","#427819",0.4,{"name":99,"color":100,"percentage":101},"Shell","#89e051",0.3,671,138,"2026-03-03T01:21:51","Apache-2.0",4,"Linux, macOS","未说明 (基于 CPU 优化，支持 SIMD 指令集)","未说明 (分布式模式下参数存储于多节点内存，单机需求取决于模型大小)",{"notes":111,"python":112,"dependencies":113},"该工具主要基于 C++11 和 ZeroMQ 构建，无需 Python 环境。支持参数服务器 (Parameter Server) 和环状全归约 (Ring-AllReduce) 两种分布式训练模式。利用 SIMD 向量化指令和多线程技术进行单机加速。可通过修改 main.cpp 配置文件来调整学习率和数据源等参数。","不需要 (基于 C++11)",[114,115],"C++11","ZeroMQ",[13],[118,119,120,121,122,123,124],"machine-learning","deep-learning","factorization-machines","distributed-systems","parameter-server","model-compression","computational-graphs","2026-03-27T02:49:30.150509","2026-04-06T05:38:00.046241",[128,133,138,143,148,153,158],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},14750,"编译时出现 'undefined reference to zmq_socket' 等 ZeroMQ 相关错误怎么办？","这通常是因为系统中未正确安装或链接 ZeroMQ 库。请尝试重新构建并安装 ZeroMQ 到您的系统环境中，然后在编译命令中添加 -lzmq 参数进行链接。","https:\u002F\u002Fgithub.com\u002Fcnkuangshi\u002FLightCTR\u002Fissues\u002F7",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},14751,"执行 build.sh 时报错 'call of overloaded isnan(double&) is ambiguous' 如何解决？","这是 C++ 中 isnan 函数重载歧义的问题。您可以参考 StackOverflow 上的解决方案：https:\u002F\u002Fstackoverflow.com\u002Fquestions\u002F33770374\u002Fwhy-is-isnan-ambiguous-and-how-to-avoid-it，通常需要通过显式类型转换或包含正确的头文件（如 \u003Ccmath> 并使用 std::isnan）来解决。","https:\u002F\u002Fgithub.com\u002Fcnkuangshi\u002FLightCTR\u002Fissues\u002F9",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},14752,"LightCTR 是否支持数据并行或模型并行？使用什么同步算法？","目前 LightCTR 支持单机多线程数据并行（粒度为每组 batch 或每条数据的梯度运算），部分算法（如 GBDT 分裂特征寻找、EM 类算法隐变量计算）已采用模型并行。未来将开源分布式训练版本，引入 BSP（批量同步并行）、SSP（随机异步并行）等梯度同步方案。","https:\u002F\u002Fgithub.com\u002Fcnkuangshi\u002FLightCTR\u002Fissues\u002F4",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},14753,"项目中 .travis.yml 和 .xcodeproj 文件的作用是什么？是否需要保留？",".travis.yml 是持续集成（CI）配置文件，用于自动构建和检测编译错误；.xcodeproj 是为了方便 macOS 用户阅读源码和调试。维护者表示会根据社区反馈优化项目结构，分布式版本已移除 .xcodeproj，但 CI 配置对保证代码质量很重要。","https:\u002F\u002Fgithub.com\u002Fcnkuangshi\u002FLightCTR\u002Fissues\u002F2",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},14754,"FFM 算法示例需要使用哪些数据文件（如 ad_train.csv）？","社区用户也在询问 FFM 示例所需的 ad_train.csv 和 ad_test.csv 数据文件。目前官方尚未在仓库中直接提供这些数据，建议关注项目后续更新或向维护者请求分享具体数据集。","https:\u002F\u002Fgithub.com\u002Fcnkuangshi\u002FLightCTR\u002Fissues\u002F8",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},14755,"是否有完整的运行示例（example）可供参考？","维护者表示完整的 example 将在项目完整开源后加入。建议关注仓库后续更新，目前已开源分布式版本，可能包含更多示例代码。","https:\u002F\u002Fgithub.com\u002Fcnkuangshi\u002FLightCTR\u002Fissues\u002F1",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},14756,"LightCTR 是否有 Python 版本？","截至该 Issue 提出时，官方尚未发布 Python 版本。该项目主要以 C++ 实现，如需 Python 接口可能需要自行封装或等待社区贡献。","https:\u002F\u002Fgithub.com\u002Fcnkuangshi\u002FLightCTR\u002Fissues\u002F5",[]]