[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-geffy--tffm":3,"tool-geffy--tffm":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",155373,2,"2026-04-14T11:34:08",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":77,"languages":78,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":32,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":102,"github_topics":104,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":108,"updated_at":109,"faqs":110,"releases":145},7556,"geffy\u002Ftffm","tffm","TensorFlow implementation of an arbitrary order Factorization Machine","tffm 是一个基于 TensorFlow 开源实现的因子分解机（Factorization Machine）库，支持任意阶数（二阶及以上）的模型构建。它主要解决了在推荐系统、广告点击率预测等场景中，如何高效处理高维稀疏数据并捕捉特征间复杂交互关系的难题。\n\n这款工具非常适合机器学习开发者、数据科学家以及从事推荐算法研究的人员使用。其接口设计高度模仿 scikit-learn，使得熟悉该生态的用户能够零门槛上手，快速完成从数据训练到模型评估的全流程。\n\ntffm 的技术亮点在于其灵活性与效率：它不仅同时支持稠密和稀疏输入，还内置了多种基于梯度的优化器及损失函数，可轻松切换于分类与回归任务之间。值得一提的是，尽管支持高阶特征交互，其推理时间仍随特征数量呈线性增长，保证了大规模数据下的运行效率。此外，它还原生集成 TensorBoard 日志功能，方便用户实时监控训练过程。无论是复现经典论文算法，还是探索高阶因子分解机的实际应用，tffm 都是一个轻量且强大的选择。","This is a TensorFlow implementation of an arbitrary order (>=2) Factorization Machine based on paper [Factorization Machines with libFM](http:\u002F\u002Fdl.acm.org\u002Fcitation.cfm?doid=2168752.2168771).\n\nIt supports:\n* dense and sparse inputs\n* different (gradient-based) optimization methods\n* classification\u002Fregression via different loss functions (logistic and mse implemented)\n* logging via TensorBoard\n\nThe inference time is linear with respect to the number of features.\n\nTested on Python3.5, but should work on Python2.7\n\nThis implementation is quite similar to the one described in Blondel's et al. paper [https:\u002F\u002Farxiv.org\u002Fabs\u002F1607.07195], but was developed independently and prior to the first appearance of the paper.\n\n# Dependencies\n* [scikit-learn](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002F)\n* [numpy](http:\u002F\u002Fwww.numpy.org\u002F)\n* [tqdm](https:\u002F\u002Fgithub.com\u002Ftqdm\u002Ftqdm)\n* [tensorflow 1.0+ (tested on 1.3)](https:\u002F\u002Fwww.tensorflow.org\u002F)\n\n# Installation\nStable version can be installed via `pip install tffm`. \n\n# Usage\nThe interface is similar to scikit-learn models. To train a 6-order FM model with rank=10 for 100 iterations with learning_rate=0.01 use the following sample\n```python\nfrom tffm import TFFMClassifier\nmodel = TFFMClassifier(\n    order=6,\n    rank=10,\n    optimizer=tf.train.AdamOptimizer(learning_rate=0.01),\n    n_epochs=100,\n    batch_size=-1,\n    init_std=0.001,\n    input_type='dense'\n)\nmodel.fit(X_tr, y_tr, show_progress=True)\n```\n\nSee `example.ipynb` and `gpu_benchmark.ipynb` for more details.\n\nIt's highly recommended to read `tffm\u002Fcore.py` for help.\n\n\n# Testing\nJust run ```python test.py``` in the terminal. ```nosetests``` works too, but you must pass the `--logging-level=WARNING` flag to avoid printing insane amounts of TensorFlow logs to the screen.\n\n\n# Citation\nIf you use this software in academic research, please, cite it using the following BibTeX:\n```latex\n@misc{trofimov2016,\nauthor = {Mikhail Trofimov, Alexander Novikov},\ntitle = {tffm: TensorFlow implementation of an arbitrary order Factorization Machine},\nyear = {2016},\npublisher = {GitHub},\njournal = {GitHub repository},\nhowpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fgeffy\u002Ftffm}},\n}\n```\n","这是一个基于 TensorFlow 的任意阶（≥2）因子分解机实现，灵感来源于论文《带有 libFM 的因子分解机》（http:\u002F\u002Fdl.acm.org\u002Fcitation.cfm?doid=2168752.2168771）。\n\n该实现支持：\n* 密集型和稀疏型输入\n* 不同的（基于梯度的）优化方法\n* 通过不同损失函数进行分类或回归（已实现逻辑斯谛损失和均方误差损失）\n* 通过 TensorBoard 进行日志记录\n\n推理时间与特征数量呈线性关系。\n\n已在 Python 3.5 上测试通过，但也应能在 Python 2.7 上运行。\n\n该实现与 Blondel 等人在论文 [https:\u002F\u002Farxiv.org\u002Fabs\u002F1607.07195] 中描述的实现非常相似，但它是独立开发的，并且早于该论文的首次发表。\n\n# 依赖项\n* [scikit-learn](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002F)\n* [numpy](http:\u002F\u002Fwww.numpy.org\u002F)\n* [tqdm](https:\u002F\u002Fgithub.com\u002Ftqdm\u002Ftqdm)\n* [tensorflow 1.0+（已在 1.3 上测试）](https:\u002F\u002Fwww.tensorflow.org\u002F)\n\n# 安装\n稳定版本可以通过 `pip install tffm` 进行安装。\n\n# 使用\n接口设计与 scikit-learn 模型类似。要训练一个阶数为 6、秩为 10、学习率为 0.01、迭代次数为 100 的 FM 模型，可以使用以下示例代码：\n```python\nfrom tffm import TFFMClassifier\nmodel = TFFMClassifier(\n    order=6,\n    rank=10,\n    optimizer=tf.train.AdamOptimizer(learning_rate=0.01),\n    n_epochs=100,\n    batch_size=-1,\n    init_std=0.001,\n    input_type='dense'\n)\nmodel.fit(X_tr, y_tr, show_progress=True)\n```\n\n更多详细信息请参阅 `example.ipynb` 和 `gpu_benchmark.ipynb`。\n\n强烈建议阅读 `tffm\u002Fcore.py` 以获取帮助。\n\n# 测试\n只需在终端中运行 `python test.py` 即可。也可以使用 `nosetests`，但必须传递 `--logging-level=WARNING` 标志，以避免在屏幕上打印大量 TensorFlow 日志。\n\n# 引用\n如果您在学术研究中使用本软件，请使用以下 BibTeX 格式引用：\n```latex\n@misc{trofimov2016,\nauthor = {Mikhail Trofimov, Alexander Novikov},\ntitle = {tffm: TensorFlow 实现的任意阶因子分解机},\nyear = {2016},\npublisher = {GitHub},\njournal = {GitHub 仓库},\nhowpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fgeffy\u002Ftffm}},\n}\n```","# tffm 快速上手指南\n\ntffm 是一个基于 TensorFlow 实现的任意阶（>=2）因子分解机（Factorization Machine）库，支持稠密和稀疏输入、多种优化器及分类\u002F回归任务。\n\n## 环境准备\n\n**系统要求**\n- Python 3.5+（兼容 Python 2.7）\n- TensorFlow 1.0+（推荐 1.3 版本）\n\n**前置依赖**\n请确保已安装以下 Python 库：\n- `scikit-learn`\n- `numpy`\n- `tqdm`\n\n> **国内加速建议**：建议使用清华或阿里镜像源安装依赖，以提升下载速度。\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple scikit-learn numpy tqdm tensorflow==1.3\n> ```\n\n## 安装步骤\n\n可以通过 pip 直接安装稳定版：\n\n```bash\npip install tffm\n```\n\n若需使用国内镜像加速安装：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tffm\n```\n\n## 基本使用\n\ntffm 的接口设计与 `scikit-learn` 类似。以下示例展示如何训练一个 6 阶、秩为 10 的 FM 分类模型：\n\n```python\nfrom tffm import TFFMClassifier\nimport tensorflow as tf\n\n# 初始化模型\nmodel = TFFMClassifier(\n    order=6,\n    rank=10,\n    optimizer=tf.train.AdamOptimizer(learning_rate=0.01),\n    n_epochs=100,\n    batch_size=-1,\n    init_std=0.001,\n    input_type='dense'\n)\n\n# 训练模型 (X_tr 为特征矩阵，y_tr 为标签)\nmodel.fit(X_tr, y_tr, show_progress=True)\n```\n\n**参数说明：**\n- `order`: 因子分解机的阶数（>=2）。\n- `rank`: 隐向量的维度。\n- `optimizer`: TensorFlow 优化器对象。\n- `n_epochs`: 训练迭代次数。\n- `input_type`: 输入数据类型，可选 `'dense'` 或 `'sparse'`。\n\n更多详细用法请参考项目中的 `example.ipynb` 或源码 `tffm\u002Fcore.py`。","某电商推荐算法团队正致力于优化点击率（CTR）预估模型，需要处理包含数百万个稀疏特征的用户行为数据。\n\n### 没有 tffm 时\n- **高阶交互挖掘困难**：传统逻辑回归或浅层模型难以自动捕捉特征间复杂的高阶非线性关系，导致对长尾商品推荐不准。\n- **稀疏数据处理低效**：面对海量稀疏输入，自定义实现因子分解机（FM）不仅代码量大，且难以保证推理时间随特征数量线性增长，线上延迟高。\n- **调优与监控缺失**：缺乏原生支持的多种优化器选择，且无法直观通过 TensorBoard 监控训练过程，排查收敛问题如同“盲人摸象”。\n\n### 使用 tffm 后\n- **任意阶特征组合**：利用 tffm 支持任意阶数（>=2）的特性，轻松构建 6 阶 FM 模型，精准捕获用户、商品与上下文间的深层交互模式。\n- **高效稀疏计算**：借助其针对稀疏输入的优化架构，在保持高密度特征处理能力的同时，确保推理耗时与特征数呈线性关系，满足实时响应需求。\n- **灵活训练与可视化**：直接调用类似 scikit-learn 的简洁接口切换 Adam 等优化器，并通过内置的 TensorBoard 日志实时监控损失曲线，大幅缩短迭代周期。\n\ntffm 让团队能以极低的工程成本，将复杂的高阶因子分解机理论快速转化为高性能的生产级推荐模型。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeffy_tffm_5acffb45.png","geffy","Mikhail Trofimov","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgeffy_337eec8d.jpg",null,"Moscow","https:\u002F\u002Fgithub.com\u002Fgeffy",[79,83],{"name":80,"color":81,"percentage":82},"Jupyter Notebook","#DA5B0B",76.8,{"name":84,"color":85,"percentage":86},"Python","#3572A5",23.2,779,173,"2026-03-31T13:37:52","MIT","","未说明 (支持 GPU 加速，参考了 gpu_benchmark.ipynb，但无具体型号或显存要求)","未说明",{"notes":95,"python":96,"dependencies":97},"该工具基于 TensorFlow 1.x 版本开发（测试环境为 1.3），与现代 TensorFlow 2.x 可能存在兼容性问题。支持任意阶数（>=2）的因子分解机，输入支持稠密和稀疏格式。运行测试时需添加日志级别参数以避免输出过多 TensorFlow 日志。","3.5+ (兼容 2.7)",[98,99,100,101],"tensorflow>=1.0","scikit-learn","numpy","tqdm",[103,14],"其他",[105,106,107],"factorization-machines","tensorflow","research-project","2026-03-27T02:49:30.150509","2026-04-15T07:11:23.802749",[111,116,121,126,131,136,141],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},33870,"在稀疏数据上运行时出现 NaN 错误怎么办？","通常是因为初始化标准差（init_std）过大。解决方法有两种：1. 在构造函数中减小 `init_std` 参数；2. 修改 `tffm\u002Futils.py` 中的 `loss_logistic` 函数，对 margins 进行裁剪以防止数值溢出。具体代码修改如下：\n```python\nmargins = -y * tf.transpose(outputs)\nmargins = tf.minimum(margins, 5)\nmargins = tf.maximum(margins, -5)\nraw_loss = tf.log(tf.add(1.0, tf.exp(margins)))\n```","https:\u002F\u002Fgithub.com\u002Fgeffy\u002Ftffm\u002Fissues\u002F9",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},33871,"TFFM 的输出公式是否与原始 FM 论文中的公式一致？","是的，虽然代码内部使用了不同的计算公式（为了优化效率），但其数学结果与原始 FM 论文（Rendle 2010）中的公式完全一致。项目包含测试用例来验证这一点，因此可以放心使用保存的模型进行推理或重写输出逻辑。","https:\u002F\u002Fgithub.com\u002Fgeffy\u002Ftffm\u002Fissues\u002F47",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},33872,"代码中的 `self.train_w` 变量代表什么？","`self.train_w` 是一个包含每个样本重要性权重的向量。它的功能等同于 sklearn API 中的 `sample_weight` 参数，用于在计算损失函数时对不同样本赋予不同的权重。","https:\u002F\u002Fgithub.com\u002Fgeffy\u002Ftffm\u002Fissues\u002F40",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},33873,"当输入数据非常稀疏时，L2 正则化如何处理？是否会影响未使用的参数？","如果批量大小（batch_size）设置为 -1，即使数据稀疏，当前的 L2 正则化实现也是可行的。但如果数据非常稀疏且 batch_size 较小，原本的实现可能会惩罚未在当前批次中使用的参数。维护者已更新实现，采用基于权重而非索引的方式，仅对当前批次中实际使用的因子进行惩罚，从而解决了这一问题。","https:\u002F\u002Fgithub.com\u002Fgeffy\u002Ftffm\u002Fissues\u002F5",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},33874,"当交互阶数（order）大于等于 3 时，预测代码是否正确？","早期版本直接应用 Rendle 论文中的 Lemma 3.1，这在 order >= 3 时是不正确的。该问题已被修复，目前的实现已合并到 master 分支。虽然代码结构可能稍显复杂，但经过验证其复杂度关于特征数量是线性的，且预测结果正确。","https:\u002F\u002Fgithub.com\u002Fgeffy\u002Ftffm\u002Fissues\u002F1",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},33875,"如何选择合适的批量大小（batch size）？","最佳批量大小取决于具体的任务、数据集特性以及所使用的优化方法。没有通用的自动选择策略，需要根据实际情况进行调整和实验。","https:\u002F\u002Fgithub.com\u002Fgeffy\u002Ftffm\u002Fissues\u002F3",{"id":142,"question_zh":143,"answer_zh":144,"source_url":140},33876,"为什么 TFFM 的速度有时不如原始的 libFM 工具？","libFM 速度较快主要是因为它使用了优化的方式来计算预测值和梯度（详见原始论文）。这是主要原因之一，但也受数据集大小、单个样本中非零特征数量以及模型参数设置的影响。",[]]