[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-sjvasquez--web-traffic-forecasting":3,"tool-sjvasquez--web-traffic-forecasting":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":79,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":102,"github_topics":103,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":108,"updated_at":109,"faqs":110,"releases":111},3743,"sjvasquez\u002Fweb-traffic-forecasting","web-traffic-forecasting","Kaggle | Web Traffic Forecasting 📈","web-traffic-forecasting 是一个专为网页流量预测设计的开源解决方案，源自 Kaggle 同名竞赛。它旨在解决大规模时间序列预测难题，具体任务是基于 2015 年至 2017 年的历史数据，精准预测约 14.5 万个不同维基百科条目在未来 64 天内的每日访问量。\n\n该项目特别适合从事数据科学、机器学习的研究人员以及需要处理海量时序数据的开发者使用。其核心亮点在于创新地采用了单个神经网络来统一建模所有时间序列，而非为每个条目单独训练模型。架构上，它借鉴了 DeepMind 的 WaveNet 设计，利用堆叠的扩张因果卷积捕捉复杂的时间依赖关系。更值得一提的是，为了克服长序列预测中误差累积的痛点，web-traffic-forecasting 对传统 WaveNet 进行了改进：采用编码器 - 解码器结构且两者不共享参数，并直接针对 64 步的展开损失进行优化。这种“序列到序列”的策略显著提升了长期预测的连贯性与准确性，为处理类似的大规模流量预估任务提供了极具价值的参考范式。","# Web Traffic Forecasting\nMy solution for the Web Traffic Forecasting competition hosted on Kaggle.\n\n## The Task\nThe training dataset consists of approximately 145k time series.  Each of these time series represents a number of daily views of a different Wikipedia article, starting from July 1st, 2015 up until September 10th, 2017. The goal is to forecast the daily views between September 13th, 2017 and November 13th, 2017 for each article in the dataset. The name of the article as well as the type of traffic (all, mobile, desktop, spider) is given for each article.\n\nThe evaluation metric is symmetric mean absolute percentage error (SMAPE).\n\n\n## The Approach\nA single neural network was used to model all 145k time series.  The model architecture is similar to WaveNet, consisting of a stack of dilated causal convolutions, as demonstrated in the [diagram](https:\u002F\u002Fdeepmind.com\u002Fblog\u002Fwavenet-generative-model-raw-audio\u002F) below.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_c30c38e855aa.gif\">\n\n\u003C\u002Fp>\n\nA few modifications were made to adapt the model to generate coherent predictions for the entire forecast horizon (64 days).  WaveNet was trained using next step prediction, so errors can accumulate as the model generates long sequences in the absence of conditioning information. To remedy this, we trained the model to minimize the loss when unraveled for 64 steps.  We adopt a sequence to sequence approach where the encoder and decoder do not share parameters.  This allows the decoder to handle the accumulating noise when generating long sequences.\n\n\nBelow are some sample forecasts to demonstrate some of the patterns that the network can capture.  The forecasted values are in yellow, and the ground truth values (not used in training or validation) are shown in grey.  The y-axis is log transformed.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_c0c430e75aa1.png\" width=\"440\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_1bdeb4d74fec.png\" width=\"440\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_24301afc005f.png\" width=\"440\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_15a754d4e43b.png\" width=\"440\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_1c8bb7224f78.png\" width=\"440\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_57d1c413625a.png\" width=\"440\">\n\n\n## Requirements\n12 GB GPU (recommended), Python 2.7\n\nPython packages:\n  - numpy==1.13.1\n  - pandas==0.19.2\n  - scikit-learn==0.18.1\n  - tensorflow==1.3.0\n","# 网站流量预测\n我在Kaggle上举办的网站流量预测竞赛中的解决方案。\n\n## 任务描述\n训练数据集包含约14.5万个时间序列。每个时间序列代表维基百科上不同文章的每日浏览量，时间范围从2015年7月1日到2017年9月10日。目标是为数据集中每篇文章预测2017年9月13日至2017年11月13日期间的每日浏览量。每篇文章都提供了其名称以及流量类型（全部、移动设备、桌面端、爬虫）。\n\n评估指标为对称平均绝对百分比误差（SMAPE）。\n\n\n## 方法\n我们使用一个单一的神经网络来建模全部14.5万个时间序列。模型架构类似于WaveNet，由一系列扩张因果卷积堆叠而成，如下面的[示意图](https:\u002F\u002Fdeepmind.com\u002Fblog\u002Fwavenet-generative-model-raw-audio\u002F)所示。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_c30c38e855aa.gif\">\n\n\u003C\u002Fp>\n\n为了使模型能够生成整个预测区间（64天）的一致性预测，我们进行了一些修改。WaveNet通常采用下一步预测的方式进行训练，因此在缺乏条件信息的情况下生成长序列时，误差会逐渐累积。为了解决这个问题，我们将模型训练为在展开64步时最小化损失。我们采用了序列到序列的方法，编码器和解码器不共享参数，这样解码器在生成长序列时可以更好地处理累积的噪声。\n\n\n以下是一些示例预测，展示了网络可以捕捉到的一些模式。预测值以黄色显示，真实值（未用于训练或验证）以灰色显示。纵轴经过对数变换。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_c0c430e75aa1.png\" width=\"440\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_1bdeb4d74fec.png\" width=\"440\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_24301afc005f.png\" width=\"440\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_15a754d4e43b.png\" width=\"440\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_1c8bb7224f78.png\" width=\"440\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_readme_57d1c413625a.png\" width=\"440\">\n\n\n## 环境要求\n建议使用12 GB显存的GPU，Python 2.7\n\n所需的Python包：\n  - numpy==1.13.1\n  - pandas==0.19.2\n  - scikit-learn==0.18.1\n  - tensorflow==1.3.0","# Web Traffic Forecasting 快速上手指南\n\n本指南帮助开发者快速部署并运行基于 WaveNet 架构的维基百科网页流量预测模型。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下硬件和软件要求：\n\n*   **操作系统**：Linux \u002F macOS (推荐 Linux)\n*   **GPU**：显存至少 12 GB (强烈推荐，用于加速训练)\n*   **Python 版本**：Python 2.7\n*   **核心依赖库**：\n    *   `tensorflow==1.3.0`\n    *   `numpy==1.13.1`\n    *   `pandas==0.19.2`\n    *   `scikit-learn==0.18.1`\n\n> **注意**：本项目基于较旧的 TensorFlow 1.x 版本构建，建议使用虚拟环境（如 `virtualenv` 或 `conda`）隔离依赖，避免与现有 Python 3 环境冲突。\n\n## 安装步骤\n\n### 1. 克隆项目\n首先从仓库获取源代码：\n\n```bash\ngit clone \u003Crepository_url>\ncd web-traffic-forecasting\n```\n\n### 2. 配置国内镜像源（推荐）\n为了加快下载速度，建议配置 pip 使用清华大学或阿里云镜像源：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple -r requirements.txt\n```\n\n如果项目中没有 `requirements.txt` 文件，请手动安装指定版本的依赖包：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple numpy==1.13.1 pandas==0.19.2 scikit-learn==0.18.1 tensorflow==1.3.0\n```\n\n> **提示**：若您的环境默认使用 Python 3，请明确指定 python2 进行安装，例如：`python2 -m pip install ...`。\n\n## 基本使用\n\n该模型采用序列到序列（Sequence-to-Sequence）架构，能够一次性预测未来 64 天的流量数据，有效避免了传统递归预测中的误差累积问题。\n\n### 运行训练与预测\n假设数据已按照 Kaggle 竞赛格式准备就绪（训练集包含 2015-07-01 至 2017-09-10 的数据），运行主脚本启动训练：\n\n```bash\npython train.py\n```\n\n*注：具体脚本文件名请以项目实际文件为准，通常为 `train.py` 或 `main.py`。*\n\n### 查看预测结果\n训练完成后，模型将生成对未来时间段（2017-09-13 至 2017-11-13）的预测值。评估指标为对称平均绝对百分比误差 (SMAPE)。\n\n您可以参考项目中的可视化示例（黄色为预测值，灰色为真实值），验证模型对周期性模式和突发流量的捕捉能力：\n\n*   输入数据：每日页面浏览量时间序列\n*   输出数据：未来 64 天的每日浏览量预测\n*   特征包含：文章名称、流量类型（全部\u002F移动端\u002F桌面端\u002F爬虫）\n\n模型会自动处理对数变换（log-transformed）以优化长尾分布数据的预测效果。","某大型数字媒体公司的数据团队需要预测旗下数千个维基百科风格词条的未来两个月的每日浏览量，以优化服务器资源分配和内容推广策略。\n\n### 没有 web-traffic-forecasting 时\n- **建模效率极低**：面对 14.5 万条独立的时间序列数据，团队不得不为不同热度的词条单独建立传统统计模型（如 ARIMA），耗时数周且难以维护。\n- **长周期预测失真**：使用常规递归预测方法时，随着预测天数增加，误差逐日累积，导致第 30 天后的流量预估完全偏离实际，无法指导长期规划。\n- **模式捕捉能力弱**：传统算法难以同时处理工作日\u002F周末效应、移动端与桌面端的流量差异以及突发热点带来的非线性波动，预测结果过于平滑，缺乏参考价值。\n\n### 使用 web-traffic-forecasting 后\n- **统一模型高效训练**：利用其基于 WaveNet 的架构，单个神经网络即可并行建模全部 14.5 万条时间序列，将原本数周的建模工作缩短至数小时完成。\n- **长序列预测稳定**：通过序列到序列（Seq2Seq）的训练策略和解码器优化，有效抑制了长周期生成中的噪声累积，确保未来 64 天的流量趋势预测依然精准可靠。\n- **复杂特征深度挖掘**：模型自动捕捉了包括设备类型（移动\u002F桌面）、文章类别及周期性波动在内的深层模式，显著降低了对称平均绝对百分比误差（SMAPE），使资源调度更加精细。\n\nweb-traffic-forecasting 通过深度学习架构解决了大规模时间序列并发建模与长周期误差累积的难题，将流量预测从繁琐的手工统计升级为高精度的自动化智能决策。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsjvasquez_web-traffic-forecasting_c0c430e7.png","sjvasquez","Sean Vasquez","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsjvasquez_03834bec.png","Undergrad @ MIT,  Resident @ FAIR",null,"Seattle, WA","https:\u002F\u002Fgithub.com\u002Fsjvasquez",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,668,239,"2026-03-23T20:33:49",4,"","推荐配备 12GB 显存的 GPU（具体型号和 CUDA 版本未说明，但基于 TensorFlow 1.3.0 推测需较旧版本的 CUDA）","未说明",{"notes":95,"python":96,"dependencies":97},"该工具使用类似 WaveNet 的架构处理 14.5 万个时间序列。模型经过修改以支持 64 步的序列到序列预测，以减轻长序列生成时的误差累积。由于依赖 TensorFlow 1.3.0 和 Python 2.7，环境配置可能较为困难，建议使用兼容的旧版环境运行。","2.7",[98,99,100,101],"numpy==1.13.1","pandas==0.19.2","scikit-learn==0.18.1","tensorflow==1.3.0",[13],[104,105,106,107],"time-series","forecasting","convolutional-neural-networks","tensorflow","2026-03-27T02:49:30.150509","2026-04-06T08:40:08.585110",[],[]]