FeedMe
FeedMe 是一款由 AI 驱动的轻量级 RSS 阅读器,旨在用更智能的方式重塑你的信息流阅读体验。它解决了传统阅读工具臃肿、需强制登录或下载应用的痛点,通过一个响应式静态页面即可聚合多源资讯,并利用大语言模型(LLM)自动生成文章摘要,帮助用户快速把握核心内容,极大提升阅读效率。
这款工具特别适合希望掌控数据隐私、喜欢折腾部署的开发者及技术爱好者,同时也适用于追求高效获取资讯的研究人员与普通极客用户。用户拥有完全的自定义权,可灵活配置订阅源及 AI 参数。
在技术亮点上,FeedMe 基于 TypeScript、React 和 Tailwind CSS 构建,界面现代且支持明暗主题切换。其独特的“静态化”架构支持零成本部署至 GitHub Pages、Vercel 或阿里云 ESA,也可通过 Docker 进行私有化部署。项目内置自动化工作流,能定时抓取更新并生成摘要,无需维护后端服务器即可享受持续刷新的智能阅读服务。
使用场景
资深技术博主李明每天需要追踪 20+ 个开源项目动态和行业资讯,以维持高质量的技术文章输出。
没有 FeedMe 时
- 信息过载严重:被迫在十几个不同的网站标签页间反复切换,手动刷新查看更新,极易遗漏重要内容。
- 阅读效率低下:面对长篇技术文档和更新日志,必须通读全文才能提取核心变更,耗时耗力。
- 部署维护繁琐:尝试自建 RSS 服务时,常被强制要求登录、安装臃肿的 App 或配置复杂的后端数据库。
- 隐私与成本顾虑:使用第三方聚合器担心数据被追踪,且高级功能往往需要付费订阅。
使用 FeedMe 后
- 一站式聚合浏览:将所有 GitHub 仓库 Release、技术博客 RSS 统一接入,在一个清爽的响应式页面中集中查阅,无需跳转。
- AI 智能提炼重点:FeedMe 调用 LLM 自动为每篇文章生成精准摘要,李明只需扫读摘要即可判断是否深读,筛选效率提升数倍。
- 零成本轻量部署:利用现有的 GitHub 账号,通过 GitHub Actions 每 3 小时自动拉取更新并部署到 Pages,无需服务器和维护后端。
- 完全掌控配置:从订阅源列表到 AI 提示词(Prompt)均可自定义,既保障了数据隐私,又让摘要风格完美契合个人阅读习惯。
FeedMe 将原本碎片化、高耗时的信息搜集工作,转化为自动化、智能化的知识获取流程,让创作者真正回归内容本身。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
😋FeedMe
用 AI 重新定义你的 RSS 阅读体验,轻松部署到 GitHub Pages / Docker
🍱 轻量、智能、为你定制
🪶 告别臃肿:拒绝强制登录与 App 下载,一个响应式静态页面解决信息流阅读需求
🤖 效率至上:AI 自动生成文章摘要,把握重点
⚙️ 为你定制:无论是订阅源还是 AI 配置,一切设置权归你所有
🚀 自由部署:零成本部署至 GitHub Pages 或 Docker
✨ 功能
聚合摘要:一站式整合多源 RSS,通过 LLM 自动生成摘要
自动更新:GitHub Actions / Cron 定时保持内容鲜活
灵活部署:GitHub Pages 零成本静态托管 / Docker 私有化部署
现代体验:响应式设计,明暗主题
本项目由阿里云 ESA提供加速、计算和保护
🚀 部署
方式一:GitHub Pages 部署
本项目使用 GitHub Actions 自动部署到 GitHub Pages,使用工作流处理数据更新和网站部署。
Fork 或克隆仓库到你的 GitHub 账号
设置 GitHub Secrets
在项目顶端 Settings - 左侧 Secrets and variables -> Actions 中添加以下密钥(Secrets):
LLM_API_KEY: 用于 AI 摘要生成的 API 密钥LLM_API_BASE: LLM 服务的 API 基础 URLLLM_NAME: 使用的模型名称
启用 GitHub Pages
在仓库设置中,选择从 GitHub Actions 部署
手动触发工作流(可选)
在 GitHub 仓库的 Actions 页面手动触发"更新数据并部署"工作流
工作流说明
更新数据并部署 (update-deploy.yml):
- 触发条件:
- 定时执行(每 3 小时一次)
- 推送代码
- 手动触发
- 执行内容:
- 单次构建流程:一次性获取 RSS 内容、生成摘要并构建静态网站
- 多平台部署:
- 自动部署到 GitHub Pages
- 将构建产物推送到
deploy分支,供 Vercel 等平台监控部署
自定义部署配置
自定义 RSS 源: 编辑
src/config/rss-config.js文件以修改或添加 RSS 源。每个源需要包含:- 名称
- URL
- 分类
修改更新频率: 编辑
.github/workflows/update-deploy.yml中的 cron 表达式# 例如,改为每天凌晨更新一次 cron: '0 0 * * *'调整保留条目数: 修改
src/config/rss-config.js中的maxItemsPerFeed值自定义摘要生成: 如果需要自定义摘要生成方法,比如遵循特定格式或切换摘要语言,请修改
scripts/update-feeds.js中的prompt变量
方式二:Vercel 部署
- 前往 Vercel 导入页面,选择 "GitHub" 并授权访问
- 选择你 fork 的 FeedMe 仓库,点击 "Deploy",这时部署失败是正常的,因为默认部署分支为 main
- 参考 Deploying Git Repositories with Vercel 将生产分支改为
deploy,设置仅构建生产分支,并重新部署
GitHub Actions 每次构建后会自动推送到 deploy 分支,Vercel 会自动检测并部署。
方式三:阿里云 ESA Pages 部署
- 前往 阿里云 ESA 控制台,进入 Pages 服务
- 点击"新建应用",选择 "GitHub" 并授权访问
- 选择你 fork 的 FeedMe 仓库,配置如下:
- 生产分支:
deploy - 静态资源目录:
.(一个英文句号) - 安装命令:留空
- 构建命令:留空
- 生产分支:
- 点击"部署"即可
GitHub Actions 每次构建后会自动推送到 deploy 分支,阿里云 ESA Pages 会自动检测并部署。得益于阿里云 ESA 的边缘加速能力,应用在全球范围内均可获得极速访问体验。
方式四:Docker 本地部署
此方式使用 Docker 在本地或服务器上运行 FeedMe,并通过容器内的 Cron 任务自动更新数据和重建,不依赖 GitHub Actions。
克隆仓库
git clone https://github.com/Seanium/feedme.git cd feedme配置环境变量 复制
.env.example文件为.env并填入必要的 API 密钥:cp .env.example .env编辑
.env文件:LLM_API_KEY=你的_API_密钥 LLM_API_BASE=LLM服务的API基础URL LLM_NAME=使用的模型名称这些环境变量用于配置文章摘要生成功能,需要从 LLM 服务提供商获取
构建并启动 Docker 容器
docker-compose up --build访问应用 应用将在 http://localhost:3000 上可用。
自动更新 容器将根据
src/config/crontab-docker中的配置(默认为每 3 小时)自动执行pnpm update-feeds和pnpm build,并重新启动服务。 如需修改更新频率,请编辑src/config/crontab-docker文件中的 cron 表达式(例如0 */6 * * *表示每 6 小时执行一次)。
💻 开发
克lon仓库
git clone https://github.com/Seanium/feedme.git cd feedme安装依赖
pnpm install配置环境变量
复制环境变量示例文件并编辑:
cp .env.example .env填入以下内容:
LLM_API_KEY=你的 API 密钥 LLM_API_BASE=LLM服务的 API 基础 URL(例如:https://api.siliconflow.cn/v1) LLM_NAME=使用的模型名称(例如:THUDM/GLM-4-9B-0414)这些环境变量用于配置文章摘要生成功能,需要从 LLM 服务提供商获取
更新 RSS 数据
pnpm update-feeds此命令会抓取 RSS 源并生成摘要,保存到
public/data目录启动开发服务器
pnpm dev访问 http://localhost:3000 查看应用
Star 趋势
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。