FeedMe

GitHub
719 156 简单 2 次阅读 2天前MIT图像Agent语言模型开发框架
AI 解读 由 AI 自动生成,仅供参考

FeedMe 是一款由 AI 驱动的轻量级 RSS 阅读器,旨在用更智能的方式重塑你的信息流阅读体验。它解决了传统阅读工具臃肿、需强制登录或下载应用的痛点,通过一个响应式静态页面即可聚合多源资讯,并利用大语言模型(LLM)自动生成文章摘要,帮助用户快速把握核心内容,极大提升阅读效率。

这款工具特别适合希望掌控数据隐私、喜欢折腾部署的开发者及技术爱好者,同时也适用于追求高效获取资讯的研究人员与普通极客用户。用户拥有完全的自定义权,可灵活配置订阅源及 AI 参数。

在技术亮点上,FeedMe 基于 TypeScript、React 和 Tailwind CSS 构建,界面现代且支持明暗主题切换。其独特的“静态化”架构支持零成本部署至 GitHub Pages、Vercel 或阿里云 ESA,也可通过 Docker 进行私有化部署。项目内置自动化工作流,能定时抓取更新并生成摘要,无需维护后端服务器即可享受持续刷新的智能阅读服务。

使用场景

资深技术博主李明每天需要追踪 20+ 个开源项目动态和行业资讯,以维持高质量的技术文章输出。

没有 FeedMe 时

  • 信息过载严重:被迫在十几个不同的网站标签页间反复切换,手动刷新查看更新,极易遗漏重要内容。
  • 阅读效率低下:面对长篇技术文档和更新日志,必须通读全文才能提取核心变更,耗时耗力。
  • 部署维护繁琐:尝试自建 RSS 服务时,常被强制要求登录、安装臃肿的 App 或配置复杂的后端数据库。
  • 隐私与成本顾虑:使用第三方聚合器担心数据被追踪,且高级功能往往需要付费订阅。

使用 FeedMe 后

  • 一站式聚合浏览:将所有 GitHub 仓库 Release、技术博客 RSS 统一接入,在一个清爽的响应式页面中集中查阅,无需跳转。
  • AI 智能提炼重点:FeedMe 调用 LLM 自动为每篇文章生成精准摘要,李明只需扫读摘要即可判断是否深读,筛选效率提升数倍。
  • 零成本轻量部署:利用现有的 GitHub 账号,通过 GitHub Actions 每 3 小时自动拉取更新并部署到 Pages,无需服务器和维护后端。
  • 完全掌控配置:从订阅源列表到 AI 提示词(Prompt)均可自定义,既保障了数据隐私,又让摘要风格完美契合个人阅读习惯。

FeedMe 将原本碎片化、高耗时的信息搜集工作,转化为自动化、智能化的知识获取流程,让创作者真正回归内容本身。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes本项目为基于 Node.js 的前端静态网站生成工具,非本地运行的大模型应用。核心依赖为 Node.js 环境和 pnpm 包管理器。AI 摘要功能通过调用外部 LLM API(需配置 LLM_API_KEY 等环境变量)实现,无需本地 GPU 或下载大型模型文件。支持通过 Docker 容器化部署或 GitHub Actions/Vercel/阿里云 ESA 进行云端部署。
python未说明
Node.js
pnpm
TypeScript
React
Vite
Tailwind CSS
shadcn/ui
FeedMe hero image

快速开始

中文文档 | English Documentation

😋FeedMe

TypeScript React Tailwind CSS shadcn/ui Vite

GitHub Workflow Status RSS Update Live Demo Ask DeepWiki

用 AI 重新定义你的 RSS 阅读体验,轻松部署到 GitHub Pages / Docker


🍱 轻量、智能、为你定制

  • 🪶 告别臃肿:拒绝强制登录与 App 下载,一个响应式静态页面解决信息流阅读需求

  • 🤖 效率至上:AI 自动生成文章摘要,把握重点

  • ⚙️ 为你定制:无论是订阅源还是 AI 配置,一切设置权归你所有

  • 🚀 自由部署:零成本部署至 GitHub Pages 或 Docker

✨ 功能

  • 聚合摘要:一站式整合多源 RSS,通过 LLM 自动生成摘要

  • 自动更新:GitHub Actions / Cron 定时保持内容鲜活

  • 灵活部署:GitHub Pages 零成本静态托管 / Docker 私有化部署

  • 现代体验:响应式设计,明暗主题


本项目由阿里云 ESA提供加速、计算和保护

阿里云 ESA

🚀 部署

方式一:GitHub Pages 部署

本项目使用 GitHub Actions 自动部署到 GitHub Pages,使用工作流处理数据更新和网站部署。

  1. Fork 或克隆仓库到你的 GitHub 账号

  2. 设置 GitHub Secrets

    在项目顶端 Settings - 左侧 Secrets and variables -> Actions 中添加以下密钥(Secrets):

    • LLM_API_KEY: 用于 AI 摘要生成的 API 密钥
    • LLM_API_BASE: LLM 服务的 API 基础 URL
    • LLM_NAME: 使用的模型名称
  3. 启用 GitHub Pages

    在仓库设置中,选择从 GitHub Actions 部署

  4. 手动触发工作流(可选)

    在 GitHub 仓库的 Actions 页面手动触发"更新数据并部署"工作流

工作流说明

更新数据并部署 (update-deploy.yml):

  • 触发条件:
    • 定时执行(每 3 小时一次)
    • 推送代码
    • 手动触发
  • 执行内容:
    • 单次构建流程:一次性获取 RSS 内容、生成摘要并构建静态网站
    • 多平台部署
      • 自动部署到 GitHub Pages
      • 将构建产物推送到 deploy 分支,供 Vercel 等平台监控部署

自定义部署配置

  • 自定义 RSS 源: 编辑 src/config/rss-config.js 文件以修改或添加 RSS 源。每个源需要包含:

    • 名称
    • URL
    • 分类
  • 修改更新频率: 编辑 .github/workflows/update-deploy.yml 中的 cron 表达式

    # 例如,改为每天凌晨更新一次
    cron: '0 0 * * *'
    
  • 调整保留条目数: 修改 src/config/rss-config.js 中的 maxItemsPerFeed

  • 自定义摘要生成: 如果需要自定义摘要生成方法,比如遵循特定格式或切换摘要语言,请修改 scripts/update-feeds.js 中的 prompt 变量

方式二:Vercel 部署

  1. 前往 Vercel 导入页面,选择 "GitHub" 并授权访问
  2. 选择你 fork 的 FeedMe 仓库,点击 "Deploy",这时部署失败是正常的,因为默认部署分支为 main
  3. 参考 Deploying Git Repositories with Vercel 将生产分支改为 deploy,设置仅构建生产分支,并重新部署

GitHub Actions 每次构建后会自动推送到 deploy 分支,Vercel 会自动检测并部署。

方式三:阿里云 ESA Pages 部署

  1. 前往 阿里云 ESA 控制台,进入 Pages 服务
  2. 点击"新建应用",选择 "GitHub" 并授权访问
  3. 选择你 fork 的 FeedMe 仓库,配置如下:
    • 生产分支deploy
    • 静态资源目录.(一个英文句号)
    • 安装命令:留空
    • 构建命令:留空
  4. 点击"部署"即可

GitHub Actions 每次构建后会自动推送到 deploy 分支,阿里云 ESA Pages 会自动检测并部署。得益于阿里云 ESA 的边缘加速能力,应用在全球范围内均可获得极速访问体验。

方式四:Docker 本地部署

此方式使用 Docker 在本地或服务器上运行 FeedMe,并通过容器内的 Cron 任务自动更新数据和重建,不依赖 GitHub Actions。

  1. 克隆仓库

    git clone https://github.com/Seanium/feedme.git
    cd feedme
    
  2. 配置环境变量 复制 .env.example 文件为 .env 并填入必要的 API 密钥:

    cp .env.example .env
    

    编辑 .env 文件:

    LLM_API_KEY=你的_API_密钥
    LLM_API_BASE=LLM服务的API基础URL
    LLM_NAME=使用的模型名称
    

    这些环境变量用于配置文章摘要生成功能,需要从 LLM 服务提供商获取

  3. 构建并启动 Docker 容器

    docker-compose up --build
    
  4. 访问应用 应用将在 http://localhost:3000 上可用。

  5. 自动更新 容器将根据 src/config/crontab-docker 中的配置(默认为每 3 小时)自动执行 pnpm update-feedspnpm build,并重新启动服务。 如需修改更新频率,请编辑 src/config/crontab-docker 文件中的 cron 表达式(例如 0 */6 * * * 表示每 6 小时执行一次)。

💻 开发

  1. 克lon仓库

    git clone https://github.com/Seanium/feedme.git
    cd feedme
    
  2. 安装依赖

    pnpm install
    
  3. 配置环境变量

    复制环境变量示例文件并编辑:

    cp .env.example .env
    

    填入以下内容:

    LLM_API_KEY=你的 API 密钥
    LLM_API_BASE=LLM服务的 API 基础 URL(例如:https://api.siliconflow.cn/v1)
    LLM_NAME=使用的模型名称(例如:THUDM/GLM-4-9B-0414)
    

    这些环境变量用于配置文章摘要生成功能,需要从 LLM 服务提供商获取

  4. 更新 RSS 数据

    pnpm update-feeds
    

    此命令会抓取 RSS 源并生成摘要,保存到 public/data 目录

  5. 启动开发服务器

    pnpm dev
    

    访问 http://localhost:3000 查看应用

Star 趋势

Star History Chart

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架