[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-vladfi1--phillip":3,"similar-vladfi1--phillip":93},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":17,"owner_location":17,"owner_email":17,"owner_twitter":17,"owner_website":17,"owner_url":18,"languages":19,"stars":28,"forks":29,"last_commit_at":30,"license":31,"difficulty_score":32,"env_os":33,"env_gpu":34,"env_ram":34,"env_deps":35,"category_tags":39,"github_topics":41,"view_count":48,"oss_zip_url":17,"oss_zip_packed_at":17,"status":49,"created_at":50,"updated_at":51,"faqs":52,"releases":92},2015,"vladfi1\u002Fphillip","phillip","The SSBM \"Phillip\" AI.","Phillip 是一个基于深度强化学习的《任天堂明星大乱斗：梅塔骑士》（SSBM）AI，能够自主玩这款游戏，模仿人类玩家的操作风格。它通过与 Dolphin 模拟器交互，在真实游戏环境中不断试错学习，从而提升对战能力，解决了传统 AI 在复杂动作游戏中难以掌握精细操作和战术决策的问题。Phillip 最适合对游戏 AI、强化学习或游戏研究感兴趣的开发者和研究人员使用，尤其适合希望在经典格斗游戏中实践机器学习技术的用户。其独特之处在于采用端到端强化学习，直接从游戏画面和输入中学习，无需人工标注数据，且曾训练出接近人类水平的“FalcoBF”等代理模型。需要注意的是，Phillip 已停止维护，官方推荐使用其继任项目 Slippi-AI（基于模仿学习）。Windows 用户需配置特定 Dolphin 版本并调整路径与端口，Linux\u002FmacOS 用户则相对更易部署。如需复现或研究，建议参考配套的训练脚本与社区资源，或直接体验其预训练模型。","# The Phillip AI\nAn SSBM player based on Deep Reinforcement Learning.\n\nNOTE: This project is no longer active and is subject to bit-rot. There is a successor project based on imitation learning from slippi replays at https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fslippi-ai.\n\n## Requirements\n\nTested on: Ubuntu >=14.04, OSX, Windows 7\u002F8\u002F10.\n\n1. The dolphin emulator. You will probably need to compile from source on Linux. On Windows you'll need to install a [custom dolphin version](https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fdolphin\u002Freleases\u002Fdownload\u002Fv5.2-alpha\u002Fwin-mw-push.zip) - just unpack the zip somewhere.\n2. The SSBM iso image. You will need NTSC 1.02.\n3. Python 3. On Windows, you can use [Anaconda](https:\u002F\u002Frepo.continuum.io\u002Farchive\u002FAnaconda3-4.4.0-Windows-x86_64.exe) which sets up the necessary paths. You can also use the linux subsytem on Windows 10.\n4. Install phillip. You can download and extract [a zip file](https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Farchive\u002Fmaster.zip) or clone this repository. Then, from the phillip root, run `pip install -e .`.\n5. Some trained agents are included in the `agents` directory. The full set of trained agents is available [here](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1uHghos9e3aXoT19Tn9v6rDYBBclCWt-U).\n\n## Play\n\nYou will need to know where dolphin is located. On Mac the dolphin path will be `\u002FApplications\u002FDolphin.app\u002FContents\u002FMacOS\u002FDolphin`. If `dolphin-emu` is already on your `PATH` then you can omit this.\n\n    python3 phillip\u002Frun.py --gui --human --start 0 --reload 0 --epsilon 0 --load agents\u002FFalconFalconBF --iso \u002Fpath\u002Fto\u002FSSBM.iso --exe \u002Fpath\u002Fto\u002Fdolphin [--windows]\n\nTrained agents are stored in the `agents` directory. Aside from `FalconFalconBF`, the agents in `agents\u002Fdelay0\u002F` are also fairly strong. Run with `--help` to see all options. The best human-like agent is `delay18\u002FFalcoBF`, available in the Google Drive zip.\n\n### Windows Notes\n\n- The `--exe` will be the path to the `Binary\\x64\\Dolphin.exe` you unzipped. In general, the forward `\u002F`s should be back `\\`s for all paths, unless you are using MinGW, Cygwin, git bash, or some other unix shell emulator.\n- You may need to omit the `3` from commands like `python3` and `pip3`.\n- If not using Anaconda, you will likely need to modify your PATH so that python is visible to the command prompt.\n- Communication with dolphin is done over the local loopback interface, enabled with the `--tcp 1` flag (now implied by `--windows`). You may also need to open port 5555 in your firewall.\n- If on Windows 10 you can do everything in the Linux subsystem and follow the linux instructions, except for obtaining dolphin. You will need to pass in an explicit user directory with `--user tmp` (the temp directories that python creates start with `\u002Ftmp\u002F...` and aren't valid for windows dolphin).\n\n## Train\n\nTraining is controlled by `phillip\u002Ftrain.py`. See also `runner.py` and `launcher.py` for training massively in parallel on slurm clusters. Phillip has been trained at the [MGHPCC](http:\u002F\u002Fwww.mghpcc.org\u002F). It is recommended to train with a [custom dolphin](https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fdolphin) which uses zmq to synchronize with the AI - the below commands will likely fail otherwise.\n\nLocal training is also possible. First, edit `runner.py` with your desired training params (advanced). Then do:\n\n    python3 runner.py # will output a path\n    python3 launcher.py saves\u002Fpath\u002F --init --local [--agents number_of_agents] [--log_agents]\n\nTo view stats during training:\n\n    tensorboard --logdir logs\u002F\n\nThe trainer and (optionally) agents redirect their stdout\u002Ferr to `slurm_logs\u002F`. To end training:\n\n    kill $(cat saves\u002Fpath\u002Fpids)\n\nTo resume training run `launcher.py` again, but omit the `--init` (it will overwrite your old network).\n\nTraining on Windows is not supported.\n\nThanks to [microsoftv](https:\u002F\u002Fgithub.com\u002Fmicrosoftv) there is now an [instructional video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=hxzpK719wV4) as well!\n\n## Support\n\nCome to the [Discord](https:\u002F\u002Fdiscord.gg\u002FKQ8vhd6)!\n\n## Recordings\n\nI've been streaming practice play over at http:\u002F\u002Ftwitch.tv\u002Fx_pilot. There are also some recordings on my [youtube channel](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCzpDWSOtWpDaNPC91dqmPQg).\n\n## Credits\n\nBig thanks to [altf4](https:\u002F\u002Fgithub.com\u002Faltf4\u002FSmashBot) for getting me started, and to [spxtr](https:\u002F\u002Fgithub.com\u002Fspxtr\u002Fp3) for a python memory watcher. Some code for dolphin interaction has been borrowed from both projects (mostly the latter now that I've switched to pure python).\n","# 菲利普AI\n基于深度强化学习的SSBM玩家。\n\n注意：该项目已不再活跃，且存在老化问题。目前有一个基于Slippi回放模仿学习的继任项目，地址为：https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fslippi-ai。\n\n## 要求\n\n测试环境：Ubuntu >=14.04、OSX、Windows 7\u002F8\u002F10。\n\n1. Dolphin模拟器。在Linux上可能需要从源码编译。在Windows上，你需要安装一个[定制版Dolphin](https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fdolphin\u002Freleases\u002Fdownload\u002Fv5.2-alpha\u002Fwin-mw-push.zip)——只需将zip文件解压到某个位置即可。\n2. SSBM的ISO镜像。你需要NTSC 1.02版本。\n3. Python 3。在Windows上，你可以使用[Anaconda](https:\u002F\u002Frepo.continuum.io\u002Farchive\u002FAnaconda3-4.4.0-Windows-x86_64.exe)，它会自动配置好必要的路径。你也可以在Windows 10上使用Linux子系统。\n4. 安装菲利普。你可以下载并解压[一个zip文件](https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Farchive\u002Fmaster.zip)或克隆这个仓库。然后，在菲利普根目录下运行`pip install -e .`。\n5. `agents`目录中包含了一些训练好的智能体。完整的训练智能体集可在[这里](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1uHghos9e3aXoT19Tn9v6rDYBBclCWt-U)获取。\n\n## 玩法\n\n你需要知道Dolphin的安装路径。在Mac上，Dolphin的路径是`\u002FApplications\u002FDolphin.app\u002FContents\u002FMacOS\u002FDolphin`。如果`dolphin-emu`已经在你的`PATH`中，那么可以省略这一步。\n\n    python3 phillip\u002Frun.py --gui --human --start 0 --reload 0 --epsilon 0 --load agents\u002FFalconFalconBF --iso \u002Fpath\u002Fto\u002FSSBM.iso --exe \u002Fpath\u002Fto\u002Fdolphin [--windows]\n\n训练好的智能体存放在`agents`目录中。除了`FalconFalconBF`，`agents\u002Fdelay0\u002F`中的智能体也相当强大。使用`--help`查看所有选项。最好的类人智能体是`delay18\u002FFalcoBF`，已在Google Drive的zip文件中提供。\n\n### Windows注意事项\n\n- `--exe`参数应指向你解压后的`Binary\\x64\\Dolphin.exe`路径。一般来说，所有路径中的正斜杠`\u002F`都应改为反斜杠`\\`，除非你使用MinGW、Cygwin、Git Bash或其他Unix shell模拟器。\n- 你可能需要省略`python3`和`pip3`命令中的数字`3`。\n- 如果没有使用Anaconda，你很可能需要修改你的PATH，让Python能在命令提示符中被识别。\n- 与Dolphin的通信通过本地回环接口进行，需使用`--tcp 1`标志（现在`--windows`已隐含此设置）。你可能还需要在防火墙中开放端口5555。\n- 如果你在Windows 10上，可以在Linux子系统中完成所有操作，并按照Linux的说明进行，但获取Dolphin除外。你需要用`--user tmp`显式指定用户目录（Python创建的临时目录以`\u002Ftmp\u002F...`开头，不适用于Windows上的Dolphin）。\n\n## 训练\n\n训练由`phillip\u002Ftrain.py`控制。此外，`runner.py`和`launcher.py`可用于在Slurm集群上大规模并行训练。菲利普曾在[MGHPCC](http:\u002F\u002Fwww.mghpcc.org\u002F)进行过训练。建议使用一个[定制版Dolphin](https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fdolphin)，它采用zmq与AI同步——否则下面的命令可能会失败。\n\n本地训练也是可行的。首先，用你想要的训练参数编辑`runner.py`（高级选项）。然后执行：\n\n    python3 runner.py # 会输出一个路径\n    python3 launcher.py saves\u002Fpath\u002F --init --local [--agents number_of_agents] [--log_agents]\n\n要查看训练过程中的统计信息：\n\n    tensorboard --logdir logs\u002F\n\n训练器和（可选）智能体会将stdout\u002Ferr重定向到`slurm_logs\u002F`。要结束训练：\n\n    kill $(cat saves\u002Fpath\u002Fpids)\n\n要恢复训练，再次运行`launcher.py`，但省略`--init`（它会覆盖旧的网络模型）。\n\nWindows上不支持训练。\n\n感谢[microsoftv](https:\u002F\u002Fgithub.com\u002Fmicrosoftv)，现在还有一个[教学视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=hxzpK719wV4)！\n\n## 支持\n\n加入[Discord](https:\u002F\u002Fdiscord.gg\u002FKQ8vhd6)吧！\n\n## 录制内容\n\n我一直在http:\u002F\u002Ftwitch.tv\u002Fx_pilot上直播练习对战。我的[Youtube频道](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCzpDWSOtWpDaNPC91dqmPQg)上也有一些录制内容。\n\n## 致谢\n\n非常感谢[altf4](https:\u002F\u002Fgithub.com\u002Faltf4\u002FSmashBot)让我入门，还要感谢[spxtr](https:\u002F\u002Fgithub.com\u002Fspxtr\u002Fp3)提供的Python内存监视器。一些与Dolphin交互的代码借自这两个项目（尤其是后者，因为我现在改用纯Python了）。","# Phillip AI 快速上手指南\n\n## 环境准备\n\n- **系统要求**：Ubuntu ≥14.04、macOS、Windows 7\u002F8\u002F10  \n- **前置依赖**：\n  1. **Dolphin 模拟器**：\n     - Linux：需从源码编译\n     - Windows：下载 [定制版 Dolphin](https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fdolphin\u002Freleases\u002Fdownload\u002Fv5.2-alpha\u002Fwin-mw-push.zip) 并解压\n  2. **SSBM 游戏镜像**：必须为 NTSC 1.02 版本\n  3. **Python 3**：\n     - Windows 推荐使用 [Anaconda 3](https:\u002F\u002Frepo.anaconda.com\u002Farchive\u002FAnaconda3-4.4.0-Windows-x86_64.exe)（国内镜像：`https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Farchive\u002F`）\n     - 或使用 Windows 10 的 WSL（推荐）\n\n## 安装步骤\n\n1. 下载或克隆项目：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip.git\n   cd phillip\n   ```\n   或下载 [master.zip](https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Farchive\u002Fmaster.zip) 并解压\n\n2. 安装依赖：\n   ```bash\n   pip install -e .\n   ```\n\n3. 下载预训练模型（可选）：\n   - 基础模型位于 `agents\u002F` 目录\n   - 更多模型请从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1uHghos9e3aXoT19Tn9v6rDYBBclCWt-U) 下载\n\n## 基本使用\n\n运行一个预训练智能体对战（GUI 模式）：\n\n```bash\npython3 phillip\u002Frun.py \\\n  --gui --human --start 0 --reload 0 --epsilon 0 \\\n  --load agents\u002FFalconFalconBF \\\n  --iso \u002Fpath\u002Fto\u002FSSBM.iso \\\n  --exe \u002Fpath\u002Fto\u002Fdolphin\n```\n\n### Windows 用户注意：\n- `--exe` 路径示例：`--exe C:\\dolphin\\Binary\\x64\\Dolphin.exe`\n- 使用反斜杠 `\\`（除非使用 Git Bash \u002F WSL）\n- 若未使用 Anaconda，请确保 `python` 在 PATH 中\n- 命令中 `python3` 可替换为 `python`\n- 启用 TCP 通信（Windows 下自动启用）：`--windows`\n\n> 推荐使用 WSL 环境以简化配置，仅需手动获取 Dolphin 并添加 `--user tmp` 参数。","一位《超级马里奥兄弟》竞技玩家兼AI爱好者，正在为本地电竞社团训练AI对手，以提升成员在《任天堂明星大乱斗 特别版》（SSBM）中的实战反应与策略水平。由于社团缺乏专业教练，成员长期依赖真人对战，进步缓慢且难以复现高阶对局。\n\n### 没有 phillip 时\n- 成员只能靠真人对战练习，但高水平玩家稀缺，训练频率低且不稳定。\n- 难以复现特定对手的风格（如Falcon的快速突进），导致战术针对性训练缺失。\n- 无法持续输出高精度、低延迟的AI行为，训练中常因操作卡顿或AI“发呆”打断节奏。\n- 缺乏可量化的AI表现数据，无法评估成员进步是否源于技术提升还是运气。\n- 每次调整训练难度需手动更换对手，流程繁琐，占用大量筹备时间。\n\n### 使用 phillip 后\n- 可随时启动FalconFalconBF或FalcoBF等预训练AI，24小时稳定提供高水准对战，训练频率提升3倍以上。\n- 能精准加载特定风格的AI代理，如专门练习应对Falco的空中压制，实现“定制化陪练”。\n- AI通过深度强化学习实现接近人类的反应延迟（如delay18模型），操作流畅无卡顿，训练体验真实。\n- 训练过程自动生成日志与胜率统计，成员可清晰看到自己对特定战术的胜率变化，数据驱动进步。\n- 一键启动AI对战，无需手动配置，训练准备时间从30分钟缩短至2分钟，极大提升训练效率。\n\nphillip 让一个业余电竞社团拥有了媲美职业战队的AI陪练系统，把“靠运气进步”变成了“靠数据成长”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvladfi1_phillip_5fb252d2.png","vladfi1","Vlad Firoiu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fvladfi1_33d84cbb.png",null,"https:\u002F\u002Fgithub.com\u002Fvladfi1",[20,24],{"name":21,"color":22,"percentage":23},"Python","#3572A5",99.4,{"name":25,"color":26,"percentage":27},"Shell","#89e051",0.6,581,79,"2026-03-21T23:11:19","GPL-3.0",4,"Linux, macOS, Windows","未说明",{"notes":36,"python":37,"dependencies":38},"需使用自定义Dolphin模拟器，Windows下需配置路径和防火墙端口5555；训练不支持Windows；建议使用Anaconda管理Python环境；需下载SSBM NTSC 1.02游戏镜像和约5GB的预训练模型文件","3",[],[40],"开发框架",[42,43,44,45,46,47],"dolphin","python","deep-reinforcement-learning","artificial-intelligence","tensorflow","ssbm",2,"ready","2026-03-27T02:49:30.150509","2026-04-06T07:12:38.770764",[53,58,63,68,73,77,82,87],{"id":54,"question_zh":55,"answer_zh":56,"source_url":57},9130,"如何在 Ubuntu 上配置 Faster Melee 5.9 以与 Phillip 兼容？","在命令中添加 --exe ~\u002Flaunch-fm --fm 参数，例如：phillip --exe ~\u002Flaunch-fm --fm。这会告诉 Phillip 使用你本地的 Faster Melee 可执行文件路径。","https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Fissues\u002F21",{"id":59,"question_zh":60,"answer_zh":61,"source_url":62},9131,"运行 pretrained 模型时，是与人类对战还是与电脑对战？","使用命令 phillip --gui --human --start 0 --load agents\u002FFalconFalconFD 会启动人类玩家与预训练智能体对战，--human 参数确保你作为玩家参与，而不是与 AI 对战。","https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Fissues\u002F8",{"id":64,"question_zh":65,"answer_zh":66,"source_url":67},9132,"为什么运行 Phillip 时出现 'warning: already have option XXX' 的重复警告？","这些警告是由于配置参数被重复加载导致的，通常是因为你修改了配置文件或使用了旧版本的参数。建议使用最新版本的代码，并避免手动修改参数文件。若问题持续，可尝试从干净的仓库重新克隆。","https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Fissues\u002F5",{"id":69,"question_zh":70,"answer_zh":71,"source_url":72},9133,"运行 Phillip 时报错 'tensorflow.python.framework.errors.NotFoundError: saves\u002FDQN' 是什么原因？","该错误表示未初始化 DQN 模型。应使用 single_char 分支，其中包含预训练模型（如 FalconDittoBF\u002F）。确保你从正确的分支加载模型，而不是尝试加载不存在的 saves\u002FDQN 目录。","https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Fissues\u002F3",{"id":74,"question_zh":75,"answer_zh":76,"source_url":62},9134,"Phillip 需要哪个版本的 Dolphin 模拟器？","Phillip 不支持 Dolphin 4.0，需要使用 5.0 版本或 master 分支。建议从源码编译最新版本，以确保兼容性。可加入 Discord 频道 https:\u002F\u002Fdiscord.gg\u002FKQ8vhd6 获取帮助。",{"id":78,"question_zh":79,"answer_zh":80,"source_url":81},9135,"如何解决 TensorFlow 2 中 tf.contrib 导致的 tf_lib.py 和 train.py 报错？","TensorFlow 2 已移除 tf.contrib，需降级到 TensorFlow 1.x（如 1.15）以兼容代码。或等待 PR 更新代码以适配 TF2。临时解决方案是在 requirements.txt 中指定 tensorflow==1.15.0。","https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Fissues\u002F24",{"id":83,"question_zh":84,"answer_zh":85,"source_url":86},9136,"智能体在轻盾时出现自杀或行为异常，如何修复？","该问题由输入值（如 hitstun_frames_left）超出合理范围导致。解决方案是使用 predict 分支，该分支已修复输入值的裁剪逻辑。运行命令时切换到 predict 分支即可解决。","https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Fissues\u002F11",{"id":88,"question_zh":89,"answer_zh":90,"source_url":91},9137,"智能体在 'Starting run loop' 后长时间 'thinking on CSS' 是正常现象吗？","是的，'thinking' 日志不代表智能体在实际对战，它还包括菜单操作等后台任务。只要智能体最终能正常行动，这些日志无需担心。","https:\u002F\u002Fgithub.com\u002Fvladfi1\u002Fphillip\u002Fissues\u002F10",[],[94,105,114,122,130,143],{"id":95,"name":96,"github_repo":97,"description_zh":98,"stars":99,"difficulty_score":100,"last_commit_at":101,"category_tags":102,"status":49},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[40,103,104],"图像","Agent",{"id":106,"name":107,"github_repo":108,"description_zh":109,"stars":110,"difficulty_score":48,"last_commit_at":111,"category_tags":112,"status":49},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,"2026-04-05T11:33:21",[40,104,113],"语言模型",{"id":115,"name":116,"github_repo":117,"description_zh":118,"stars":119,"difficulty_score":48,"last_commit_at":120,"category_tags":121,"status":49},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[40,103,104],{"id":123,"name":124,"github_repo":125,"description_zh":126,"stars":127,"difficulty_score":48,"last_commit_at":128,"category_tags":129,"status":49},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[40,113],{"id":131,"name":132,"github_repo":133,"description_zh":134,"stars":135,"difficulty_score":48,"last_commit_at":136,"category_tags":137,"status":49},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[103,138,139,140,104,141,113,40,142],"数据工具","视频","插件","其他","音频",{"id":144,"name":145,"github_repo":146,"description_zh":147,"stars":148,"difficulty_score":100,"last_commit_at":149,"category_tags":150,"status":49},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[104,103,40,113,141]]