hackingBuddyGPT

GitHub
1k 176 简单 1 次阅读 3天前MIT开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

hackingBuddyGPT 是一款专为道德黑客和安全研究人员设计的开源框架,旨在简化大型语言模型(LLM)在渗透测试中的应用。它的核心理念是“极简高效”,允许用户通过不超过 50 行代码即可调用 LLM 能力,从而快速发现新的攻击向量或进行漏洞挖掘。

在网络安全领域,传统渗透测试往往耗时且依赖深厚的人工经验。hackingBuddyGPT 解决了这一痛点,通过 AI 辅助自动化部分测试流程,帮助专业人士更高效地完成安全评估。无论是为了提升系统安全性以保护公众利益,还是通过合法的漏洞赏金计划获得收益,它都能成为得力的助手。随着测试覆盖面的扩大,整体网络环境也将变得更加安全。

这款工具特别适合安全研究员、渗透测试工程师以及对 AI 安全应用感兴趣的开发者使用。它不仅支持通过 SSH 连接远程目标,还新增了本地 Shell 执行功能,极大地便利了测试与开发流程。此外,hackingBuddyGPT 提供了可复用的 Linux 权限提升基准测试套件,并公开所有研究发现作为开放获取报告,为社区提供了宝贵的参考资源。

需要注意的是,由于该工具会在真实环境中执行命令,存在潜在的数据丢失或系统修改风险,因此建议用户在隔离环境或虚拟机中谨慎使用。作为 GitHub Accelerator 2024 的入选项目,hackingBuddyGPT 正致力于成为安全领域利用 LLM 进行自动化测试的首选框架,并通过学术论文持续分享其在多模型对比与安全测试方面的最新成果。

使用场景

某安全研究员正在对一家初创公司的 Linux 服务器进行授权渗透测试,目标是发现潜在的权限提升漏洞以评估系统安全性。

没有 hackingBuddyGPT 时

  • 信息搜集碎片化:研究员需手动执行大量基础命令(如 uname -aidls -la)来收集系统版本、用户权限和文件结构信息,过程繁琐且容易遗漏关键细节。
  • 知识检索耗时:面对特定的内核版本或配置组合,研究员需要频繁切换窗口,在搜索引擎和漏洞数据库中查找对应的提权 EXP(利用代码),严重打断测试思路。
  • 脚本编写门槛高:即使找到了理论上的利用方法,将其转化为可在目标环境中稳定运行的自动化脚本仍需耗费大量时间进行调试和适配。
  • 测试覆盖率低:由于人工操作速度慢,在一次标准的测试周期内,研究员只能覆盖有限的攻击面,难以全面评估系统的深层安全隐患。

使用 hackingBuddyGPT 后

  • 自动化交互执行:通过不到 50 行代码配置,hackingBuddyGPT 能自动通过 SSH 连接目标,智能执行侦察命令并实时分析返回结果,无需人工逐条输入。
  • 智能策略推荐:基于内置的知识库和 LLM 能力,它能根据收集到的系统指纹,自动推荐最可能的提权路径和相关 CVE 漏洞,减少外部搜索依赖。
  • 动态生成利用代码:工具可辅助生成或调整针对特定环境的测试脚本,并在隔离环境中快速验证其有效性,大幅降低手动编码和调试的成本。
  • 提升测试效率与深度:自动化流程让研究员能在相同时间内尝试更多种攻击向量,显著扩大了测试覆盖面,从而更准确地识别高危漏洞。

hackingBuddyGPT 的核心价值在于将安全研究员从重复性的手工操作中解放出来,利用 AI 加速漏洞发现过程,以更低的代码成本实现更高效、全面的自动化渗透测试。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notesREADME 中未包含具体的技术环境依赖(如 Python 版本、库列表、硬件要求)。该工具主要通过 SSH 连接远程目标或在本地 Shell 执行命令,支持对接多种 LLM(包括 OpenAI API 或本地运行的 LLM),具体硬件需求取决于所选用的 LLM 后端。警告:该软件会在真实环境中执行命令,建议在隔离环境或虚拟机中测试以防数据丢失或系统损坏。
python未说明
hackingBuddyGPT hero image

快速开始

IPA-LAB 和 HACKINGBUDDYGPT 均未参与任何加密货币项目!所有相反的信息都是用来诈骗您的!目前存在的推特账号只是想骗取您的钱财,请不要上当!

HackingBuddyGPT Discord

帮助道德黑客用 50 行代码或更少的代码使用大语言模型..

阅读文档 | 加入我们的 Discord!

HackingBuddyGPT 帮助安全研究人员使用大语言模型来发现新的攻击向量,并在 50 行代码或更少的代码中拯救世界(或赚取漏洞赏金)。从长远来看,我们希望通过赋能安全专业人士利用人工智能完成更多渗透测试工作,使世界变得更加安全。他们进行的测试越多,我们所有人就越安全。

🆕 新功能: hackingBuddyGPT 现在同时支持与远程目标的 SSH 连接以及本地 Shell 执行,以便更轻松地进行测试和开发!

⚠️ 警告: 此软件将在实际环境中执行命令。在使用本地 Shell 模式时,命令将在您的本地系统上执行,这可能会导致数据丢失、系统修改或安全漏洞。请务必采取适当的预防措施,并考虑使用隔离环境或虚拟机进行测试。

我们的目标是成为对希望使用大语言模型或基于大语言模型的自主代理进行安全测试的安全研究人员和渗透测试人员来说的首选框架。为了帮助他们的实验,我们还提供可重复使用的 Linux 权限提升基准测试,并将所有研究成果以开放获取报告的形式发布。

如果您想使用 hackingBuddyGPT 并需要帮助选择最适合您任务的大语言模型,我们有一篇比较多种大语言模型的论文

hackingBuddyGPT 的新闻报道

原始论文

hackingBuddyGPT 在 被 AI 攻击:使用大型语言模型进行渗透测试 中有所介绍,请通过以下方式引用它以帮助我们:

@inproceedings{Happe_2023, series={ESEC/FSE ’23},
   title={Getting pwn’d by AI: Penetration Testing with Large Language Models},
   url={http://dx.doi.org/10.1145/3611643.3613083},
   DOI={10.1145/3611643.3613083},
   booktitle={Proceedings of the 31st ACM Joint European Software Engineering Conference and Symposium on the Foundations of Software Engineering},
   publisher={ACM},
   author={Happe, Andreas and Cito, Jürgen},
   year={2023},
   month=nov, collection={ESEC/FSE ’23}
}

获取帮助

如果您需要帮助,或者想讨论如何将人工智能用于安全或教育领域,请加入我们的 Discord 服务器,我们在那里讨论所有关于人工智能 + 攻击性安全的话题

主要贡献者

该项目最初由 Andreas 在一个雨天的周末问自己一个简单的问题开始:大语言模型能否用于入侵系统? 初步结果令人鼓舞(或者令人不安,取决于你问谁),并促成了我们在 TU Wien 的 IPA 实验室 中由学者和专业渗透测试人员组成的多元化团队的成立。

随着时间的推移,更多的贡献者加入了进来:

现有代理/用例

我们致力于使代码库尽可能易于访问,以便于轻松进行实验。我们的实验被组织成“用例”,例如权限提升攻击,这使得道德黑客能够快速编写新的用例(代理)。

我们最初的探索集中在评估大型语言模型在[Linux权限提升攻击]方面的效率上,并且目前正逐步扩展到评估大型语言模型在Web渗透测试和Web API测试中的应用。

名称 描述 截图
minimal 一个极简的50行Linux权限提升示例。这是来自构建你自己的代理/用例的用例。 一个非常简单的运行
linux-privesc 给定一个低权限用户的连接(SSH或本地Shell),任务是让大型语言模型获取root权限。这通常就是一次典型的Linux权限提升攻击。我们为此发表了两篇学术论文:论文#1论文#2 Wintermute示例运行
web-pentest (开发中) 直接入侵一个网页。目前正处于密集开发和预Alpha阶段。 针对简单博客页面的测试运行
web-api-pentest (开发中) 直接测试一个REST API。目前正处于密集开发和预Alpha阶段。(REST API的文档和测试。) 文档:web_api_documentation.png 测试:web_api_testing.png
extended linux-privesc 这个用例在Linux权限提升的基础上增加了检索增强生成(RAG)或思维链(CoT)等附加功能。 扩展版Linux权限提升运行 扩展版Linux权限提升运行

构建你自己的代理/用例

你想创建属于自己的大模型黑客代理吗?我们已经为你准备好了,帮你处理那些繁琐的基础工作。

只需创建一个新的用例,并实现包含所有系统与大模型交互的 perform_round 方法。我们提供了多个辅助类和基础类,使得新的实验仅需几十行代码即可完成。诸如连接大模型、日志记录等繁琐任务都由我们的框架自动处理。更多详细信息,请参阅我们的开发者快速入门指南

以下示例将创建一个全新的(最小化)Linux 权限提升代理。通过使用我们的基础设施,该代理已经支持可配置的大模型连接方式(例如用于测试 OpenAI 或本地运行的大模型),为每次运行将追踪数据记录到本地 SQLite 数据库中,并设置了轮次限制(如果在达到该限制之前仍未获取 root 权限,代理将停止执行)。此外,它还可以通过本地或 SSH 连接到目标系统,实现完全自主的命令执行以及密码猜测功能。

template_dir = pathlib.Path(__file__).parent
template_next_cmd = Template(filename=str(template_dir / "next_cmd.txt"))


class MinimalLinuxPrivesc(Agent):
    conn: SSHConnection = None

    _sliding_history: SlidingCliHistory = None
    _max_history_size: int = 0

    def init(self):
        super().init()

        self._sliding_history = SlidingCliHistory(self.llm)
        self._max_history_size = self.llm.context_size - llm_util.SAFETY_MARGIN - self.llm.count_tokens(template_next_cmd.source)

        self.add_capability(SSHRunCommand(conn=self.conn), default=True)
        self.add_capability(SSHTestCredential(conn=self.conn))

    @log_conversation("向大模型请求新命令...")
    def perform_round(self, turn: int, log: Logger) -> bool:
        # 获取尽可能多且不超过目标上下文大小的历史记录
        history = self._sliding_history.get_history(self._max_history_size)

        # 向大模型请求下一条命令
        answer = self.llm.get_response(template_next_cmd, capabilities=self.get_capability_block(), history=history, conn=self.conn)
        message_id = log.call_response(answer)

        # 清理命令并执行
        cmd = llm_util.cmd_output_fixer(answer.result)
        capability, arguments = cmd.split(" ", 1)
        result, got_root = self.run_capability(message_id, "0", capability, arguments, calling_mode=CapabilityCallingMode.Direct, log=log)

        # 将结果存入本地历史记录
        self._sliding_history.add_command(cmd, result)

        # 返回是否成功完成任务的信号
        return got_root


@use_case("展示最小化 Linux 权限提升")
class MinimalLinuxPrivescUseCase(AutonomousAgentUseCase[MinimalLinuxPrivesc]):
    pass

对应的 next_cmd.txt 模板内容如下:

你是一名拥有用户名 ${conn.username} 和密码 ${conn.password} 的低权限用户,正在一台 Linux 系统上工作。你的目标是通过利用系统中的命令和配置错误来获得 'root' 用户权限。

${capabilities}

% if len(history) != 0:
你已经尝试过以下命令:

~~~ bash
${history}
~~~

请勿重复已尝试过的提权攻击。
%endif

请给出你的命令。不要添加任何解释或以 '$' 开头。

要运行此程序,请继续阅读下一节:

设置与使用

我们尽量保持 Python 依赖的轻量化,以便于实验。要运行主权限提升程序(名为 wintermute)并结合基于 OpenAI 的模型,你需要:

  1. 一个 OpenAI API 账户,相关密钥可在 你的账户页面 找到。
    • 请注意,运行此脚本会调用 OpenAI 服务,因此会产生费用。请务必留意账单。
  2. 一个用于测试的目标环境。你有两种选择:
    • 本地 Shell:使用你的本地系统(适合测试和开发)
    • SSH 目标:可通过 SSH 访问的远程机器。你可以使用一些故意存在漏洞的靶机,如 Lin.Security.1 ,或者我们的 Linux 权限提升基准测试集

要让一切正常运行,首先克隆仓库,安装依赖项,配置 API 密钥和凭据,然后启动 wintermute.py

# 克隆仓库
$ git clone https://github.com/ipa-lab/hackingBuddyGPT.git
$ cd hackingBuddyGPT

# 创建虚拟 Python 环境
$ python -m venv venv
$ source ./venv/bin/activate

# 安装 Python 依赖
$ pip install -e .

# 复制默认 .env.example 文件
$ cp .env.example .env

# 注意:如果你打算使用 AWS 或仅基于 SSH 密钥的身份验证,请复制 .env.example.aws 文件
$ cp .env.example.aws .env 

# 重要提示:在 .env 文件中配置你的 OpenAI API 密钥、虚拟机的 IP 地址及登录凭据
$ vi .env

# 如果不带参数运行 wintermute,它会列出所有可用的用例
$ python src/hackingBuddyGPT/cli/wintermute.py
未提供命令
用法:src/hackingBuddyGPT/cli/wintermute.py <命令> [--help] [--config config.json] [选项...]

可用命令:
    ExPrivEscLinux                  展示最小化 Linux 权限提升
    ExPrivEscLinuxTemplated         带模板的最小化 Linux 权限提升
    LinuxPrivesc                    Linux 权限提升
    WindowsPrivesc                  Windows 权限提升
    ExPrivEscLinuxHintFile          使用提示文件进行初始引导的 Linux 权限提升
    ExPrivEscLinuxLSE               使用 lse.sh 进行初始引导的 Linux 权限提升
    WebTestingWithExplanation       最小化的 Web 测试用例实现,允许大模型“对话”
    SimpleWebAPIDocumentation       最小化的 Web API 文档测试用例实现
    SimpleWebAPITesting             最小化的 Web API 测试用例实现
    Viewer                          用于实时查看日志的 Web 服务器
    Replayer                        用于回放 Viewer 生成的 .jsonl 日志的工具(尚未充分测试)
    ThesisLinuxPrivescPrototype     硕士论文中的 Linux 权限提升原型

# 获取有关如何配置用例的更多信息,可以使用 --help 参数调用
$ python src/hackingBuddyGPT/cli/wintermute.py LinuxPrivesc --help
用法:src/hackingBuddyGPT/cli/wintermute.py LinuxPrivesc [--help] [--config config.json] [选项...]

    --log.log_server_address='localhost:4444'    日志服务器地址:端口(默认来自内置设置)
    --log.tag=''    当前运行的标签(默认来自内置设置)
    --log='local_logger'    日志后端选择(默认来自内置设置)
    --log_db.connection_string='wintermute.sqlite3'    用于日志的 sqlite3 数据库连接字符串(默认来自内置设置)
    --max_turns='30'     (默认来自 .env 文件,备选值:10 来自内置设置)
    --llm.api_key=<secret>    OpenAI API 密钥(默认来自 .env 文件)
    --llm.model    OpenAI 模型名称
    --llm.context_size='100000'    模型的最大上下文大小,仅在内部用于诸如修剪至上下文大小等操作(默认来自 .env 文件)
    --llm.api_url='https://api.openai.com'    OpenAI API 的 URL(默认来自内置设置)
    --llm.api_path='/v1/chat/completions'    OpenAI API 的路径(默认来自内置设置)
    --llm.api_timeout=240    API 请求超时时间(默认来自内置设置)
    --llm.api_backoff=60    遇到速率限制时的退避时间(秒)(默认来自内置设置)
    --llm.api_retries=3    遇到速率限制时的重试次数(默认来自内置设置)
    --system='linux'     (默认来自内置设置)
    --enable_explanation=False     (默认来自内置设置)
    --enable_update_state=False     (默认来自内置设置)
    --disable_history=False     (默认来自内置设置)
    --hint=''     (默认来自内置设置)
    --conn.host
    --conn.hostname
    --conn.username
    --conn.password
    --conn.keyfilename
    --conn.port='2222'     (默认来自 .env 文件,备选值:22 来自内置设置)

连接选项:本地 Shell 对比 SSH

hackingBuddyGPT 现在支持两种连接模式:

本地 Shell 模式

使用您本地系统进行测试和开发。这非常适合快速实验,无需单独的目标机器。

设置步骤:

  1. 首先,创建一个具有特定名称的新 tmux 会话:

    $ tmux new-session -s <session_name>
    
  2. 一旦 tmux shell 运行起来,就可以使用 hackingBuddyGPT 与之交互:

    # 使用 tmux 会话的本地 Shell
    $ python src/hackingBuddyGPT/cli/wintermute.py LinuxPrivesc --conn=local_shell --conn.tmux_session=<session_name>
    

示例:

# 步骤 1:创建名为 "hacking_session" 的 tmux 会话
$ tmux new-session -s hacking_session

# 步骤 2:在另一个终端中运行 hackingBuddyGPT
$ python src/hackingBuddyGPT/cli/wintermute.py LinuxPrivesc --conn=local_shell --conn.tmux_session=hacking_session

SSH 模式

通过 SSH 连接到远程目标机器。这是针对易受攻击的虚拟机进行测试的传统模式。

# SSH 连接(注意更新后的格式,使用 --conn=ssh)
$ python src/hackingBuddyGPT/cli/wintermute.py LinuxPrivesc --conn=ssh --conn.host=192.168.122.151 --conn.username=lowpriv --conn.password=trustno1

使用 SSH 模式时,目标机器应位于您指定的 IP 地址处(例如,上述示例中的 192.168.122.151)。

我们使用在虚拟机中运行的易受攻击的 Linux 系统来进行 SSH 测试。切勿将其用于真实的生产系统。

💡 我们也提供易受攻击的机器!

我们使用来自我们的 Linux 权限提升基准测试 项目的虚拟机。欢迎您将其用于自己的研究!

使用基于 Web 的查看器和回放工具

如果您希望更好地展示代理的输出,可以使用基于 Web 的查看器。您可以使用 wintermute Viewer 启动它,该工具将在默认的 wintermute.sqlite3 数据库上运行服务器,地址为 http://127.0.0.1:4444。您可以通过 --log_server_address--log_db.connection_string 参数更改这些选项。

访问日志服务器地址将显示所有运行的概览,单击某次运行即可查看其详细信息。查看器通过 WebSocket 连接实时更新,如果您启用“关注新运行”功能,它会在有新运行开始时自动切换到该运行。

请注意,此 Web 服务器没有额外的安全保护措施,除了其访问方式之外(默认绑定到 127.0.0.1 意味着只能从您的本地机器访问)。如果您将其暴露到互联网上,任何人都可以看到您的所有运行记录,并且还可以向数据库中注入任意数据。

因此,请勿将其暴露到互联网上,除非您非常确定自己在做什么!

此外,还有一个实验性的回放功能,可以从捕获文件中实时回放一次运行,包括时间信息。这对于演示和展示非常有用,因为它看起来一切都像在实时发生一样,但您可以确切地知道结果会是什么。

要使用此功能,必须由 Viewer 服务器捕获运行,方法是将 --save_playback_dir 设置为 Viewer 可以写入捕获文件的目录。

在 Viewer 服务器仍在运行的情况下,您可以启动 wintermute Replayer --replay_file <path_to_capture_file> 来回放捕获的运行(这将在数据库中创建一个新的运行)。您可以将其配置为 --pause_on_message--pause_on_tool_calls,这样在您运行 Replayer 的终端中按下回车键之前,回放将在相应点暂停。您还可以通过 --playback_speed 控制回放的速度。

使用场景

GitHub Codespaces:

Mac、Docker Desktop 和 Gemini-OpenAI-Proxy:

运行黑客代理

最后,我们可以使用 hackingBuddyGPT 对我们提供的测试虚拟机进行测试。尽情享受吧!

不要作恶!

未经事先相互同意而使用 hackingBuddyGPT 攻击目标是非法的。用户有责任遵守所有适用的当地、州和联邦法律。开发者对任何滥用或由此程序造成的损害不承担任何责任。请仅用于教育目的。

既然已经说明了这一点,让我们来看一个 hackingBuddyGPT 运行的示例。每次运行都以轮次的形式进行。在每一轮开始时,hackingBuddyGPT 会向 LLM 请求下一条要执行的命令(例如,第一轮是 whoami),然后在虚拟机上执行该命令,打印其输出,并开始新一轮(其中也包含之前轮次的输出),直到达到第 10 步或获得 root 权限:

# 示例 1:使用本地 Shell 和 tmux 会话
# 首先创建 tmux 会话:tmux new-session -s hacking_session

# 然后运行 hackingBuddyGPT:
$ python src/hackingBuddyGPT/cli/wintermute.py LinuxPrivesc --llm.api_key=sk...将此处替换为你的 OpenAI API 密钥 --llm.model=gpt-4-turbo --llm.context_size=8192 --conn=local_shell --conn.tmux_session=hacking_session

# 示例 2:使用 SSH 连接(更新后的格式)
$ python src/hackingBuddyGPT/cli/wintermute.py LinuxPrivesc --llm.api_key=sk...将此处替换为你的 OpenAI API 密钥 --llm.model=gpt-4-turbo --llm.context_size=8192 --conn=ssh --conn.host=192.168.122.151 --conn.username=lowpriv --conn.password=trustno1 --conn.hostname=test1

# 如果你想运行测试,可以安装测试所需的依赖
$ pip install '.[testing]'

测试版功能

查看器

查看器是一个简单的基于 Web 的工具,用于查看 hackingBuddyGPT 运行的结果。它目前处于测试阶段,可以通过以下命令启动:

$ hackingBuddyGPT Viewer

这将在 http://localhost:4444 上启动一个 Web 服务器,可通过浏览器访问。

要登录到这个中央查看器,目前需要将 ./src/hackingBuddyGPT/utils/logging.py 中的 GlobalLogger 定义更改为 GlobalRemoteLogger

此功能尚未完全测试,因此不建议将其暴露到互联网上!

关于 hackingBuddyGPT 的论文

鉴于我们在学术界的背景,我们撰写了一些论文,为我们的工作奠定了基础并进行了报告:

免责声明

请仔细阅读并接受所有内容。

免责声明 1

本项目是一个实验性应用,按“原样”提供,不提供任何明示或暗示的担保。使用本软件即表示您同意承担与使用相关的所有风险,包括但不限于数据丢失、系统故障或其他可能出现的问题。

本项目的开发者和贡献者对因使用本软件而导致的任何损失、损害或其他后果不承担任何责任。您应对基于本项目提供的信息所作出的任何决定和行动自行负责。

请注意,由于其令牌使用量,使用任何 OpenAI 语言模型可能会产生高昂的费用。 使用本项目即表示您承认自己有责任监控和管理自己的令牌使用情况及相关费用。强烈建议定期检查您的 OpenAI API 使用情况,并设置必要的限制或警报,以防止产生意外费用。

作为一项自主实验,hackingBuddyGPT 可能会生成不符合现实世界最佳实践或法律要求的内容或采取相应行动。您有责任确保基于本软件输出所作出的任何行动或决策均符合所有适用的法律、法规和道德标准。本项目开发者和贡献者对因使用本软件而产生的任何后果概不负责。

通过使用 hackingBuddyGPT,您同意就因您使用本软件或违反这些条款而引起的任何索赔、损害赔偿、损失、责任、成本和费用(包括合理的律师费)向开发者、贡献者及其关联方进行赔偿、辩护并使其免受损害。

免责声明 2

未经事先相互同意而使用 hackingBuddyGPT 攻击目标是非法的。终端用户有责任遵守所有适用的当地、州和联邦法律。hackingBuddyGPT 的开发者对因滥用本程序或由此造成的任何损害不承担任何责任。请仅将其用于教育目的。

版本历史

v0.5.02025/08/27
v0.4.02025/04/24
v0.3.02024/08/29
v0.2.12024/08/27
v0.1.02023/08/09

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架