langup-ai

GitHub
713 128 简单 1 次阅读 2天前MITAgent其他语言模型开发框架
AI 解读 由 AI 自动生成,仅供参考

langup-ai 是一款专为 AGI 时代打造的通用社交机器人框架,旨在让开发者轻松为 Bilibili 等平台赋予“数字灵魂”。它巧妙结合了大语言模型(LLM)与自动化脚本,解决了传统机器人互动生硬、难以理解复杂语境的问题,实现了从直播弹幕实时互怼、视频评论智能总结,到私信自动回复及终端语音对话的全场景覆盖。

该工具特别适合 Python 开发者、AI 爱好者以及希望运营自动化账号的内容创作者使用。用户只需几行代码,即可定义独特的角色人设(如“杠精主播”或“贴心助手”),并快速部署具备高度拟人化交互能力的 Bot。其技术亮点在于灵活的配置体系:支持多种凭证获取方式(包括直接从浏览器提取),内置敏感词过滤与并发控制机制,并能适配不同的 OpenAI 模型。无论是想打造直播间里的虚拟偶像,还是构建高效的私域流量助手,langup-ai 都提供了开箱即用的解决方案,让创建智能社交代理变得简单而有趣。

使用场景

一位 B 站虚拟主播(VTuber)希望在不增加运营人力的情况下,实现直播间弹幕的趣味互动与视频评论区的自动维护。

没有 langup-ai 时

  • 互动响应滞后:主播在专注游戏或表演时,无法实时阅读并回复海量弹幕,导致观众参与感低,直播间氛围冷清。
  • 人设难以维持:人工助理难以时刻保持“杠精”或特定幽默风格,回复往往千篇一律,缺乏个性与趣味性。
  • 视频运营断层:新视频发布后,无法及时回复评论区的大量@留言和私信,错失粉丝转化与留存的最佳时机。
  • 多端操作繁琐:需要同时盯着直播后台、评论区和个人消息,精力分散,极易造成运营事故或遗漏重要信息。

使用 langup-ai 后

  • 全天候实时互动:通过 VtuBer 模块,AI 能毫秒级识别弹幕并基于预设的“杠精”人设自动回怼,直播间瞬间热闹起来。
  • 人设高度统一:利用 LLM 强大的语境理解能力,确保每一条回复都符合“熟悉 B 站调性”的角色设定,输出内容有趣且字数可控。
  • 自动化社区运营:部署 VideoCommentUPChatUP 后,机器人自动总结视频内容回复评论,并处理私信,实现 24 小时不间断粉丝维系。
  • 多场景无缝切换:一套代码即可同时支撑直播、视频评论、私信及终端语音交互,大幅降低开发门槛与维护成本。

langup-ai 将原本需要多人协作的复杂社交运营工作,转化为可自定义人设的自动化流程,让创作者真正从繁琐互动中解放出来。

运行环境要求

操作系统
  • 未说明
GPU

未说明

内存

未说明

依赖
notes国内环境使用 OpenAI 服务需配置 HTTP 代理或自定义 API Base;Bilibili 相关功能需要账号认证信息(可通过浏览器自动读取或手动配置 Cookie);语音交互功能依赖本地语音识别模块配置。
python3.8+
langup
langchain
bilibili-api
langup-ai hero image

快速开始

Langup

语言模型 + 机器人

🚀AGI时代的通用机器人🚀

安装

环境:python>=3.8

  • 方式一
    pip install langup==0.0.10
    
  • 方式二(建议使用Python虚拟环境)
    git clone https://github.com/jiran214/langup-ai.git
    cd langup-ai/
    python -m pip install –upgrade pip
    python -m pip install -r requirements.txt
    

快速开始

  • 安装完成后,新建.py文件参考以下代码(注意:采用方式二安装时,可以在src/下新建)
  • 所有代码示例 src/examples可见
Bilibili直播数字人
from langup import config, VtuBer

# config.proxy = 'http://127.0.0.1:7890'
up = VtuBer(
    system="""角色:你现在是一位在哔哩哔哩网站的主播,你很熟悉哔哩哔哩上的网友发言习惯和平台调性,擅长与年轻人打交道。
背景:通过直播中和用户弹幕的互动,产出有趣的对话,以此吸引更多人来观看直播并关注你。
任务:你在直播过程中会对每一位直播间用户发的弹幕进行回答,但是要以“杠精”的思维去回答,你会怒怼这些弹幕,不放过每一条弹幕,每次回答字数不能超过100字。""",  # 人设
    room_id=00000,  # Bilibili房间号
    openai_api_key="""xxx""",  # 同上
    is_filter=True,  # 是否开启过滤
    extra_ban_words=[],  # 额外的违禁词
    concurrent_num=2  # 控制回复弹幕速度
  
    # credential 参数说明
    # 方式一: credential为空,从工作目录/.env文件读取credential
    # 方式二: 直接传入 https://nemo2011.github.io/bilibili-api/#/get-credential
    # credential={"sessdata": 'xxx', "buvid3": 'xxx', "bili_jct": 'xxx'}
    # 方式三: 从浏览器资源读取
    # browser='edge'
)
up.loop()
"""
bilibili直播数字人参数:
:param room_id:  bilibili直播房间号
:param credential:  bilibili 账号认证
:param is_filter: 是否开启过滤
:param user_input: 是否开启终端输入
:param extra_ban_words: 额外的违禁词

...见更多配置
"""
视频@回复机器人
from langup import config, VideoCommentUP

# config.proxy = 'http://127.0.0.1:7890'
up = VideoCommentUP(
    up_sleep=10,  # 生成回复间隔事件
    listener_sleep=60 * 2,  # 2分钟获取一次@消息
    system="你是一个会评论视频B站用户,请根据视频内容做出总结、评论",
    signals=['总结一下'],
    openai_api_key='xxx',
    model_name='gpt-3.5-turbo',
  
    # credential 参数说明
    # 方式一: credential为空,从工作目录/.env文件读取credential
    # 方式二: 直接传入 https://nemo2011.github.io/bilibili-api/#/get-credential
    # credential={"sessdata": 'xxx', "buvid3": 'xxx', "bili_jct": 'xxx'}
    # 方式三: 自动从浏览器资源读取
    # browser='edge'
)
up.loop()
"""
视频下at信息回复机器人
:param credential: bilibili认证
:param model_name: openai MODEL
:param signals:  at暗号列表 (注意:B站会过滤一些词)
:param limit_video_seconds: 过滤视频长度 
:param limit_token: 请求GPT token限制(默认为model name)
:param limit_length: 请求GPT 字符串长度限制
:param compress_mode: 请求GPT 压缩过长的视频文字的方式
    - random:随机跳跃筛选
    - left:从左到右
    
:param up_sleep: 每次回复的间隔运行时间(秒)
:param listener_sleep: listener 每次读取@消息的间隔运行时间(秒)
...见更多配置
"""
B站私信Bot
from langup import ChatUP, Event


# bilibili cookie 通过浏览器edge提取,apikey从.env读取
ChatUP(
    system='你是一位聊天AI助手',
    # event_name_list 订阅消息列表
    event_name_list=[Event.TEXT],
    # credential 参数说明
    # 方式一: credential为空,从工作目录/.env文件读取credential
    # 方式二: 直接传入 https://nemo2011.github.io/bilibili-api/#/get-credential
    # credential={"sessdata": 'xxx', "buvid3": 'xxx', "bili_jct": 'xxx'}
    # 方式三: 自动从浏览器资源读取
    # browser='load'
).loop()
实时语音交互助手
from langup import UserInputReplyUP, config

config.proxy = 'http://127.0.0.1:7890'
# config.openai_api_key = 'xxx' 或 创建.env文件 OPENAI_API_KEY=xxx

# 语音实时识别回复
# 修改语音识别模块配置 config.convert['speech_rec']
UserInputReplyUP(system='你是一位AI助手', listen='speech').loop() 
终端交互助手
from langup import UserInputReplyUP, config

# config.proxy = 'http://127.0.0.1:7890'
# config.openai_api_key = 'xxx' 或 创建.env文件 OPENAI_API_KEY=xxx

# 终端回复
UserInputReplyUP(system='你是一位AI助手', listen='console').loop()
更多配置(可忽略)
"""
Uploader 所有公共参数:
:param listeners:  感知
:param concurrent_num:  并发数
:param up_sleep: uploader 间隔运行时间 
:param listener_sleep: listener 间隔运行时间 
:param system:   人设

:param openai_api_key:  openai秘钥
:param openai_proxy:   http代理
:param openai_api_base:  openai endpoint
:param temperature:  gpt温度
:param max_tokens:  gpt输出长度
:param chat_model_kwargs:  langchain chatModel额外配置参数
:param llm_chain_kwargs:  langchain chatChain额外配置参数

:param brain:  含有run方法的类
:param mq:  通信队列
"""

全局配置文件:

"""
langup/config.py
修改方式:
form langup import config
config.xxx = xxx
"""
import os
from typing import Union

credential: Union['Credential', None] = None
work_dir = './'

tts = {
    "voice": "zh-CN-XiaoyiNeural",
    "rate": "+0%",
    "volume": "+0%",
    "voice_path": 'voice/'
}

log = {
    "handlers": ["console"],  # console打印, file文件存储
    "file_path": "logs/"
}

convert = {
    "audio_path": "audio/"
}

root = os.path.dirname(__file__)
openai_api_key = None  # sk-...
openai_api_base = None  # https://{your_domain}/v1
proxy = None  # 代理
debug = True
更多机器人开发中...

注意事项

  • api_key可自动从环境变量获取
  • 国内环境需要设置代理或者openai_api_base 推荐config.proxy='xxx'全局设置,避免设置局部代理导致其它服务不可用
  • Bilibili UP都需要 认证信息,获取使用方式如下
    • 登录Bilibili 从浏览器获取cookie:https://nemo2011.github.io/bilibili-api/#/get-credential
    • 作为字典参数"credential"传入,或者api_key和Bilibili cookie等信息可以写到.env文件中,程序会隐式读取,参考src/.env.temple
    • 10.26更新,不需要手动获取,只要你浏览器最近登录过,程序会自动读取浏览器数据 (可以优先尝试,注意windows用户需要完全关闭浏览器进程,否则会出现资源占用情况)

架构设计

部分模块待实现

TodoList

  • Uploader
    • Vtuber
      • 基本功能
      • 违禁词
      • 并发
    • VideoCommentUP
      • 基本功能
    • UserInputUP
      • 基本功能
      • 语音识别
  • Listener
    • 语音识别
    • 微信
    • Bilibili 私信
    • QQ
  • Reaction
  • 其它
    • 日志记录
    • pydantic重构部分类
    • 认证信息自动获取

提示

国内访问ChatGPT方式:Vercel反向代理openai api 具体见 https://github.com/jiran214/proxy
pip install langup==0.0.10
  • 方式二(建议使用Python虚拟环境)
    git clone https://github.com/jiran214/langup-ai.git
    cd langup-ai/
    python -m pip install –upgrade pip
    python -m pip install -r requirements.txt
    
  • 快速开始

    • 安装完成后,新建.py文件参考以下代码(注意:采用方式二安装时,可以在src/下新建)
    • 所有代码示例 src/examples可见
    Bilibili 直播数字人
    from langup import config, VtuBer
    
    # config.proxy = 'http://127.0.0.1:7890'
    up = VtuBer(
        system="""角色:你现在是一位在哔哩哔哩网站的主播,你很熟悉哔哩哔哩上的网友发言习惯和平台调性,擅长与年轻人打交道。
    背景:通过直播中和用户弹幕的互动,产出有趣的对话,以此吸引更多人来观看直播并关注你。
    任务:你在直播过程中会对每一位直播间用户发的弹幕进行回答,但是要以“杠精”的思维去回答,你会怒怼这些弹幕,不放过每一条弹幕,每次回答字数不能超过100字。""",  # 人设
        room_id=00000,  # Bilibili房间号
        openai_api_key="""xxx""",  # 同上
        is_filter=True,  # 是否开启过滤
        extra_ban_words=[],  # 额外的违禁词
        concurrent_num=2  # 控制回复弹幕速度
      
        # credential 参数说明
        # 方式一: credential为空,从工作目录/.env文件读取credential
        # 方式二: 直接传入 https://nemo2011.github.io/bilibili-api/#/get-credential
        # credential={"sessdata": 'xxx', "buvid3": 'xxx', "bili_jct": 'xxx'}
        # 方式三: 从浏览器资源读取
        # browser='edge'
    )
    up.loop()
    
    """
    bilibili直播数字人参数:
    :param room_id:  bilibili直播房间号
    :param credential:  bilibili 账号认证
    :param is_filter: 是否开启过滤
    :param user_input: 是否开启终端输入
    :param extra_ban_words: 额外的违禁词
    
    ...见更多配置
    """
    
    视频@回复机器人
    from langup import config, VideoCommentUP
    
    # config.proxy = 'http://127.0.0.1:7890'
    up = VideoCommentUP(
        up_sleep=10,  # 生成回复间隔事件
        listener_sleep=60 * 2,  # 2分钟获取一次@消息
        system="你是一个会评论视频B站用户,请根据视频内容做出总结、评论",
        signals=['总结一下'],
        openai_api_key='xxx',
        model_name='gpt-3.5-turbo',
      
        # credential 参数说明
        # 方式一: credential为空,从工作目录/.env文件读取credential
        # 方式二: 直接传入 https://nemo2011.github.io/bilibili-api/#/get-credential
        # credential={"sessdata": 'xxx', "buvid3": 'xxx', "bili_jct": 'xxx'}
        # 方式三: 自动从浏览器资源读取
        # browser='edge'
    )
    up.loop()
    
    """
    视频下at信息回复机器人
    :param credential: bilibili认证
    :param model_name: openai MODEL
    :param signals:  at暗号列表 (注意:B站会过滤一些词)
    :param limit_video_seconds: 过滤视频长度 
    :param limit_token: 请求GPT token限制(默认为model name)
    :param limit_length: 请求GPT 字符串长度限制
    :param compress_mode: 请求GPT 压缩过长的视频文字的方式
        - random:随机跳跃筛选
        - left:从左到右
        
    :param up_sleep: 每次回复的间隔运行时间(秒)
    :param listener_sleep: listener 每次读取@消息的间隔运行时间(秒)
    ...见更多配置
    """
    
    B站私信Bot
    from langup import ChatUP, Event
    
    
    # bilibili cookie 通过浏览器edge提取,apikey从.env读取
    ChatUP(
        system='你是一位聊天AI助手',
        # event_name_list 订阅消息列表
        event_name_list=[Event.TEXT],
        # credential 参数说明
        # 方式一: credential为空,从工作目录/.env文件读取credential
        # 方式二: 直接传入 https://nemo2011.github.io/bilibili-api/#/get-credential
        # credential={"sessdata": 'xxx', "buvid3": 'xxx', "bili_jct": 'xxx'}
        # 方式三: 自动从浏览器资源读取
        # browser='load'
    ).loop()
    
    实时语音交互助手
    from langup import UserInputReplyUP, config
    
    config.proxy = 'http://127.0.0.1:7890'
    # config.openai_api_key = 'xxx' 或 创建.env文件 OPENAI_API_KEY=xxx
    
    # 语音实时识别回复
    # 修改语音识别模块配置 config.convert['speech_rec']
    UserInputReplyUP(system='你是一位AI助手', listen='speech').loop() 
    
    终端交互助手
    from langup import UserInputReplyUP, config
    
    # config.proxy = 'http://127.0.0.1:7890'
    # config.openai_api_key = 'xxx' 或 创建.env文件 OPENAI_API_KEY=xxx
    
    # 终端回复
    UserInputReplyUP(system='你是一位AI助手', listen='console').loop()
    
    更多配置(可忽略)
    """
    Uploader 所有公共参数:
    :param listeners:  感知
    :param concurrent_num:  并发数
    :param up_sleep: uploader 间隔运行时间 
    :param listener_sleep: listener 间隔运行时间 
    :param system:   人设
    
    :param openai_api_key:  openai秘钥
    :param openai_proxy:   http代理
    :param openai_api_base:  openai endpoint
    :param temperature:  gpt温度
    :param max_tokens:  gpt输出长度
    :param chat_model_kwargs:  langchain chatModel额外配置参数
    :param llm_chain_kwargs:  langchain chatChain额外配置参数
    
    :param brain:  含有run方法的类
    :param mq:  通信队列
    """
    

    全局配置文件:

    """
    langup/config.py
    修改方式:
    form langup import config
    config.xxx = xxx
    """
    import os
    from typing import Union
    
    credential: Union['Credential', None] = None
    work_dir = './'
    
    tts = {
        "voice": "zh-CN-XiaoyiNeural",
        "rate": "+0%",
        "volume": "+0%",
        "voice_path": 'voice/'
    }
    
    log = {
        "handlers": ["console"],  # console打印, file文件存储
        "file_path": "logs/"
    }
    
    convert = {
        "audio_path": "audio/"
    }
    
    root = os.path.dirname(__file__)
    openai_api_key = None  # sk-...
    openai_api_base = None  # https://{your_domain}/v1
    proxy = None  # 代理
    debug = True
    
    更多机器人开发中...

    注意事项

    • api_key可自动从环境变量获取
    • 国内环境需要设置代理或者openai_api_base 推荐config.proxy='xxx'全局设置,避免设置局部代理导致其它服务不可用
    • Bilibili UP都需要 认证信息,获取使用方式如下
      • 登录Bilibili 从浏览器获取cookie:https://nemo2011.github.io/bilibili-api/#/get-credential
      • 作为字典参数"credential"传入,或者api_key和Bilibili cookie等信息可以写到.env文件中,程序会隐式读取,参考src/.env.temple
      • 10.26更新,不需要手动获取,只要你浏览器最近登录过,程序会自动读取浏览器数据 (可以优先尝试,注意windows用户需要完全关闭浏览器进程,否则会出现资源占用情况)

    架构设计

    部分模块待实现

    TodoList

    • Uploader
      • Vtuber
        • 基本功能
        • 违禁词
        • 并发
      • VideoCommentUP
        • 基本功能
      • UserInputUP
        • 基本功能
        • 语音识别
    • Listener
      • 语音识别
      • 微信
      • Bilibili 私信
      • QQ
    • Reaction
    • 其它
      • 日志记录
      • pydantic重构部分类
      • 认证信息自动获取

    提示

    国内访问ChatGPT方式:Vercel反向代理openai api 具体见 https://github.com/jiran214/proxy

    Langup AI 快速上手指南

    Langup 是一个基于 LLM(大语言模型)的通用机器人框架,专为 AGI 时代设计,支持 B 站直播数字人、视频评论回复、私信助手及语音/终端交互等多种场景。

    1. 环境准备

    在开始之前,请确保您的开发环境满足以下要求:

    • 操作系统:Windows / macOS / Linux
    • Python 版本:>= 3.8
    • 前置依赖
      • OpenAI API Key(或兼容的 LLM 接口)
      • (可选)B 站账号 Cookie(用于 B 站相关功能,支持自动从浏览器读取)
      • (可选)国内网络环境需配置代理或使用反向代理服务

    2. 安装步骤

    推荐以下两种安装方式,任选其一即可。

    方式一:pip 直接安装(推荐)

    pip install langup==0.0.10
    

    方式二:源码安装(建议使用虚拟环境)

    适合需要修改源码或查看示例的用户。

    git clone https://github.com/jiran214/langup-ai.git
    cd langup-ai/
    python -m pip install –upgrade pip
    python -m pip install -r requirements.txt
    

    提示:若在国内访问 OpenAI 服务受限,建议在代码全局配置中设置代理: config.proxy = 'http://127.0.0.1:7890'

    3. 基本使用

    安装完成后,新建一个 .py 文件(若在源码目录下,建议在 src/ 文件夹内创建),根据需求选择以下任一场景运行。

    场景 A:B 站直播数字人 (VtuBer)

    自动回复直播间弹幕,可自定义人设(如“杠精”模式)。

    from langup import config, VtuBer
    
    # 配置代理(如需)
    # config.proxy = 'http://127.0.0.1:7890'
    
    up = VtuBer(
        system="""角色:你现在是一位在哔哩哔哩网站的主播,你很熟悉哔哩哔哩上的网友发言习惯和平台调性,擅长与年轻人打交道。
    背景:通过直播中和用户弹幕的互动,产出有趣的对话,以此吸引更多人来观看直播并关注你。
    任务:你在直播过程中会对每一位直播间用户发的弹幕进行回答,但是要以“杠精”的思维去回答,你会怒怼这些弹幕,不放过每一条弹幕,每次回答字数不能超过 100 字。""",
        room_id=00000,  # 替换为你的 B 站房间号
        openai_api_key="xxx",  # 替换为你的 API Key,或放入.env 文件
        is_filter=True,  # 开启违禁词过滤
        concurrent_num=2  # 控制回复并发数
        # credential 可不传,程序会自动尝试从已登录的浏览器读取
    )
    up.loop()
    

    场景 B:视频评论回复机器人

    监听视频下的 @消息,自动生成总结或评论。

    from langup import config, VideoCommentUP
    
    up = VideoCommentUP(
        up_sleep=10,  # 回复间隔时间(秒)
        listener_sleep=60 * 2,  # 获取@消息间隔(秒)
        system="你是一个会评论视频 B 站用户,请根据视频内容做出总结、评论",
        signals=['总结一下'],  # 触发回复的关键词
        openai_api_key='xxx',
        model_name='gpt-3.5-turbo',
        # credential 可不传,支持自动读取浏览器登录状态
    )
    up.loop()
    

    场景 C:终端/语音交互助手

    最简单的本地交互模式,支持命令行输入或语音输入。

    终端交互:

    from langup import UserInputReplyUP, config
    
    # config.openai_api_key = 'xxx' 或在根目录创建 .env 文件写入 OPENAI_API_KEY=xxx
    
    UserInputReplyUP(system='你是一位 AI 助手', listen='console').loop()
    

    语音实时交互:

    from langup import UserInputReplyUP, config
    
    # 需确保已安装语音识别相关依赖
    UserInputReplyUP(system='你是一位 AI 助手', listen='speech').loop() 
    

    关键配置说明

    • 认证信息 (Credential)
      • 自动读取:只要浏览器(Edge/Chrome 等)最近登录过 B 站,程序会自动读取(Windows 用户需完全关闭浏览器进程)。
      • 手动传入credential={"sessdata": '...', "buvid3": '...', "bili_jct": '...'}
      • 环境变量:将 key 和 cookie 写入项目根目录的 .env 文件。
    • API Key:优先从环境变量 OPENAI_API_KEY 读取,也可在代码中直接传入。
    • 代理设置:国内用户建议在全局配置 config.proxy 统一设置,避免局部代理冲突。

    版本历史

    v0.0.92023/10/23
    v0.0.72023/10/17

    相似工具推荐

    openclaw

    OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

    349.3k|★★★☆☆|今天
    Agent开发框架图像

    stable-diffusion-webui

    stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

    162.1k|★★★☆☆|昨天
    开发框架图像Agent

    everything-claude-code

    everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

    141.5k|★★☆☆☆|今天
    开发框架Agent语言模型

    ComfyUI

    ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

    107.9k|★★☆☆☆|今天
    开发框架图像Agent

    LLMs-from-scratch

    LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

    90.1k|★★★☆☆|今天
    语言模型图像Agent

    Deep-Live-Cam

    Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

    88.9k|★★★☆☆|今天
    开发框架图像Agent