pytorch_kinematics

GitHub
789 69 非常简单 1 次阅读 2天前MIT开发框架其他
AI 解读 由 AI 自动生成,仅供参考

pytorch_kinematics 是一款基于 PyTorch 构建的机器人运动学计算库,旨在将传统的机器人正逆运动学求解过程转化为可微分、可并行的高效运算。它主要解决了传统运动学算法难以直接融入深度学习训练流程的痛点,让开发者能够轻松在神经网络中通过梯度下降优化机器人姿态,同时支持大规模批量计算以显著提升效率。

这款工具非常适合机器人领域的研究人员、算法工程师以及希望结合深度学习进行强化学习或轨迹优化的开发者使用。用户可以直接从 URDF、SDF 或 MJCF 等主流格式加载机器人描述文件,快速构建运动学链。

其核心技术亮点在于提供了完全可微分的正向运动学、雅可比矩阵计算以及阻尼最小二乘法逆运动学求解器。这意味着它不仅能在 CPU 上运行,还能无缝利用 GPU 加速,支持对成千上万个不同构型或空间点进行并行查询。无论是用于模拟环境中的大规模数据采集,还是作为端到端学习模型的一部分,pytorch_kinematics 都能提供灵活且高性能的底层支持,帮助使用者更专注于上层算法的创新与验证。

使用场景

某机器人实验室团队正在开发基于深度强化学习的机械臂抓取策略,需要在一个仿真环境中每秒对数千种不同的关节配置进行正向运动学解算和雅可比矩阵计算,以训练神经网络预测最佳抓取姿态。

没有 pytorch_kinematics 时

  • 计算效率低下:传统库(如 KDL 或 Pinocchio)通常基于 CPU 串行计算,面对批量数据时速度极慢,无法满足深度学习训练的高吞吐需求。
  • 梯度断裂难题:现有工具难以直接提供可微分的运动学接口,研究人员需手动推导复杂的反向传播公式或使用黑盒数值微分,导致策略网络无法通过端到端方式优化。
  • 开发流程割裂:需要在 Python 逻辑与底层 C++ 运动学引擎之间频繁切换数据格式,且难以利用 GPU 加速,代码维护成本高且易出错。
  • 模型适配繁琐:每次更换机器人模型(如从 URDF 切换到 MJCF),都需要重写大量解析代码,缺乏统一的标准化加载接口。

使用 pytorch_kinematics 后

  • 并行加速显著:直接利用 PyTorch 的批处理能力,在 GPU 上并行计算成千上万个构型的正向运动学和雅可比矩阵,推理速度提升数十倍。
  • 原生支持自动微分:内置的可微分 IK 和 FK 模块让梯度能够自然流过运动学链条,实现了从传感器输入到关节控制指令的端到端训练。
  • 生态无缝集成:作为纯 PyTorch 实现,它能直接与现有的深度学习管道融合,无需数据拷贝即可在 CUDA 设备上运行,大幅简化了代码架构。
  • 多格式灵活加载:支持一键加载 URDF、SDF 和 MJCF 等多种主流机器人描述文件,快速提取串联链,极大缩短了不同机型的适配周期。

pytorch_kinematics 通过将机器人运动学转化为高效的张量运算,彻底打通了传统控制理论与现代深度学习之间的性能与梯度壁垒。

运行环境要求

操作系统
  • 未说明
GPU
  • 非必需
  • 支持 CUDA 加速(若可用),具体显卡型号、显存大小及 CUDA 版本未在文档中指定
内存

未说明

依赖
notes该工具是一个纯 PyTorch 实现的机器人运动学库,支持通过 pip 直接安装。它利用 PyTorch 的自动微分功能进行可微分的正向运动学、雅可比矩阵计算和阻尼最小二乘逆运动学。支持 URDF、SDF 和 MJCF 格式的机器人描述文件加载。可通过 torch.compile 进一步加速计算。文档未明确列出最低 Python 版本或操作系统限制,通常意味着兼容主流支持 PyTorch 的环境(Linux, macOS, Windows)。
python未说明
torch
pytorch-volumetric (可选,用于 SDF 查询)
pytorch_kinematics hero image

快速开始

PyTorch 机器人运动学

  • 并行且可微的正向运动学(FK)、雅可比矩阵计算,以及阻尼最小二乘逆向运动学(IK)
  • 从 URDF、SDF 和 MJCF 格式加载机器人描述
  • 通过 pytorch-volumetric 实现对不同配置和点的 SDF 查询批量处理

安装

pip install pytorch-kinematics

如需开发版本,请将仓库克隆至任意位置,然后运行 pip3 install -e . 以进入可编辑模式进行安装。

参考

DOI

如果您在研究中使用本包,请考虑引用以下文献:

@software{Zhong_PyTorch_Kinematics_2024,
author = {Zhong, Sheng and Power, Thomas and Gupta, Ashwin and Mitrano, Peter},
doi = {10.5281/zenodo.7700587},
month = feb,
title = {{PyTorch 运动学}},
version = {v0.7.1},
year = {2024}
}

使用方法

请参阅 tests 中的代码示例;部分示例也在此处展示。

加载机器人

import pytorch_kinematics as pk

urdf = "widowx/wx250s.urdf"
# 由于存在多个自然末端执行器链接,因此并非串联链
chain = pk.build_chain_from_urdf(open(urdf, mode="rb").read())
# 可视化各帧结构(字符串同样会返回)
chain.print_tree()
"""
base_link
└── shoulder_link
    └── upper_arm_link
        └── upper_forearm_link
            └── lower_forearm_link
                └── wrist_link
                    └── gripper_link
                        └── ee_arm_link
                            ├── gripper_prop_link
                            └── gripper_bar_link
                                └── fingers_link
                                    ├── left_finger_link
                                    ├── right_finger_link
                                    └── ee_gripper_link
"""

# 提取特定的串联链,例如用于逆向运动学
serial_chain = pk.SerialChain(chain, "ee_gripper_link", "base_link")
serial_chain.print_tree()
"""
base_link
└── shoulder_link
    └── upper_arm_link
        └── upper_forearm_link
            └── lower_forearm_link
                └── wrist_link
                    └── gripper_link
                        └── ee_arm_link
                            └── gripper_bar_link
                                └── fingers_link
                                    └── ee_gripper_link
"""

# 您也可以提取与原始链根节点不同的串联链
serial_chain = pk.SerialChain(chain, "ee_gripper_link", "gripper_link")
serial_chain.print_tree()
"""
gripper_link
└── ee_arm_link
    └── gripper_bar_link
        └── fingers_link
            └── ee_gripper_link
"""

正向运动学(FK)

import math
import pytorch_kinematics as pk

# 从 URDF 加载机器人描述,并指定末端执行器链接
chain = pk.build_serial_chain_from_urdf(open("kuka_iiwa.urdf").read(), "lbr_iiwa_link_7")
# 打印出链接的嵌套树结构
print(chain)
# 打印出关节名称列表
print(chain.get_joint_parameter_names())

# 指定关节值(可采用多种形式)
th = [0.0, -math.pi / 4.0, 0.0, math.pi / 2.0, 0.0, math.pi / 4.0, 0.0]
# 进行正向运动学计算并获取变换对象;若设置 end_only=False,则会返回所有链接的变换矩阵
ret = chain.forward_kinematics(th, end_only=False)
# 查找特定链接的变换矩阵
tg = ret['lbr_iiwa_link_7']
# 获取变换矩阵(1,4,4),随后将其转换为独立的位置和单位四元数
m = tg.get_matrix()
pos = m[:, :3, 3]
rot = pk.matrix_to_quaternion(m[:, :3, :3])

我们可以通过传入 2D 关节值来实现 FK 的并行化,同时在可用时也可使用 CUDA。

import torch
import pytorch_kinematics as pk

d = "cuda" if torch.cuda.is_available() else "cpu"
dtype = torch.float64

chain = pk.build_serial_chain_from_urdf(open("kuka_iiwa.urdf").read(), "lbr_iiwa_link_7")
chain = chain.to(dtype=dtype, device=d)

N = 1000
th_batch = torch.rand(N, len(chain.get_joint_parameter_names()), dtype=dtype, device=d)

# 在并行环境下,按数量级排序能显著提升运算速度
# 对于 N=1000,使用并行方式运行时耗时 0.008678913116455078 秒
# (N,4,4)变换矩阵;默认情况下,仅返回末端执行器的变换矩阵,因为 end_only=True
tg_batch = chain.forward_kinematics(th_batch)

# 对于 N=1000,串行方式运行时耗时 8.44686508178711 秒
for i in range(N):
    tg = chain.forward_kinematics(th_batch[i])

我们还可以通过 FK 计算梯度。

import torch
import math
import pytorch_kinematics as pk

chain = pk.build_serial_chain_from_urdf(open("kuka_iiwa.urdf").read(), "lbr_iiwa_link_7")

# 需要对输入关节值进行梯度计算
th = torch.tensor([0.0, -math.pi / 4.0, 0.0, math.pi / 2.0, 0.0, math.pi / 4.0, 0.0], requires_grad=True)
tg = chain.forward_kinematics(th)
m = tg.get_matrix()
pos = m[:, :3, 3]
pos.norm().backward()
# 现在 th.grad 已被填充

我们同样可以加载 SDF 和 MJCF 描述,并通过字典形式传递关节值(未指定的关节默认为 th=0),适用于非串联链。

import math
import torch
import pytorch_kinematics as pk

chain = pk.build_chain_from_sdf(open("simple_arm.sdf").read())
ret = chain.forward_kinematics({'arm_elbow_pan_joint': math.pi / 2.0, 'arm_wrist_lift_joint': -0.5})
# 请记住,我们需指定关节值并获取链接变换
tg = ret['arm_wrist_roll']

# 也可以采用并行方式完成此操作
N = 100
ret = chain.forward_kinematics({'arm_elbow_pan_joint': torch.rand(N, 1), 'arm_wrist_lift_joint': torch.rand(N, 1)})
# (N, 4, 4)变换对象
tg = ret['arm_wrist_roll']

# 从 MJCF 文件构建机器人
chain = pk.build_chain_from_mjcf(open("ant.xml").read())
print(chain)
print(chain.get_joint_parameter_names())
th = {'hip_1': 1.0, 'ankle_1': 1}
ret = chain.forward_kinematics(th)

chain = pk.build_chain_from_mjcf(open("humanoid.xml").read())
print(chain)
print(chain.get_joint_parameter_names())
th = {'left_knee': 0.0, 'right_knee': 0.0}
ret = chain.forward_kinematics(th)

torch.compile 支持

通过 torch.compile(fullgraph=True) 可对 FK 计算进行编译,从而大幅提升性能,尤其适用于需要多次调用 FK 的应用(例如逆向运动学、轨迹优化等)。

使用 forward_kinematics_tensor,这是一种针对编译友好的变体,可接受并返回原始张量,而非字典或 Transform3d 对象:

import torch
import pytorch_kinematics as pk

chain = pk.build_serial_chain_from_urdf(open("kuka_iiwa.urdf").read(), "lbr_iiwa_link_7")

# 编译 FK 内核(一次性成本)
compiled_fk = torch.compile(chain.forward_kinematics_tensor, fullgraph=True, dynamic=True)

# 输入:(B, n_joints) 张量
th = torch.randn(1000, 7)

# 输出:(num_frames, B, 4, 4) 张量,包含所有帧的齐次变换矩阵
all_transforms = compiled_fk(th)

简化后的中文内容:

通过帧索引进行查找:使用 chain.frame_to_idx 来查询某个帧名称对应的索引

ee_idx = chain.frame_to_idx['lbr_iiwa_link_7'] ee_transform = all_transforms[ee_idx] # (B, 4, 4)


在 CPU 上的典型加速比(Kuka IIWA 7 自由度机器人):

| 批次大小 | `forward_kinematics` | 编译后的 `forward_kinematics_tensor` | 加速比 |
|---:|---:|---:|---:|
| 1 | 0.21 ms | 0.04 ms | **4.7倍** |
| 64 | 0.26 ms | 0.08 ms | **3.5倍** |
| 1024 | 1.13 ms | 0.51 ms | **2.2倍** |

对于具有更多帧数的复杂机器人,加速比会更高(例如,在批次为 1 时,49 帧机器人可实现 6 倍以上的加速)。
借助 CUDA 图捕获的 GPU 加速,可在较大的批量规模下进一步提升性能。

标准的 `forward_kinematics` 方法(返回 `Dict[str, Transform3d]`)同样受益于经过重构的内部逻辑,无需任何代码变更。与 v0.7 相比,该方法在小批量规模下速度提升了 2–6 倍。

旋转转换函数(如 `matrix_to_quaternion`、`quaternion_to_axis_angle`、`axis_angle_to_quaternion` 等)也兼容 `torch.compile(fullgraph=True)`,可以单独编译,也可以作为更大编译图的一部分进行编译:

```python
import torch
import pytorch_kinematics as pk

# 编译一个旋转转换函数
compiled_m2q = torch.compile(pk.matrix_to_quaternion, fullgraph=True)
R = torch.randn(100, 3, 3)
q = compiled_m2q(R)

柱坐标计算

在运动学上下文中,柱坐标矩阵描述了末端执行器随关节值变化而发生的变化情况(其中 dx 表示扭转量,或堆叠的线速度和角速度): jacobian

对于 SerialChain,我们提供了一种可微且可并行化的方法,用于计算基于基座框架的柱坐标矩阵。

import math
import torch
import pytorch_kinematics as pk

# 可以通过选择末端执行器框架,将 Chain 转换为 SerialChain
chain = pk.build_chain_from_sdf(open("simple_arm.sdf").read())
# 打印链结构,查看可用的链接,用作末端执行器
# 请注意,任意链接都可以被选中;不必一定是没有子级的链接
chain = pk.SerialChain(chain, "arm_wrist_roll_frame")

chain = pk.build_serial_chain_from_urdf(open("kuka_iiwa.urdf").read(), "lbr_iiwa_link_7")
th = torch.tensor([0.0, -math.pi / 4.0, 0.0, math.pi / 2.0, 0.0, math.pi / 4.0, 0.0])
# (1,6,7) 张量,其中 7 代表机器人的自由度
J = chain.jacobian(th)

# 并行计算柱坐标矩阵,并在可用时利用 CUDA
N = 1000
d = "cuda" if torch.cuda.is_available() else "cpu"
dtype = torch.float64

chain = chain.to(dtype=dtype, device=d)
# 柱坐标计算是可微的
th = torch.rand(N, 7, dtype=dtype, device=d, requires_grad=True)
# (N,6,7)
J = chain.jacobian(th)

# 可以在距离末端执行器一定偏移的位置上获取柱坐标矩阵(位置指定在 EE 框架中)
# 默认情况下,位置位于 EE 框架的原点
loc = torch.rand(N, 3, dtype=dtype, device=d)
J = chain.jacobian(th, locations=loc)

与 FK 类似,柱坐标矩阵也有一个兼容 torch.compile 的变体——jacobian_tensor

chain = pk.build_serial_chain_from_urdf(open("kuka_iiwa.urdf").read(), "lbr_iiwa_link_7")

# 编译柱坐标矩阵核函数(一次性成本)
compiled_jac = torch.compile(chain.jacobian_tensor, fullgraph=True)

# 输入:(B, n_joints) 张量;输出:(B, 6, n_joints) 柱坐标矩阵
th = torch.randn(100, 7)
J = compiled_jac(th)

为了在紧密循环中获得最佳性能(例如在 IK 中),可向 torch.compile 传递 mode='max-autotune',以在编译成本较高的前提下,对核函数进行额外的优化调整。

在 CPU 上的典型加速比(Kuka IIWA 7 自由度机器人,对比旧版 v0.7 的 calc_jacobian):

批次大小 旧版 calc_jacobian 新版 jacobian(即时计算) 编译后的 jacobian_tensor 编译版与旧版的加速比
1 0.63 ms 0.12 ms 0.03 ms 21倍
10 0.79 ms 0.15 ms 0.05 ms 15倍
100 0.75 ms 0.30 ms 0.09 ms 8倍
1,000 1.67 ms 1.23 ms 0.53 ms 3倍
10,000 7.93 ms 7.01 ms 4.91 ms 1.6倍
100,000 59.42 ms 64.58 ms 46.46 ms 1.3倍

在小到中等批量规模下(典型的 IK 应用场景),由于向量化计算取代了每帧的 Python 循环,新版的即时计算实现速度提升了 2–5 倍。 torch.compile 在此基础上又带来了 2–4 倍的性能提升,且在各个批量规模下都优于旧版实现。

柱坐标矩阵可用于逆运动学计算。有关如何进行逆运动学计算的详细信息,请参阅 IK 综述。需要注意的是,逆运动学可以通过其他方式更好地完成(不过,通过柱坐标矩阵进行逆运动学计算,可以实现端到端的可微化方法)。

逆运动学(IK)

逆运动学可通过阻尼最小二乘法实现(通过迭代步骤结合柱坐标伪逆,以避免在奇异点附近出现振荡)。与其他逆运动学库相比,其典型优势如下:

  • 不依赖 ROS(许多逆运动学库需要将机器人模型发布至 ROS 参数服务器)
  • 支持目标姿态的批量处理,以及从不同起始配置中进行重试
  • 除了目标位置外,还支持目标方向

IK

有关使用方法,请参阅 tests/test_inverse_kinematics.py,但通常您需要以下内容:

full_urdf = os.path.join(search_path, urdf)
chain = pk.build_serial_chain_from_urdf(open(full_urdf).read(), "lbr_iiwa_link_7")

# 目标以 **机器人框架中的 Transform3d 姿态** 进行指定
# 因此,如果您已将目标以世界坐标系中的姿态进行指定,则还需要将机器人坐标系中的姿态纳入世界坐标系中
pos = torch.tensor([0.0, 0.0, 0.0], device=device)
rot = torch.tensor([0.0, 0.0, 0.0], device=device)
rob_tf = pk.Transform3d(pos=pos, rot=rot, device=device)

# 将目标以世界坐标系中的 Transform3d 姿态进行指定
goal_in_world_frame_tf = ...
# 转换为机器人坐标系(如果目标已以机器人坐标系中指定,或若世界坐标系与机器人坐标系一致,则跳过此步骤)
goal_in_rob_frame_tf = rob_tf.inverse().compose(goal_tf)

# 获取机器人关节限位
lim = torch.tensor(chain.get_joint_limits(), device=device)

# 创建 IK 对象
# 请参阅构造函数,了解更多选项及其说明,例如收敛容差等
ik = pk.PseudoInverseIK(chain, max_iterations=30, num_retries=10,
                        joint_limits=lim.T,
                        early_stopping_any_converged=True,
                        early_stopping_no_improvement="all",
                        debug=False,
                        lr=0.2)
# 解决 IK
sol = ik.solve(goal_in_rob_frame_tf)
# 目标数量 × 重试次数 × 关节角度张量;若未收敛,仅显示迄今为止找到的最佳解
print(sol.solutions)
# 目标数量 × 重试次数,可检查每次运行的收敛情况
print(sol.converged)
# 目标数量 × 重试次数,可直接查看误差
print(sol.err_pos)
print(sol.err_rot)

编译 IK

对于那些会反复求解 IK 的工作负载(例如在规划循环中),请在 IK 循环内部,通过 use_compile=True 来编译 FK、雅可比矩阵以及阻尼最小二乘核函数。这样可以利用 PyTorch 的编译功能实现高效运行。而外层的 IK 循环及其基于数据的收敛性检查则仍保持在 eager 模式下。

ik = pk.PseudoInverseIK(chain, max_iterations=30, num_retries=10,
                         joint_limits=lim.T,
                         early_stopping_any_converged=True,
                         early_stopping_no_improvement="all",
                         lr=0.2,
                         use_compile=True)  # 编译内部核函数

# 第一次调用 solve() 会花费一次编译成本;后续调用则会更快
sol = ik.solve(goal_in_rob_frame_tf)

在 CPU 上的典型加速效果(Kuka IIWA 7 自由度,30 次迭代):

重试次数 Eager (v0.7) Eager (新版本) 编译后 编译与 v0.7 相比的加速比
10 25.6 ms 23.3 ms 11.8 ms 2.2x
50 31.5 ms 29.0 ms 15.8 ms 2.0x

注意:use_compile=True 需要 PyTorch 2.0+。由于外层循环中存在依赖于数据的控制流,您无法直接使用 torch.compile 来包装 ik.solve()——请改用此标志。

SDF 查询

最新详情请参见 pytorch-volumetric,部分说明已粘贴在此处:

对于许多应用,例如碰撞检测,掌握多连杆机器人在特定配置下的 SDF 是非常有用的。 首先,我们通过 PyTorch 运动学 创建机器人模型,并从 URDF、SDF、MJCF 等格式中加载模型。 例如,我们将使用 pybullet 数据中的 KUKA 7 自由度机械臂模型。

import os
import torch
import pybullet_data
import pytorch_kinematics as pk
import pytorch_volumetric as pv

urdf = "kuka_iiwa/model.urdf"
search_path = pybullet_data.getDataPath()
full_urdf = os.path.join(search_path, urdf)
chain = pk.build_serial_chain_from_urdf(open(full_urdf).read(), "lbr_iiwa_link_7")
d = "cuda" if torch.cuda.is_available() else "cpu"

chain = chain.to(device=d)
# 连杆网格文件的路径是根据其在 URDF 中的相对路径来指定的。为了正确加载这些文件,我们需要为它们提供路径前缀。
s = pv.RobotSDF(chain, path_prefix=os.path.join(search_path, "kuka_iiwa"))

默认情况下,每个连杆都会拥有一个 MeshSDF。若希望使用 CachedSDF 以提升查询速度,则可以这样做:

s = pv.RobotSDF(chain, path_prefix=os.path.join(search_path, "kuka_iiwa"),
                link_sdf_cls=pv.cache_link_sdf_factory(resolution=0.02, padding=1.0, device=d))

当可视化 y=0.02 的 SDF 切片时:

sdf 切片

其中,表面点对应如下:

线框图 实体图

对这一 SDF 的查询会根据关节配置进行调整(默认情况下,所有关节配置均为零)。 查询会针对不同配置和查询点进行批量处理。例如,我们有一组需要查询的关节配置:

th = torch.tensor([0.0, -math.pi / 4.0, 0.0, math.pi / 2.0, 0.0, math.pi / 4.0, 0.0], device=d)
N = 200
th_perturbation = torch.randn(N - 1, 7, device=d) * 0.1
# N x 7 个关节值
th = torch.cat((th.view(1, -1), th_perturbation + th))

此外,我们还有一组需要查询的点(每组配置对应的点相同):

y = 0.02
query_range = np.array([
    [-1, 0.5],
    [y, y],
    [-0.2, 0.8],
])
# M x 3 个点
coords, pts = pv.get_coordinates_and_points_in_grid(0.01, query_range, device=s.device)

我们设置了关节配置和查询的批量参数:

s.set_joint_configuration(th)
# N x M 个 SDF 值
# N x M x 3 个 SDF 偏导数
sdf_val, sdf_grad = s(pts)

资助来源

  • pytorch_kinematics/transformspytorch3d 中提取而来,并进行了少量扩展。 之所以选择不将 pytorch3d 作为依赖项,是因为它安装起来较为困难,且大部分代码与我们的需求并无直接关联。 一个重要的区别在于,我们在机器人学中沿用左乘变换的方式(T * pt),而非右乘变换。
  • pytorch_kinematics/urdf_parser_pypytorch_kinematics/mjcf_parser 分别源自 kinpy,并结合了 FK 逻辑。该仓库将这些逻辑移植到 PyTorch 中,实现了并行化,并提供了一些扩展功能。

版本历史

v0.9.12026/03/15
v0.9.02026/03/11
v0.8.02026/03/04
v0.7.62025/10/16
v0.7.42024/08/29
v0.7.32024/08/22
v0.7.12024/07/08
v0.6.12024/02/16
v0.5.42023/03/06

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

140.4k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|昨天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架