bittensor

GitHub
1.4k 458 较难 1 次阅读 今天MIT开发框架图像Agent
AI 解读 由 AI 自动生成,仅供参考

Bittensor 是一个旨在构建互联网规模神经网络的开源平台,它通过区块链机制将全球分散的计算资源连接起来,共同生产和竞争高质量的数字商品,如机器智能、数据存储、算力乃至蛋白质折叠预测等。

传统人工智能开发往往受限于高昂的集中式算力成本和封闭的数据生态。Bittensor 创造性地解决了这一痛点,它并非单一的区块链或 AI 平台,而是由一条核心链(Subtensor)和众多独立子网(Subnets)组成的混合架构。每个子网专注于特定领域的数字商品生产,通过“验证者”与“矿工”的链下竞争机制,确保只有最优的贡献者能获得 TAO 代币奖励,从而激励整个网络持续进化。

这一项目特别适合开发者、AI 研究人员以及希望去中心化部署模型的技术团队。借助 Bittensor SDK,用户可以轻松编写子网激励逻辑、部署矿工节点或构建验证器,快速融入生态系统。其独特的技术亮点在于“尤玛共识”(Yuma Consensus)机制,它巧妙地将区块链的安全性与机器学习的动态评估相结合,实现了无需信任中介的规模化智能协作。无论你是想贡献算力获取收益,还是寻求一个开放、公平的 AI 训练环境,Bittensor 都提供了一个充满活力的基础设施。

使用场景

一家初创 AI 公司希望构建一个去中心化的文本生成网络,通过聚合全球开发者的模型能力来提供低成本、高可用的 API 服务。

没有 bittensor 时

  • 信任与验证难题:难以核实分散在全球的独立模型提供者是否真实运行了高质量模型,还是仅在返回随机结果以骗取费用。
  • 激励分配复杂:需要自行设计复杂的评分算法和支付系统来公平分配收益,开发成本高且容易因机制不公导致参与者流失。
  • 单点故障风险:依赖少数几个中心化服务器或云厂商,一旦节点宕机或被攻击,整个服务将立即中断,缺乏弹性。
  • 冷启动困难:在没有初始流量和资金的情况下,很难吸引足够的优质模型开发者加入网络,导致服务能力不足。

使用 bittensor 后

  • 自动共识验证:利用 Yuma 共识机制,子网验证者自动对矿工输出的智能商品进行质量评分,无需人工干预即可识别并奖励最优模型。
  • 原生代币激励:直接基于 TAO 代币构建激励机制,表现最好的模型提供者自动获得链上奖励,大幅降低了设计和维护经济系统的门槛。
  • 去中心化高可用:模型分布在数千个独立的矿工节点上,单个节点失效不影响整体网络,实现了互联网规模的容错能力。
  • 开放竞争生态:任何开发者均可作为矿工接入特定子网参与竞争,凭借模型质量即可快速获取收益,迅速解决了网络冷启动问题。

bittensor 通过将模型质量评估与代币激励自动化结合,让开发者能专注于优化算法,而无需操心基础设施的信任与分发难题。

运行环境要求

操作系统
  • Linux
  • macOS
GPU

未说明

内存

未说明

依赖
notesWindows 用户必须安装 WSL 2 并选择 Ubuntu 发行版才能运行;虽然钱包操作可在 Windows (WSL2) 上进行,但不推荐也不支持在 Windows 机器上进行挖矿和验证操作;macOS 用户强烈建议使用 Homebrew 安装 Python 和 OpenSSL,因为系统自带的 LibreSSL 存在兼容性问题;若遇到 SSL 证书验证失败错误,可运行 'python -m bittensor certifi' 修复。
python3.9, 3.10 (cubit 支持); 其他安装方式未明确限制,但示例显示支持 3.11
bittensor
torch (可选)
cubit (可选,仅限 Python 3.9/3.10)
OpenSSL (macOS 需通过 Homebrew 安装)
LibreSSL (macOS 自带,不推荐)
bittensor hero image

快速开始

Bittensor SDK

Discord聊天 CodeQL PyPI版本 Codecov 许可证:MIT


互联网规模的神经网络

Discord网络研究文档


Bittensor概述

欢迎!Bittensor是一个开源平台,您可以在上面生产具有竞争力的数字商品。这些数字商品可以是机器智能、存储空间、计算能力、蛋白质折叠、金融市场预测等等。当您生产出最佳的数字商品时,您将获得TAO奖励。

Bittensor SDK

Opentensor基金会(OTF)提供了所有开源工具,包括这个Bittensor SDK、代码库和文档,以及循序渐进的教程和指南,以帮助您参与Bittensor生态系统。

这个Bittensor SDK包含可直接使用的Python包,用于与Bittensor生态系统交互、编写子网激励机制、子网矿工、子网验证者,以及查询subtensor(Bittensor网络的区块链部分)。


Bittensor是区块链还是AI平台?

在Bittensor中,有一个区块链,以及许多连接到这个区块链的平台。我们称这些平台为子网,而这个区块链则称为subtensor。因此,子网可以是与AI相关的,也可以是其他领域。Bittensor网络拥有多个不同的子网。所有这些子网都与subtensor区块链进行交互。如果您在想:“那么,子网并不是区块链的一部分,只是与它交互吗?”答案是:“是的,正是如此。”

子网

每一种数字商品都在一个独立的子网上生产。应用程序构建在这些特定的子网上。这些应用程序的最终用户将受益于这些应用。

子网验证者和子网矿工

子网存在于区块链之外,但与之相连,它们是链下竞赛,只有最优秀的生产者才能获得奖励。一个子网由链下的子网验证者组成,他们发起针对特定数字商品的竞赛;以及链下的子网矿工,他们通过生产最高质量的数字商品来参与竞争并作出响应。

Yuma共识

得分会被分配给表现最佳的子网矿工和子网验证者。链上的Yuma共识会决定这些顶尖表现者的TAO奖励。Bittensor区块链,即subtensor,运行在去中心化的验证节点上,就像任何区块链一样。

此SDK仓库仅适用于Bittensor平台 此Bittensor SDK代码库仅适用于Bittensor平台,旨在帮助开发者创建子网并在Bittensor上构建工具。有关子网和应用程序的信息,请参考由子网所有者维护的子网专属网站。

发布说明

请参阅Bittensor SDK发布说明


安装Bittensor SDK

在开始开发之前,您必须先安装Bittensor SDK,然后创建Bittensor钱包。

升级

如果您已经安装了Bittensor SDK,请确保升级到最新版本。运行以下命令:

python3 -m pip install --upgrade bittensor

在macOS和Linux上安装

macOS用户注意事项

macOS预装的CPython安装是使用LibreSSL而非OpenSSL编译的。LibreSSL存在诸多问题,因此不被Bittensor所使用的库完全支持。所以,我们强烈建议使用Mac的用户首先通过Homebrew安装Python。此外,Rust FFI绑定[如果从预编译的wheel包安装(默认)]需要Homebrew安装的OpenSSL包。如果您选择使用macOS自带的Python版本,可能会出现无法正常工作的情况。

安装方法

您可以通过以下任一方式在本地机器上安装Bittensor SDK。请务必在安装后验证您的安装

使用Bash命令安装

这是最简单的方法。对于初学者来说非常推荐,因为它会在您的机器上尚未安装Python等依赖项时自动为您安装。将以下bash命令复制并粘贴到您的终端中:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/opentensor/bittensor/master/scripts/install.sh)"

适用于Ubuntu-Linux用户 如果您使用的是Ubuntu-Linux,脚本会提示您输入sudo权限以安装所有必需的apt-get软件包。

使用pip3 install安装

python3 -m venv bt_venv
source bt_venv/bin/activate
pip install bittensor

从源代码安装

  1. 创建并激活虚拟环境

  2. 克隆 Bittensor SDK 仓库

git clone https://github.com/opentensor/bittensor.git
  1. 安装

您可以使用以下任一选项进行安装:

  • 安装 SDK:运行以下命令以在上述虚拟环境中安装 Bittensor SDK。这也将安装 btcli

    pip install bittensor
    
  • 安装带 torch 的 SDK:安装带有 torch 的 Bittensor SDK。

     pip install bittensor[torch]
    

    在某些环境中,上述命令可能会失败,此时请使用带引号的命令,如下所示:

      pip install "bittensor[torch]"
    
  • 安装带 cubit 的 SDK:安装带有 cubit 的 Bittensor SDK。

    1. 首先安装 cubit。请参阅 安装 部分。仅支持 Python 3.9 和 3.10 版本
    2. 然后使用 pip install bittensor 安装 SDK。

故障排除

SSL: CERTIFICATE_VERIFY_FAILED

如果您遇到 [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate 错误,请使用命令 python -m bittensor certifi 来更新本地 SSL 证书。


在 Windows 上安装

要在 Windows 上安装和运行 Bittensor SDK,您必须在 Windows 上安装 WSL 2(适用于 Linux 的 Windows 子系统),并选择 Ubuntu Linux 发行版

完成上述安装后,请按照上面 在 macOS 和 Linux 上安装 中描述的相同步骤进行安装。

警告Windows 上的支持有限 虽然可以使用 WSL 2 在 Windows 机器上执行诸如委托、转账、注册、质押等钱包交易,但挖矿和验证操作不建议在 Windows 机器上进行,并且不受支持。


验证安装

您可以通过以下任一方式验证安装:

使用 btsdk 版本验证

python3 -m bittensor

上述命令将显示您刚刚安装的 btsdk 版本。

使用 Python 解释器验证

  1. 在终端中启动 Python 解释器。

    python3
    
  2. 在 Python 解释器中输入以下两行:

    import bittensor as bt
    print( bt.__version__ )
    

    Python 解释器的输出将如下所示:

    Python 3.11.6 (main, Oct  2 2023, 13:45:54) [Clang 15.0.0 (clang-1500.0.40.1)] on darwin
    Type "help", "copyright", "credits" or "license" for more information.
    >>> import bittensor as bt
    >>> print( bt.__version__ )
    <版本号>
    

    您将看到您安装的版本号代替 <版本号>

通过列出轴突信息验证

您还可以通过列出神经元的轴突信息来验证 Bittensor SDK 的安装。在 Python 解释器中输入以下内容:

import bittensor
metagraph = bittensor.Metagraph(1)
metagraph.axons[:10]

Python 解释器的输出将如下所示:

[AxonInfo( /ipv4/3.139.80.241:11055, 5GqDsK6SAPyQtG243hbaKTsoeumjQQLhUu8GyrXikPTmxjn7, 5D7u5BTqF3j1XHnizp9oR67GFRr8fBEFhbdnuVQEx91vpfB5, 600 ), AxonInfo( /ipv4/8.222.132.190:5108, 5CwqDkDt1uk2Bngvf8avrapUshGmiUvYZjYa7bfA9Gv9kn1i, 5HQ9eTDorvovKTxBc9RUD22FZHZzpy1KRfaxCnRsT9QhuvR6, 600 ), AxonInfo( /ipv4/34.90.71.181:8091, 5HEo565WAy4Dbq3Sv271SAi7syBSofyfhhwRNjFNSM2gP9M2, 5ChuGqW2cxc5AZJ29z6vyTkTncg75L9ovfp8QN8eB8niSD75, 601 ), AxonInfo( /ipv4/64.247.206.79:8091, 5HK5tp6t2S59DywmHRWPBVJeJ86T61KjurYqeooqj8sREpeN, 5E7W9QXNoW7se7B11vWRMKRCSWkkAu9EYotG5Ci2f9cqV8jn, 601 ), AxonInfo( /ipv4/51.91.30.166:40203, 5EXYcaCdnvnMZbozeknFWbj6aKXojfBi9jUpJYHea68j4q1a, 5CsxoeDvWsQFZJnDCyzxaNKgA8pBJGUJyE1DThH8xU25qUMg, 601 ), AxonInfo( /ipv4/149.137.225.62:8091, 5F4tQyWrhfGVcNhoqeiNsR6KjD4wMZ2kfhLj4oHYuyHbZAc3, 5Ccmf1dJKzGtXX7h17eN72MVMRsFwvYjPVmkXPUaapczECf6, 600 ), AxonInfo( /ipv4/38.147.83.11:8091, 5Hddm3iBFD2GLT5ik7LZnT3XJUnRnN8PoeCFgGQgawUVKNm8, 5DCQw11aUW7bozAKkB8tB5bHqAjiu4F6mVLZBdgJnk8dzUoV, 610 ), AxonInfo( /ipv4/38.147.83.30:41422, 5HNQURvmjjYhTSksi8Wfsw676b4owGwfLR2BFAQzG7H3HhYf, 5EZUTdAbXyLmrs3oiPvfCM19nG6oRs4X7zpgxG5oL1iK4MAh, 610 ), AxonInfo( /ipv4/54.227.25.215:10022, 5DxrZuW8kmkZPKGKp1RBVovaP5zHtPLDHYc5Yu82Z1fWqK5u, 5FhXUSmSZ2ec7ozRSA8Bg3ywmGwrjoLLzsXjNcwmZme2GcSC, 601 ), AxonInfo( /ipv4/52.8.243.76:40033, 5EnZN591jjsKKbt3yBtfGKWHxhxRH9cJonqTKRT5yTRUyNon, 5ChzhHyGmWwEdHjuvAxoUifHEZ6xpUjR67fDd4a42UrPysyB, 601 )]
>>>

测试

您可以在 IDE 的交互模式下或通过终端运行集成测试和单元测试,命令如下:

pytest tests/integration_tests
pytest tests/unit_tests

E2E 测试有两种启动方式(旧版运行器):

  • 使用基于 Substrait 代码的编译器;
  • 使用已构建好的 Docker 镜像(Docker 运行器)。

本地环境变量:

  • LOCALNET_SH_PATH - 克隆的 Subtensor 仓库中 localnet.sh 脚本的路径(用于旧版运行器);
  • BUILD_BINARY - (=0=1)- 与 LOCALNET_SH_PATH 一起使用,决定是否在启动 Localnet 节点之前进行构建(用于旧版运行器);
  • USE_DOCKER - (=0=1)- 如果您希望使用特定的运行器来执行 E2E 测试,则设置此变量(用于 Docker 运行器);
  • FAST_BLOCKS - (=0=1)- 允许以快速区块模式或非快速区块模式运行 Localnet 节点(适用于两种类型的运行器)。
  • SKIP_PULL - 当您使用 Docker 镜像时,如果出于某种原因需要暂时禁用从仓库更新镜像的逻辑,可以使用此变量。

使用 docker 运行器(目前默认):

  • 使用 Docker 镜像的 E2E 测试无需预先编译;
  • 执行速度非常快;
  • 需要在操作系统中安装 Docker。

使用方法:

pytest tests/e2e_tests

使用 legacy 运行器

  • 将开始编译您 Subtensor 仓库中的代码;
  • 您必须在本地环境中提供 LOCALNET_SH_PATH 变量,并指定克隆的仓库中 /scripts/localnet.sh 文件的路径;
  • 您可以使用 BUILD_BINARY=0 变量,这将跳过每次测试的复制步骤。
  • 您可以使用 USE_DOCKER=0 变量,即使您的操作系统中已安装 Docker,也会使用“旧版运行器”来运行测试。

使用方法:

常规 E2E 测试运行:

LOCALNET_SH_PATH=/path/to/your/localnet.sh pytest tests/e2e_tests

如果您希望跳过每次 E2E 测试的重新构建过程:

BUILD_BINARY=0 LOCALNET_SH_PATH=/path/to/your/localnet.sh pytest tests/e2e_tests

如果您希望在已安装 Docker 的操作系统中仍使用旧版运行器:

USE_DOCKER=0 BUILD_BINARY=0 LOCALNET_SH_PATH=/path/to/your/localnet.sh pytest tests/e2e_tests

发布指南

发布经理的说明:请参阅 RELEASE_GUIDELINES.md 文档。

贡献

准备好贡献了吗?在提交拉取请求之前,请阅读 贡献指南

许可证

MIT 许可证(MIT) 版权所有 © 2025 OpenTensor 基金会
版权所有 © 2025 Yuma Rao

特此授予任何人免费获取本软件及其相关文档文件(以下简称“软件”)的副本的权利,允许其在不受限制的情况下处理该软件,包括但不限于使用、复制、修改、合并、发布、分发、再许可和/或销售该软件的副本,并允许向任何获得该软件的人提供服务,但须遵守以下条件:

上述版权声明和本许可声明应包含在该软件的所有副本或实质性部分中。

本软件按“原样”提供,不提供任何形式的明示或暗示担保,包括但不限于适销性、特定用途适用性和非侵权性。在任何情况下,作者或版权所有者均不对因本软件或其使用而引起的任何索赔、损害或其他责任负责,无论这些责任是基于合同、侵权行为或其他原因产生的。

致谢

learning-at-home/hivemind

版本历史

v10.2.02026/03/20
10.2.0rc12026/03/04
v10.1.02026/01/29
v10.0.12025/12/22
v10.0.02025/12/10
v10.0.0rc52025/12/08
v10.0.0rc42025/11/26
v10.0.0rc32025/11/05
v9.12.22025/10/30
v9.12.12025/10/20
v9.12.02025/10/08
v9.11.12025/09/26
v9.11.02025/09/25
v9.10.12025/09/05
v9.10.02025/08/28
v9.9.02025/08/12
v9.8.32025/07/18
v9.8.22025/07/10
v9.8.12025/07/09
v9.8.02025/07/08

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

156k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|4天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|5天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架