AntSK
AntSK 是一款基于 .NET 9 和 Blazor 构建的企业级 AI 知识库与智能体平台。它旨在解决企业在私有化部署、数据隐私保护及复杂业务集成方面的痛点,让用户能够在完全离线的环境下安全地运行本地大模型,同时支持联网搜索以获取实时信息。
该平台非常适合 .NET 开发者、企业技术团队以及需要构建私有 AI 应用的研究人员使用。通过集成 Semantic Kernel 和 Kernel Memory,AntSK 不仅具备强大的语义理解和长期记忆能力,还能轻松处理 Word、PDF 等多种文档的导入与问答。其独特的技术亮点在于高度的开放性与兼容性:支持 Ollama、LlamaFactory 及国产信创模型,内置 StableDiffusion 文生图功能,并提供灵活的 .NET DLL 与 API 双插件系统,方便用户扩展自定义业务逻辑。此外,项目还原生支持 Aspire 监控,为应用的稳定运行提供保障。无论是搭建内部知识助手,还是开发复杂的 AI 代理应用,AntSK 都提供了一套完整且高效的解决方案。
使用场景
某大型制造企业的内部技术团队需要构建一个能离线运行、整合海量设备维修手册与故障案例的智能问答系统,以支持车间工程师在无外网环境下快速排查问题。
没有 AntSK 时
- 数据孤岛严重:维修知识分散在 PDF、Word 和 Excel 等多种格式文件中,工程师需手动翻阅查找,平均故障定位耗时超过 30 分钟。
- 无法离线部署:现有云端 AI 方案依赖互联网连接,而车间网络受限,导致智能助手在关键场景下完全不可用。
- 开发维护成本高:缺乏统一的编排框架,集成本地大模型(如 Llama 3)与向量检索功能需从零开发,且难以适配国产信创环境。
- 记忆能力缺失:系统无法记录历史交互与新增案例,每次问答都是“一次性”的,无法随着时间积累变得更聪明。
使用 AntSK 后
- 知识库一键聚合:利用 AntSK 的 Kernel Memory 组件,团队直接导入各类文档,系统自动完成分块、向量化(支持本地 bge 模型)与存储,查询响应缩短至秒级。
- 纯离线稳定运行:基于 .NET 9 与 Ollama/Llama.cpp 的深度集成,AntSK 成功部署在车间内网服务器,无需外网即可调用本地大模型进行精准推理。
- 低代码扩展生态:通过其开放的 .NET DLL 插件系统与 API 接口,团队快速集成了内部工单系统,并轻松适配国产数据库与芯片架构,大幅降低开发门槛。
- 持续自我进化:借助长期记忆功能,AntSK 自动将工程师确认的有效解决方案存入知识库,使系统越用越懂企业业务,实现个性化推荐。
AntSK 让企业在安全可控的离线环境中,低成本构建出具备“长期记忆”与“自我成长”能力的专属工业 AI 专家。
运行环境要求
- Windows
- Linux
- macOS
- 非必需
- 运行本地文生图 (Stable Diffusion) 或本地大模型时推荐 NVIDIA GPU (支持 CUDA),也可使用 CPU、ROCm 后端
- 具体显存需求取决于所选模型大小
未说明 (运行本地模型时建议较高内存,配置文件提示本地模型导入线程数设为 1 以防内存溢出)

快速开始
中文|English
AntSK
使用.Net9 + Blazor+SemanticKernel 打造的AI知识库/智能体
AntSK 是一个基于 .NET 9 和 Blazor 技术栈构建的企业级AI知识库和智能体平台,集成了 Semantic Kernel 和 Kernel Memory,提供完整的AI应用开发解决方案。
📋 目录
- ⭐ 核心功能
- 🏗️ 技术架构
- 🔄 系统工作流程
- 🛠️ 技术栈
- 📁 项目结构
- 🚀 特色功能
- ⛪ 应用场景
- ✏️ 功能示例
- ❓ 如何开始
- 🔧 开发指南
- 📊 性能优化建议
- 💕 贡献者
- 🚨 使用协议
- ☎️ 联系我
⭐核心功能
语义内核 (Semantic Kernel):采用领先的自然语言处理技术,准确理解、处理和响应复杂的语义查询,为用户提供精确的信息检索和推荐服务。
内存内核 (Kernel Memory):具备持续学习和存储知识点的能力,AntSK 拥有长期记忆功能,累积经验,提供更个性化的交互体验。
知识库:通过文档(Word、PDF、Excel、Txt、Markdown、Json、PPT)等形式导入知识库,可以进行知识库问答,支持本地bge-embedding 向量模型 ,以及bge-rerank 重排模型。
文生图:集成StableDiffusion 本地模型,可以进行文生图。
GPTs 生成:此平台支持创建个性化的GPT模型,尝试构建您自己的GPT模型。
API接口发布:将内部功能以API的形式对外提供,便于开发者将AntSK 集成进其他应用,增强应用智慧。
API插件系统:开放式API插件系统,允许第三方开发者或服务商轻松将其服务集成到AntSK,不断增强应用功能。
.Net插件系统:开放式dll插件系统,允许第三方开发者或服务商轻松将其业务功能通过标准格式的代码生成dll后集成到AntSK,不断增强应用功能。
联网搜索:AntSK,实时获取最新信息,确保用户接受到的资料总是最及时、最相关的。
模型管理:适配和管理集成不同厂商的不同模型。并且支持llama.cpp所支持的gguf类型,以及llamafactory 和 ollama 所支持的模型离线运行
国产信创:AntSK支持国产模型,和国产数据库,可以在信创条件下运行
模型微调:规划中,基于llamafactory进行模型微调
🏗️ 技术架构
graph TB
subgraph "用户界面层"
UI[Blazor前端界面]
API[Web API接口]
end
subgraph "应用服务层"
Chat[聊天服务]
KMS[知识库服务]
Plugin[插件服务]
Model[模型管理服务]
Auth[认证服务]
end
subgraph "领域核心层"
SK[Semantic Kernel]
KM[Kernel Memory]
Embedding[向量嵌入]
Function[函数调用]
end
subgraph "基础设施层"
DB[(数据库)]
Vector[(向量数据库)]
File[文件存储]
OCR[OCR服务]
SD[StableDiffusion]
end
subgraph "AI模型层"
OpenAI[OpenAI]
Local[本地模型]
LlamaFactory[LlamaFactory]
Ollama[Ollama]
Spark[讯飞星火]
end
subgraph "插件系统"
NetPlugin[.NET插件]
APIPlugin[API插件]
FuncPlugin[函数插件]
end
UI --> Chat
UI --> KMS
UI --> Plugin
UI --> Model
API --> Auth
Chat --> SK
KMS --> KM
Plugin --> Function
SK --> OpenAI
SK --> Local
SK --> LlamaFactory
SK --> Ollama
SK --> Spark
KM --> Vector
KM --> Embedding
Chat --> NetPlugin
Chat --> APIPlugin
Chat --> FuncPlugin
KMS --> DB
KMS --> File
Model --> DB
OCR --> SD
style SK fill:#e1f5fe
style KM fill:#e8f5e8
style UI fill:#fff3e0
style API fill:#fff3e0
🔄 系统工作流程
graph TD
A[用户输入] --> B{输入类型}
B -->|文档上传| C[文档解析]
B -->|聊天对话| D[对话处理]
B -->|API调用| E[API处理]
C --> F[文档分块]
F --> G[向量化处理]
G --> H[存储到知识库]
D --> I{是否需要知识库}
I -->|是| J[知识库检索]
I -->|否| K[直接调用LLM]
J --> L[向量搜索]
L --> M[相关性排序]
M --> N[构建Prompt]
K --> O[LLM推理]
N --> O
O --> P{是否需要插件}
P -->|是| Q[插件调用]
P -->|否| R[生成回复]
Q --> S[执行函数]
S --> T[合并结果]
T --> R
E --> U[权限验证]
U --> V[业务逻辑]
V --> W[返回结果]
R --> X[用户界面展示]
W --> X
style A fill:#e1f5fe
style O fill:#e8f5e8
style H fill:#fff3e0
style X fill:#f3e5f5
🛠️ 技术栈
后端技术
- .NET 9: 最新的 .NET 框架,提供高性能和现代化开发体验
- Blazor Server: 基于服务器端渲染的现代Web UI框架
- Semantic Kernel: 微软开源的AI编排框架
- Kernel Memory: 知识库和向量存储管理
- SqlSugar: 高性能 ORM 框架,支持多种数据库
- AutoMapper: 对象映射框架
AI & ML 技术
- OpenAI GPT: 支持 GPT-3.5/GPT-4 系列模型
- Azure OpenAI: 企业级 OpenAI 服务
- 讯飞星火: 科大讯飞大语言模型
- 阿里云积: 阿里云大语言模型
- LlamaFactory: 本地模型微调和推理
- Ollama: 本地模型运行环境
- Stable Diffusion: 文生图模型
- BGE Embedding: 中文向量嵌入模型
- BGE Rerank: 重排序模型
存储技术
- PostgreSQL: 主数据库存储
- SQLite: 轻量级数据库支持
- Qdrant: 向量数据库
- Redis: 缓存和向量存储
- Disk/Memory: 本地存储方案
前端技术
- Ant Design Blazor: 企业级UI组件库
- Chart.js: 数据可视化
- Prism.js: 代码高亮
📁 项目结构
AntSK/
├── src/
│ ├── AntSK/ # 主应用(Blazor Server)
│ │ ├── Components/ # 自定义组件
│ │ ├── Controllers/ # Web API控制器
│ │ ├── Pages/ # Blazor页面
│ │ │ ├── ChatPage/ # 聊天相关页面
│ │ │ ├── KmsPage/ # 知识库管理页面
│ │ │ ├── Plugin/ # 插件管理页面
│ │ │ ├── Setting/ # 系统设置页面
│ │ │ └── User/ # 用户管理页面
│ │ ├── Services/ # 应用服务
│ │ └── wwwroot/ # 静态资源
│ ├── AntSK.Domain/ # 领域层
│ │ ├── Domain/ # 领域模型和接口
│ │ ├── Repositories/ # 数据仓储
│ │ ├── Services/ # 领域服务
│ │ └── Common/ # 通用组件
│ ├── AntSK.LLM/ # LLM集成层
│ │ ├── SparkDesk/ # 讯飞星火集成
│ │ ├── StableDiffusion/ # SD文生图集成
│ │ └── Mock/ # 模拟服务
│ ├── AntSK.LLamaFactory/ # LlamaFactory集成
│ ├── AntSK.OCR/ # OCR服务
│ ├── AntSK.BackgroundTask/ # 后台任务处理
│ └── AntSK.ServiceDefaults/ # 服务默认配置
├── docs/ # 文档
└── docker-compose.yml # Docker部署文件
核心模块说明
| 模块 | 功能描述 |
|---|---|
| AntSK | 主应用程序,包含Blazor UI和Web API |
| AntSK.Domain | 领域层,包含业务逻辑、数据模型和仓储接口 |
| AntSK.LLM | 大语言模型集成层,支持多种AI模型 |
| AntSK.LLamaFactory | LlamaFactory集成,支持本地模型微调和推理 |
| AntSK.OCR | 光学字符识别服务 |
| AntSK.BackgroundTask | 后台任务处理,如知识库导入 |
⛪应用场景
AntSK 适用于多种业务场景,例如:
- 企业级知识管理系统
- 自动客服与聊天机器人
- 企业级搜索引擎
- 个性化推荐系统
- 智能辅助写作
- 教育与在线学习平台
- 其他有意思的AI App
✏️功能示例
在线演示
和
默认账号:test
默认密码:test
由于云服务器配置较低,无法运行本地模型,所以把系统设置权限关闭了,大家看看界面即可,要使用本地模型,请下载自行使用
请勿在演示站点上传敏感信息
其他功能示例
🚀 特色功能
🤖 多模型支持
- 云端模型: OpenAI GPT、Azure OpenAI、讯飞星火、阿里云积灵等
- 本地模型: 支持 Ollama 和Llamafactory运行离线模型
- LlamaFactory: 支持主流开源模型的微调和推理
- Ollama: 本地模型管理和运行
- 一键切换: 支持在不同模型间无缝切换
📚 智能知识库
- 多格式支持: Word、PDF、Excel、TXT、Markdown、JSON、PPT
- 向量化存储: BGE-embedding 中文优化向量模型
- 智能检索: BGE-rerank 重排序提升检索精度
- 实时同步: 知识库内容实时更新和同步
🔌 开放插件系统
- .NET 插件: 支持 DLL 格式的原生插件
- API 插件: 通过 HTTP API 集成外部服务
- 函数插件: 基于 Semantic Kernel 的函数调用
- 热插拔: 插件动态加载,无需重启系统
🎨 文生图能力
- Stable Diffusion: 集成本地 SD 模型
- 多种后端: 支持 CPU、CUDA、ROCm 等不同计算后端
- 参数调节: 丰富的生成参数配置
- 批量生成: 支持批量图片生成
🔍 OCR 文字识别
- 图片转文字: 支持多种图片格式的文字提取
- 多语言支持: 中英文等多语言识别
- 高精度: 优化的 OCR 引擎,识别准确率高
❓如何开始?
🛠️ 环境要求
- .NET 9 SDK: 下载地址
- Docker (可选): 用于容器化部署
- Python 3.8+ (可选): 使用 LlamaFactory 时需要
💾 数据库支持
AntSK 支持多种数据库,通过 SqlSugar ORM 实现:
- PostgreSQL (推荐): 同时支持关系型数据和向量存储
- SQLite: 轻量级,适合开发和测试
- MySQL: 广泛使用的开源数据库
- SQL Server: 微软企业级数据库
- Oracle: 企业级数据库解决方案
🔧 向量数据库选择
- PostgreSQL: 使用 pgvector 扩展
- Qdrant: 专业向量数据库
- Redis: 内存向量存储
- Disk: 本地文件存储
- Memory: 内存存储 (不持久化)
模型默认支持openai、azure openai、讯飞星火、阿里云积、 和llama支持的gguf本地模型 以及llamafactory的本地模型,如果需要使用其他模型,可以使用one-api进行集成。
配置文件中的Login配置是默认的登录账号和密码
需要配置如下的配置文件
为了方便体验,我已经把打包好的程序放进了网盘,你只需要安装.net9环境即可运行。
下载文件后启动 AntSK.exe 然后会自动打开浏览器
账号: admin
密码: admin
1️⃣使用docker-compose
提供了pg版本 appsettings.json 和 简化版本(Sqlite+disk) docker-compose.simple.yml
从项目根目录下载docker-compose.yml,然后把配置文件appsettings.json和它放在统一目录,
这里已经把pg的镜像做好了。在docker-compose.yml中可以修改默认账号密码,然后你的appsettings.json的数据库连接需要保持一致。
然后你可以进入到目录后执行
docker-compose up -d
来启动AntSK
2️⃣如何在docker中挂载本地模型,和模型下载的目录
# 非 host 版本, 不使用本机代理
version: '3.8'
services:
antsk:
container_name: antsk
image: registry.cn-hangzhou.aliyuncs.com/AIDotNet/antsk:v0.6.5
ports:
- 5000:5000
networks:
- antsk
depends_on:
- antskpg
restart: always
environment:
- ASPNETCORE_URLS=http://*:5000
volumes:
- ./appsettings.json:/app/appsettings.json # 本地配置文件 需要放在同级目录
- D://model:/app/model
- D://model:/root/.cache/modelscope/hub/AI-ModelScope #使用Llamafactory时需要挂载 否则初始化的环境重启后会丢失
networks:
antsk:
以这个为示例,意思是把windows本地D://model的文件夹挂载进 容器内/app/model 如果是这样你的appsettings.json中的模型地址应该配置为
精简版使用sqlite+disk向量模式,简化部署配置
完整版使用pg+aspire 功能更完整,配置文件需要参考如下配置含义进行配置
3️⃣配置文件的一些含义
{
"DBConnection": {
"DbType": "Sqlite",
"ConnectionStrings": "Data Source=AntSK.db;"
},
"KernelMemory": {
"VectorDb": "Disk",
"ConnectionString": "Host=;Port=;Database=antsk;Username=;Password=",
"TableNamePrefix": "km-"
},
"FileDir": {
"DirectoryPath": "D:\\git\\AntBlazor\\model"
},
"Login": {
"User": "admin",
"Password": "xuzeyu"
},
"BackgroundTaskBroker": {
"ImportKMSTask": {
"WorkerCount": 1
}
}
}
//支持多种数据库,具体可以查看SqlSugar,MySql,SqlServer,Sqlite,Oracle,PostgreSQL,Dm,Kdbndp,Oscar,MySqlConnector,Access,OpenGauss,QuestDB,HG,ClickHouse,GBase,Odbc,OceanBaseForOracle,TDengine,GaussDB,OceanBase,Tidb,Vastbase,PolarDB,Custom
DBConnection.DbType
//连接字符串,需要根据不同DB类型,用对应的字符串
DBConnection.ConnectionStrings
//向量存储的类型,支持 Postgres、Disk、Memory、Qdrant、Redis、AzureAISearch
//Postgres、Redis需要配置 ConnectionString
//Qdrant 和AzureAISearch 的 ConnectionString 使用 Endpoint|APIKey
KernelMemory.VectorDb
//本地模型路径,用于在选择llama时可以快速选择目录下的模型,以及保存下载的模型
FileDir.DirectoryPath
//默认管理员账号密码
Login
//导入异步处理的线程数,使用在线API可以高一点,本地模型建议1 否则容易内存溢出崩掉
BackgroundTaskBroker.ImportKMSTask.WorkerCount
⚠️找不到样式问题解决:
AntSK/src/AntSK下执行:
dotnet clean
dotnet build
dotnet publish "AntSK.csproj"
再去AntSK/src/AntSK/bin/Release/net8.0/publish下
dotnet AntSK.dll
然后启动就有样式了
DB我使用的是CodeFirst模式,只要配置好数据库链接,表结构是自动创建的
🔧 开发指南
本地开发环境搭建
- 克隆项目
git clone https://github.com/AIDotNet/AntSK.git
cd AntSK
- 安装依赖
# 确保已安装 .NET 9 SDK
dotnet restore
- 配置数据库
- 修改
src/AntSK/appsettings.json中的数据库连接字符串 - 首次运行会自动创建数据库表结构 (CodeFirst 模式)
- 启动项目
cd src/AntSK
dotnet run
访问 https://localhost:5001 或 http://localhost:5000
插件开发
.NET 插件开发
[AntSKFunction("插件描述")]
public class MyPlugin
{
[AntSKFunction("函数描述")]
public async Task<string> MyFunction(string input)
{
// 您的业务逻辑
return "处理结果";
}
}
API 插件开发
创建符合 OpenAPI 规范的 HTTP 接口,AntSK 会自动解析并集成。
自定义模型集成
- 实现 IChatCompletion 接口
public class CustomChatCompletion : IChatCompletion
{
public async Task<IReadOnlyList<ChatMessage>> GetChatMessageContentsAsync(
ChatHistory chatHistory,
PromptExecutionSettings? executionSettings = null,
Kernel? kernel = null,
CancellationToken cancellationToken = default)
{
// 实现您的模型调用逻辑
}
}
- 注册服务
services.AddSingleton<IChatCompletion, CustomChatCompletion>();
✔️使用llamafactory
1、首先需要确保你的环境已经安装了python和pip,如果使用镜像,例如p0.2.4版本已经包含了 python全套环境则无需此步骤
2、进入模型添加页面选择llamafactory
3、点击初始化,可以检查pip install 环境是否完成
4、选择一个喜欢的模型
5、点击启动,这会开始从魔塔下载模型,你可能需要有一个较为漫长的等待
6、等待模型下载完毕后,在请求地址输入 http://localhost:8000/ 这里默认是使用8000端口
7、点击保存,然后就可以开始聊天了
8、很多人会问 LLamaSharp与llamafactory有什么区别?其实这两者LLamaSharp是llama.cpp的 dotnet实现,但是只支持本地gguf模型, 而llamafactory 支持的模型种类更多,但使用的是python的实现,其主要差异在这里,另外llamafactory具有模型微调的能力,这也是我们下一步需要重点集成的部分。
📊 性能优化建议
硬件配置推荐
| 用途 | CPU | 内存 | 存储 | GPU |
|---|---|---|---|---|
| 开发测试 | 4核+ | 8GB+ | SSD 50GB+ | 可选 |
| 小型部署 | 8核+ | 16GB+ | SSD 100GB+ | 可选 |
| 生产环境 | 16核+ | 32GB+ | SSD 500GB+ | RTX 3080+ |
| 大规模部署 | 32核+ | 64GB+ | SSD 1TB+ | RTX 4090+ |
性能调优
- 数据库连接池: 根据并发量调整连接池大小
- 向量维度: 根据精度需求选择合适的向量维度
- 缓存策略: 合理使用 Redis 缓存热点数据
- 模型选择: 根据场景选择合适的模型大小
💕 贡献者
🚨 使用协议
本仓库遵循 AntSK License 开源协议。
除以下附加条款外,该项目遵循Apache 2.0协议
免费商用:用户在不修改应用名称、logo、版权信息的情况下,可以免费用于商业目的。
商业授权:如果您满足以下任意条件之一,需取得商业授权:
- 修改应用名称、logo、版权信息等。
- 为企业客户提供多租户服务,且该服务支持 10 人或以上的使用。
- 预装或集成到硬件设备或产品中进行捆绑销售。
- 政府或教育机构的大规模采购项目,特别是涉及安全、数据隐私等敏感需求时。
如果您需要授权,可以联系微信:13469996907
如果您打算在商业项目中使用AntSK,您需要确保遵守以下步骤:
包含AntSK许可证的版权声明。 AntSK License 。
如果您修改了软件源代码,您需要在源代码中明确标明这些修改。
满足以上要求
版本历史
0.6.62025/10/050.6.52025/09/020.6.42025/06/100.6.32025/03/290.6.22025/03/040.6.12025/02/200.6.02025/02/180.5.62025/02/060.5.52024/10/240.5.42024/10/230.5.32024/10/230.5.22024/10/050.5.12024/09/290.5.02024/08/180.4.52024/08/050.4.42024/08/050.4.3.12024/07/030.4.32024/06/300.4.22024/06/190.4.12024/06/12常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。