[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-axflow--axflow":3,"tool-axflow--axflow":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":64,"owner_name":64,"owner_avatar_url":72,"owner_bio":73,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":75,"owner_website":73,"owner_url":76,"languages":77,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":32,"env_os":90,"env_gpu":91,"env_ram":91,"env_deps":92,"category_tags":95,"github_topics":96,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":100,"updated_at":101,"faqs":102,"releases":123},4879,"axflow\u002Faxflow","axflow","The TypeScript framework for AI development","Axflow 是一个专为人工智能开发打造的 TypeScript 框架，旨在帮助开发者构建稳健的自然语言应用。它通过将复杂的 LLM（大语言模型）工作范式拆解为直观、可管理的模块，解决了传统开发中灵活性不足和控制力较弱的问题，让开发者能够以“代码优先”的方式轻松掌控整个开发流程。\n\n该工具特别适合熟悉 TypeScript 的软件开发者和工程团队使用，尤其是那些希望从零构建或逐步集成 AI 功能到现有产品中的专业人士。Axflow 采用模块化设计，支持按需引入，既可作为独立组件使用，也能组合成端到端的完整解决方案。其核心亮点包括：零依赖的 SDK（@axflow\u002Fmodels），内置 React Hooks 和流式传输工具，让前端集成更丝滑；axgen 模块专注于连接私有数据与大模型；axeval 则提供了一套评估 LLM 输出质量的标准框架。此外，项目规划中还包含了数据处理、模型服务及微调等扩展能力。凭借清晰的架构和对开发者体验的重视，Axflow 成为了构建高质量 AI 应用的坚实基石。","![Axflow banner](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faxflow_axflow_readme_004777c4b57f.jpg)\n\n# The TypeScript framework for AI development\n\n![Github CI](https:\u002F\u002Fgithub.com\u002Faxflow\u002Faxflow\u002Fworkflows\u002FGithub%20CI\u002Fbadge.svg) [![Slack](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FJoin%20Our%20Community-Slack-blue)](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Faxilladevelopers\u002Fshared_invite\u002Fzt-212wj3ek0-NHzIFtVg1lxL1t0ViPbysA)\n\u003Ca href=\"https:\u002F\u002Fapp.greptile.com\u002Frepo\u002Faxflow\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flearn_with-greptile-%091B12?color=%091B12\" alt=\"Learn this repo using Greptile\">\u003C\u002Fa>\n\nAxflow is a collection of modules for building robust natural language powered applications. These modules can be adopted incrementally, thus providing a modular and scalable solution.\nUsed together, they form an end-to-end framework for developing AI applications.\n\n# Modules\n\n- [**@axflow\u002Fmodels**](.\u002Fpackages\u002Fmodels\u002F) &mdash; A zero-dependency, modular SDK for building robust natural language applications. Includes React hooks and streaming utilities that make building AI applications a breeze.\n- [**axgen**](.\u002Fpackages\u002Faxgen\u002F) &mdash; A framework for connecting your data to large language models\n- [**axeval**](.\u002Fpackages\u002Faxeval\u002F) &mdash; A framework for evaluating LLM output quality\n\nIn addition to the above modules, we're working on the following modules:\n\n- **extract**: A library for efficient data processing, particularly loading, transforming, and chunking documents from arbitrary sources. Most useful for applications that need to load and preprocess data for vector search.\n- **serve**: A serving framework to run any LLM model (OSS or otherwise). It will also provide middleware options for user throttling, analytics, and logging\n- **finetune**: A library focused on fine-tuning models\n\n## [Documentation](https:\u002F\u002Fdocs.axflow.dev)\n\n# Goals\n\nAxflow aspires to deconstruct the complex paradigms of working with LLMs into manageable and intuitive components.\nOur library takes a code-first approach, emphasizing the importance of flexibility and control for developers.\nAs a foundational framework, Axflow empowers developers to build higher-level TypeScript AI features and products seamlessly.\n\n## Examples\n\nHere is an example [open source UI](https:\u002F\u002Fgithub.com\u002Faxflow\u002Foriginal-demo-ui) showcasing what our first module, axgen, can do, with a [short video](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F458f9b6679b740f0a5c78a33fffee3dc) walkthrough.\n\n## License\n\n[MIT](LICENSE.md)\n","![Axflow 横幅](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faxflow_axflow_readme_004777c4b57f.jpg)\n\n# 用于 AI 开发的 TypeScript 框架\n\n![Github CI](https:\u002F\u002Fgithub.com\u002Faxflow\u002Faxflow\u002Fworkflows\u002FGithub%20CI\u002Fbadge.svg) [![Slack](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FJoin%20Our%20Community-Slack-blue)](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Faxilladevelopers\u002Fshared_invite\u002Fzt-212wj3ek0-NHzIFtVg1lxL1t0ViPbysA)\n\u003Ca href=\"https:\u002F\u002Fapp.greptile.com\u002Frepo\u002Faxflow\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flearn_with-greptile-%091B12?color=%091B12\" alt=\"使用 Greptile 学习此仓库\">\u003C\u002Fa>\n\nAxflow 是一套用于构建健壮的自然语言驱动应用的模块集合。这些模块可以逐步引入，从而提供一种模块化且可扩展的解决方案。\n当它们协同工作时，便构成了一个用于开发 AI 应用的端到端框架。\n\n# 模块\n\n- [**@axflow\u002Fmodels**](.\u002Fpackages\u002Fmodels\u002F) &mdash; 一个无依赖、模块化的 SDK，用于构建健壮的自然语言应用。包含 React hooks 和流式处理工具，让构建 AI 应用变得轻而易举。\n- [**axgen**](.\u002Fpackages\u002Faxgen\u002F) &mdash; 一个用于将您的数据连接到大型语言模型的框架\n- [**axeval**](.\u002Fpackages\u002Faxeval\u002F) &mdash; 一个用于评估 LLM 输出质量的框架\n\n除了上述模块之外，我们还在开发以下模块：\n\n- **extract**: 一个用于高效数据处理的库，尤其擅长从任意来源加载、转换和分块文档。对于需要为向量搜索加载和预处理数据的应用来说非常有用。\n- **serve**: 一个用于运行任何 LLM 模型（开源或其他）的服务框架。它还将提供用户限流、分析和日志记录等中间件选项。\n- **finetune**: 一个专注于模型微调的库。\n\n## [文档](https:\u002F\u002Fdocs.axflow.dev)\n\n# 目标\n\nAxflow 致力于将与 LLM 交互的复杂范式拆解为易于管理且直观的组件。\n我们的库采用代码优先的方法，强调灵活性和开发者控制的重要性。\n作为一款基础框架，Axflow 赋予开发者无缝构建更高级别的 TypeScript AI 功能和产品的能力。\n\n## 示例\n\n这里有一个[开源 UI](https:\u002F\u002Fgithub.com\u002Faxflow\u002Foriginal-demo-ui) 示例，展示了我们的第一个模块 axgen 的功能，并附有[简短视频](https:\u002F\u002Fwww.loom.com\u002Fshare\u002F458f9b6679b740f0a5c78a33fffee3dc)演示。\n\n## 许可证\n\n[MIT](LICENSE.md)","# Axflow 快速上手指南\n\nAxflow 是一个用于构建稳健自然语言应用的 TypeScript 框架。它采用模块化设计，允许开发者按需引入功能，从基础 SDK 到端到端的应用开发框架，提供高度的灵活性和控制力。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS, 或 Linux\n*   **Node.js**：建议安装 LTS 版本 (v18 或更高)\n*   **包管理器**：npm, yarn, 或 pnpm\n*   **前置知识**：熟悉 TypeScript 和异步编程\n\n## 安装步骤\n\nAxflow 由多个独立的模块组成，您可以根据项目需求选择安装。\n\n### 1. 初始化项目\n如果您还没有项目，请先初始化一个 TypeScript 项目：\n```bash\nmkdir my-axflow-app\ncd my-axflow-app\nnpm init -y\nnpm install typescript @types\u002Fnode --save-dev\nnpx tsc --init\n```\n\n### 2. 安装核心模块\n根据您的需求安装相应的模块（以下以 npm 为例）：\n\n*   **@axflow\u002Fmodels** (核心 SDK，包含 React Hooks 和流式工具):\n    ```bash\n    npm install @axflow\u002Fmodels\n    ```\n\n*   **axgen** (连接数据与大语言模型的框架):\n    ```bash\n    npm install axgen\n    ```\n\n*   **axeval** (评估 LLM 输出质量的框架):\n    ```bash\n    npm install axeval\n    ```\n\n> **提示**：国内开发者若遇到下载速度慢的问题，可配置淘宝镜像源：\n> `npm config set registry https:\u002F\u002Fregistry.npmmirror.com`\n\n## 基本使用\n\n以下是使用 `@axflow\u002Fmodels` 进行简单文本生成的最小化示例。该模块零依赖，旨在让构建 AI 应用变得简单。\n\n### 示例：调用模型生成文本\n\n创建一个 `index.ts` 文件：\n\n```typescript\nimport { Model } from '@axflow\u002Fmodels';\n\n\u002F\u002F 定义一个简单的模型调用逻辑\nasync function generateContent() {\n  \u002F\u002F 实例化模型 (此处以伪代码展示，具体实现需配合具体提供商如 OpenAI 等)\n  \u002F\u002F Axflow 的设计允许你灵活组合不同的模型后端\n  const model = new Model({\n    provider: 'openai', \n    apiKey: process.env.OPENAI_API_KEY,\n    model: 'gpt-3.5-turbo'\n  });\n\n  const response = await model.generate({\n    messages: [\n      { role: 'user', content: '用一句话介绍 Axflow。' }\n    ],\n    stream: false\n  });\n\n  console.log(response.content);\n}\n\ngenerateContent().catch(console.error);\n```\n\n### 结合 axgen 连接数据\n\n如果您需要让模型基于特定数据回答（RAG 场景），可以使用 `axgen`：\n\n```typescript\nimport { Generator } from 'axgen';\n\nasync function runGeneration() {\n  const generator = new Generator({\n    \u002F\u002F 配置数据源和模型\n    dataSource: '.\u002Fmy-docs', \n    modelConfig: { provider: 'openai', apiKey: process.env.OPENAI_API_KEY }\n  });\n\n  const result = await generator.query('总结文档中的关键技术点');\n  console.log(result);\n}\n```\n\n### 下一步\n*   访问官方文档获取更多详细 API 说明：[https:\u002F\u002Fdocs.axflow.dev](https:\u002F\u002Fdocs.axflow.dev)\n*   查看开源 UI 示例项目了解完整应用架构：[axflow\u002Foriginal-demo-ui](https:\u002F\u002Fgithub.com\u002Faxflow\u002Foriginal-demo-ui)","一家电商初创团队正急需构建一个能基于最新商品文档回答用户咨询的智能客服系统，且要求前端采用 TypeScript 技术栈以保证类型安全。\n\n### 没有 axflow 时\n- 开发者需手动拼接不同 LLM 提供商的 API 请求，缺乏统一的 SDK 导致代码冗余且难以维护。\n- 处理商品文档时，需自行编写复杂的加载、清洗和分块逻辑，极易出现数据切片错误影响检索效果。\n- 缺乏标准化的评估手段，无法量化模型回答的准确性，只能依靠人工抽检，迭代效率极低。\n- 前端集成流式响应（Streaming）和 React 状态管理繁琐，容易出现界面卡顿或数据渲染不同步。\n- 整体架构耦合度高，更换底层模型或调整数据处理流程时，往往需要重构大量核心代码。\n\n### 使用 axflow 后\n- 通过 `@axflow\u002Fmodels` 模块调用零依赖的统一 SDK，轻松切换不同大模型，代码结构清晰且具备完整类型提示。\n- 利用即将推出的 `extract` 模块自动化完成文档加载与分块，显著降低数据预处理门槛并提升向量搜索精度。\n- 引入 `axeval` 框架建立自动化评估流水线，快速量化输出质量，让模型优化有据可依。\n- 直接复用官方提供的 React Hooks 和流式工具，几分钟内即可在 UI 中实现丝滑的打字机效果。\n- 依托模块化设计，团队可灵活组合 `axgen` 等组件，按需扩展功能而无需推翻原有架构。\n\naxflow 将复杂的 LLM 开发范式拆解为直观的 TypeScript 代码模块，让开发者在拥有完全控制权的同时，大幅缩短从原型到生产级应用的落地周期。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faxflow_axflow_004777c4.jpg","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Faxflow_f1649cdb.png","https:\u002F\u002Faxflow.dev",null,"axflow_dev","https:\u002F\u002Fgithub.com\u002Faxflow",[78,82],{"name":79,"color":80,"percentage":81},"TypeScript","#3178c6",99.8,{"name":83,"color":84,"percentage":85},"JavaScript","#f1e05a",0.2,1119,44,"2026-03-04T19:13:17","MIT","","未说明",{"notes":93,"python":91,"dependencies":94},"Axflow 是一个基于 TypeScript 的 AI 开发框架，而非 Python 库。它采用模块化设计（包含 @axflow\u002Fmodels, axgen, axeval 等），强调代码优先（code-first）和灵活性。由于是 TypeScript 项目，其运行环境主要依赖 Node.js（具体版本未在提供的文本中说明），不涉及直接的 GPU、CUDA 或 Python 版本要求，除非其内部调用的具体模型服务有特殊需求。",[79],[35,14,13,15],[97,98,99],"ai","typescript","llm","2026-03-27T02:49:30.150509","2026-04-07T13:27:26.790876",[103,108,113,118],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},22177,"当响应包含 function_call (tool_call) 时，为什么 openAIChat.streamTokens() 无法流式传输令牌？","这是预期行为。`stream` 方法会原样流式传输底层提供商的响应，而 `streamTokens` 是一个高级封装，旨在提取消息内容（即面向用户的文本输出），不包含工具\u002F函数对象。目前库中仅 OpenAI 支持工具\u002F函数。如果您需要使用这些功能，请使用 `stream` 方法代替 `streamTokens`。","https:\u002F\u002Fgithub.com\u002Faxflow\u002Faxflow\u002Fissues\u002F100",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},22178,"如何在 OpenAI 请求中修改基础 URL (base url) 并添加自定义请求头？","可以配置。该库的所有函数（包括 OpenAI 和其他模型提供商）都接受 `apiUrl` 和 `headers` 选项。您可以通过传递这两个选项来自定义 API 地址和请求头。","https:\u002F\u002Fgithub.com\u002Faxflow\u002Faxflow\u002Fissues\u002F106",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},22179,"该项目可以在 Windows 操作系统上运行吗？","虽然未在 Windows 上进行全面测试，但理论上应该可以运行。代码中与文件系统交互的部分使用了平台无关的辅助函数（如 `Path.join`）。特别是 models 包，由于没有依赖项且不涉及文件系统或操作系统调用，肯定可以在 Windows 上运行。如果遇到具体问题，欢迎反馈。","https:\u002F\u002Fgithub.com\u002Faxflow\u002Faxflow\u002Fissues\u002F85",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},22180,"是否支持 Google Vertex AI？","支持。Google Vertex AI 的支持已在相关 Pull Request (#54) 中完成并合并。","https:\u002F\u002Fgithub.com\u002Faxflow\u002Faxflow\u002Fissues\u002F52",[124,129,134,139,144,149,153,157,161,165,169,173,177,181,185,189,194,198,202,206],{"id":125,"version":126,"summary_zh":127,"released_at":128},135908,"@axflow\u002Fmodels@0.0.25","```ts\nimport { StreamToIterable } from '@axflow\u002Fmodels\u002Fshared';\nimport { GoogleGenerateContent } from '@axflow\u002Fmodels\u002Fgoogle\u002Fgenerate-content';\n\nconst stream = await GoogleGenerateContent.stream(\n  {\n    model: 'gemini-pro',\n    contents: [\n      {\n        parts: [\n          {\n            text: '写一个关于魔法背包的两句话故事',\n          },\n        ],\n      },\n    ],\n  },\n  {\n    apiKey: process.env.GOOGLE_API_KEY,\n  }\n);\n\nfor await (const chunk of StreamToIterable(stream)) {\n  console.log(chunk);\n}\n```","2023-12-21T00:31:33",{"id":130,"version":131,"summary_zh":132,"released_at":133},135909,"@axflow\u002Fmodels@0.0.24","例如，我们可以在 Together 的推理端点上运行 Llama2 70B 模型，代码如下：\n\n```ts\nimport { StreamToIterable } from '@axflow\u002Fmodels\u002Fshared';\nimport { TogetherAIInference } from '@axflow\u002Fmodels\u002Ftogetherai\u002Finference';\n\nconst stream = await TogetherAIInference.stream(\n  {\n    model: 'togethercomputer\u002Fllama-2-70b-chat',\n    prompt: '[INST] 用不超过 20 个词描述一下埃菲尔铁塔是什么？[\u002FINST] ',\n    max_tokens: 250,\n  },\n  {\n    apiKey: process.env.TOGETHERAI_API_KEY,\n  }\n);\n\nfor await (const chunk of StreamToIterable(stream)) {\n  console.log(chunk);\n}\n```","2023-12-16T01:53:51",{"id":135,"version":136,"summary_zh":137,"released_at":138},135910,"@axflow\u002Fmodels@0.0.23","支持 OpenAI 工具：\n* 每次 API 调用可使用多个工具\n* 通过新的 `toolCallsAccessor` 回调支持流式传输部分工具","2023-11-27T23:31:55",{"id":140,"version":141,"summary_zh":142,"released_at":143},135911,"@axflow\u002Fmodels@0.0.21","OpenAI 在 2023 年开发者大会上对其 SDK 进行了一些调整，Axflow 现已支持这些变更：\n* 将 `functions` 重命名为 `tools`\n* 支持 `json_mode`\n* 支持 `seed` 和确定性调用","2023-11-07T18:36:26",{"id":145,"version":146,"summary_zh":147,"released_at":148},135912,"@axflow\u002Fmodels@0.0.19","https:\u002F\u002Ftxt.cohere.com\u002F介绍-embed-v3\u002F","2023-11-02T18:41:48",{"id":150,"version":151,"summary_zh":74,"released_at":152},135913,"@axflow\u002Fmodels@0.0.18","2023-10-31T01:52:05",{"id":154,"version":155,"summary_zh":74,"released_at":156},135914,"@axflow\u002Fmodels@0.0.17","2023-10-25T23:58:41",{"id":158,"version":159,"summary_zh":74,"released_at":160},135915,"@axflow\u002Fmodels@0.0.16","2023-10-20T22:27:08",{"id":162,"version":163,"summary_zh":74,"released_at":164},135916,"@axflow\u002Fmodels@0.0.15","2023-10-11T23:25:12",{"id":166,"version":167,"summary_zh":74,"released_at":168},135917,"@axflow\u002Fmodels@0.0.14","2023-10-10T21:09:13",{"id":170,"version":171,"summary_zh":74,"released_at":172},135918,"@axflow\u002Fmodels@0.0.13","2023-10-09T20:51:06",{"id":174,"version":175,"summary_zh":74,"released_at":176},135919,"@axflow\u002Fmodels@0.0.11","2023-09-20T02:00:29",{"id":178,"version":179,"summary_zh":74,"released_at":180},135920,"@axflow\u002Fmodels@0.0.9","2023-09-18T19:42:40",{"id":182,"version":183,"summary_zh":74,"released_at":184},135921,"@axflow\u002Fmodels@0.0.8","2023-09-15T23:52:25",{"id":186,"version":187,"summary_zh":74,"released_at":188},135922,"@axflow\u002Fmodels@0.0.7","2023-09-14T22:03:46",{"id":190,"version":191,"summary_zh":192,"released_at":193},135923,"@axflow\u002Fmodels@0.0.6","引入一个 `streamJsonResponse` 函数，该函数可以将 `ReadableStream` 流通过 Node.js 的 `ServerResponse` 对象进行管道传输，从而为使用 Node.js 标准库的环境（如 Express.js）提供无缝集成。","2023-09-14T19:18:45",{"id":195,"version":196,"summary_zh":74,"released_at":197},135924,"@axflow\u002Fmodels@0.0.4","2023-09-13T00:02:11",{"id":199,"version":200,"summary_zh":74,"released_at":201},135925,"@axflow\u002Fmodels@0.0.1","2023-09-05T02:42:22",{"id":203,"version":204,"summary_zh":74,"released_at":205},135926,"axgen@0.0.19","2023-08-23T22:31:04",{"id":207,"version":208,"summary_zh":74,"released_at":209},135927,"axgen@0.0.18","2023-08-20T21:01:03"]