[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Shawn-IEITSystems--Yuan-1.0":3,"tool-Shawn-IEITSystems--Yuan-1.0":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,2,"2026-04-09T23:34:24",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,"2026-04-08T11:03:08",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":23,"last_commit_at":63,"category_tags":64,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":82,"languages":83,"stars":117,"forks":118,"last_commit_at":119,"license":79,"difficulty_score":10,"env_os":120,"env_gpu":121,"env_ram":122,"env_deps":123,"category_tags":130,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":131,"updated_at":132,"faqs":133,"releases":169},6014,"Shawn-IEITSystems\u002FYuan-1.0","Yuan-1.0","Yuan 1.0 Large pretrained LM","Yuan-1.0 是由浪潮信息研发的大规模预训练语言模型，拥有高达 2460 亿参数，是目前全球最大的单体语言模型之一。它旨在解决大模型训练中算力需求巨大、数据质量参差不齐以及零样本和少样本学习能力不足等核心难题。\n\n通过创新的分布式训练架构设计，Yuan-1.0 能够在数千张 GPU 上高效运行，大幅降低了超大规模模型的训练门槛。其独特的技术亮点包括一套高效的海量互联网数据过滤方法，据此构建了当前最大的 5TB 高质量中文文本语料库；同时，采用基于校准和标签扩展的技术，显著提升了模型在零样本和少样本场景下的表现，使其生成的文章难以与人类写作区分。\n\nYuan-1.0 非常适合 AI 研究人员探索大模型前沿技术，也面向开发者提供开放的 API 接口及部分语料（1TB），支持对话生成、内容续写、诗歌创作、关键词抽取及中英翻译等多种应用开发。无论是希望进行模型微调的算法工程师，还是想要快速构建智能应用的开发者，都能利用 Yuan-1.0 强大的语言能力实现创新。普通用户虽不直接操作模型，但可通过基于该模型开发的各类智能产品，体验更自然、精准的人机交互服务。","# Yuan-1.0\nYuan 1.0:  Large-Scale Pre-trained Language Model in\nZero-Shot and Few-Shot Learning\n\n# Introduction\nRecent work like GPT-3 has demonstrated excellent performance of Zero-Shot and Few-Shot learning on many natural language processing (NLP) tasks by scaling up model size, data size and the amount of compute. While training a model like GPT-3 requires huge amount of computing power that is a challenge to the researchers. In this work, we propose a method that incorporates large-scale distributed training performance into model architecture design. With this method, we trained Yuan 1.0, the current largest singleton language model with 246B parameters, which achieved excellent performance on thousands GPUs, and state-of-the-art results on different natural language processing tasks. We propose a data processing method that can efficiently filter massive amount of data from Internet. A new dataset with 5TB high-quality text, the current largest Chinese text corpus, is built based on this method. We propose a method based on calibration and label expansion to improve the Zero-Shot and Few-Shot performance, and steady performance improvements were observed. The articles that Yuan 1.0 generated are difficult to distinguish from articles written by humans.\n\n\nPlease find details in the paper of Yuan-1.0.\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F2110.04725\n\n## 1. Open source of Yuan-1.0\n\nWe will open the corpus (1TB) and API of the Yuan model, as well as the codes for fine-tune, few-shot and zero-shot learning. \nPlease visit [official website](https:\u002F\u002Fair.inspur.com\u002Fhome) (https:\u002F\u002Fair.inspur.com\u002Fhome) for details to get access of the corpus and APIs of Yuan model.\n\n## 2. Requirements\nThe inference code is provided on python3. Before start using Yuan API to build your application, several python libs are required. You can simply install them via pip tools.\n``` bash\npip install requests hashlib json\n```\n## 3. How to use Yuan-API\nAfter submit application on official website, it will take several days (normally less than one week) for us to check your application. \n\nPlease keep your registered account and phone number properly, which will be used to generate an unique key to get access the API.\n\nFor more details, please check the example code, `yuan_api\u002Fexamples`, and follow the API document.\n\n## 4. Applications\nHere we summarize some simple application example configuration methods for users' reference. The parameters not mentioned therein have adopted default values.\n\n|ID|app|model|prompt template|input prefix|input suffix|output prefix|truncation character|example|few-shot|\n|--:|:---:|:--:|:--------|:----|:--------|:--------|:--------|:--------|:---:|\n|0|dialog generation|dialog|问：“`用户输入`”答：“|问：“|”|答：“|”|故宫有什么好玩的？|support|\n|1|content continuation|base_10B|`用户输入`|无|无|无|默认|徐凤年刚走入京大校门，已经有学生会迎新的同学走到了他面前，|not recommended|\n|2|poetry maker|base_10B|以“`用户输入`”为题作一首诗：“|以“|”为题作一首诗：“|无|”|清风| recommended|\n|3|关键词抽取|base_10B|为以下正文提取关键词。正文：`用户输入`；关键词：|为以下正文提取关键词。正文：|；|关键词：|。|帮我写一首诗，描写春天到了，百花盛开。| support|\n|4|ch-en translation|translate|将下列英文\u002F中文翻译成中文\u002F英文。英文\u002F中文：`用户输入`中文\u002F英文：“|将下列英文\u002F中文翻译成中文\u002F英文。英文\u002F中文：|无|中文\u002F英文：“|”|自然派的哲学家也被称为“苏格拉底之前的哲学家” 。|not recommended|\n\nPlease look forward to more applications.","# Yuan-1.0\nYuan 1.0：大规模预训练语言模型在零样本和少样本学习中的应用\n\n# 引言\n近期如GPT-3等研究通过扩大模型规模、数据规模以及计算资源的投入，在众多自然语言处理（NLP）任务上展现了卓越的零样本和少样本学习能力。然而，训练类似GPT-3这样的模型需要巨大的算力，这对研究人员而言是一项严峻挑战。在本工作中，我们提出了一种将大规模分布式训练性能融入模型架构设计的方法。借助该方法，我们成功训练了目前最大的单体语言模型——Yuan 1.0，其参数量达2460亿，在数千张GPU上实现了优异的表现，并在多项自然语言处理任务中取得了最先进的结果。我们还提出了一种高效的数据处理方法，能够从海量互联网数据中筛选出高质量内容。基于此方法，我们构建了一个包含5TB高质量文本的新数据集，这是当前最大的中文文本语料库。此外，我们提出了一种基于校准和标签扩展的方法来提升零样本和少样本学习的效果，并观察到了持续的性能改进。Yuan 1.0生成的文章已难以与人类撰写的文章区分开来。\n\n详细信息请参阅Yuan-1.0论文：\nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F2110.04725\n\n## 1. Yuan 1.0 开源计划\n我们将开放Yuan模型的语料库（1TB）和API接口，同时提供微调、少样本及零样本学习的相关代码。更多详情及获取Yuan模型语料库和API的途径，请访问[官方网站](https:\u002F\u002Fair.inspur.com\u002Fhome)（https:\u002F\u002Fair.inspur.com\u002Fhome）。\n\n## 2. 系统要求\n推理代码基于Python 3编写。在使用Yuan API构建您的应用之前，您需要安装若干Python库，可通过pip工具轻松完成安装：\n``` bash\npip install requests hashlib json\n```\n\n## 3. 如何使用Yuan API\n在官方网站提交申请后，我们将在数日内（通常不超过一周）审核您的申请。请妥善保管注册账号和联系电话，这些信息将用于生成唯一的API密钥，以便您访问API服务。\n\n更多详细信息，请参考示例代码`yuan_api\u002Fexamples`并查阅API文档。\n\n## 4. 应用场景\n以下我们总结了一些简单的应用配置示例供用户参考。未提及的参数均采用默认值。\n\n|编号|应用|模型|提示模板|输入前缀|输入后缀|输出前缀|截断字符|示例|少样本支持|\n|--:|:---:|:--:|:--------|:----|:--------|:--------|:--------|:--------|:---:|\n|0|对话生成|dialog|问：“`用户输入`”答：“|问：“|”|答：“|”|故宫有什么好玩的？|支持|\n|1|内容续写|base_10B|`用户输入`|无|无|无|默认|徐凤年刚走入京大校门，已经有学生会迎新的同学走到了他面前，|不推荐|\n|2|诗歌创作|base_10B|以“`用户输入`”为题作一首诗：“|以“|”为题作一首诗：“|无|”|清风| 推荐|\n|3|关键词提取|base_10B|为以下正文提取关键词。正文：`用户输入`；关键词：|为以下正文提取关键词。正文：|；|关键词：|。|帮我写一首诗，描写春天到了，百花盛开。| 支持|\n|4|中英翻译|translate|将下列英文\u002F中文翻译成中文\u002F英文。英文\u002F中文：`用户输入`中文\u002F英文：“|将下列英文\u002F中文翻译成中文\u002F英文。英文\u002F中文：|无|中文\u002F英文：“|”|自然派的哲学家也被称为“苏格拉底之前的哲学家” 。|不推荐|\n\n敬请期待更多应用场景。","# Yuan-1.0 快速上手指南\n\nYuan-1.0 是浪潮信息开源的超大规模预训练语言模型（参数量达 2460 亿），在零样本（Zero-Shot）和少样本（Few-Shot）学习任务中表现卓越。本指南将帮助您快速配置环境并调用 Yuan API 进行开发。\n\n## 环境准备\n\n在开始使用 Yuan API 构建应用之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：支持 Python 3 的任意主流操作系统（Linux \u002F macOS \u002F Windows）。\n*   **编程语言**：Python 3.x。\n*   **前置依赖**：需要安装 `requests`、`hashlib` 和 `json` 库。\n\n> **提示**：`hashlib` 和 `json` 通常为 Python 标准库，无需单独安装。若使用国内网络环境，建议使用清华或阿里镜像源加速 `pip` 安装过程。\n\n## 安装步骤\n\n请使用 `pip` 工具安装必要的第三方依赖库。打开终端或命令行工具，执行以下命令：\n\n```bash\npip install requests hashlib json\n```\n\n*注：若遇到网络下载缓慢问题，可添加国内镜像源参数，例如：*\n```bash\npip install requests -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n### 1. 获取访问权限\n在使用代码前，您需要先申请 API 访问密钥：\n1. 访问 [Yuan 官方网站](https:\u002F\u002Fair.inspur.com\u002Fhome)。\n2. 提交应用申请（审核通常需数天，一般不超过一周）。\n3. 妥善保管注册账号和手机号，系统将据此生成唯一的 **API Key**。\n\n### 2. 调用示例\n获得 API Key 后，您可以参考官方提供的示例代码目录 `yuan_api\u002Fexamples` 进行开发。以下是一个基于对话生成场景的最小化调用逻辑说明：\n\n*   **模型选择**：`dialog`\n*   **提示词模板**：`问：\"用户输入”答：\"`\n*   **输入示例**：`故宫有什么好玩的？`\n\n**代码调用核心逻辑（伪代码示意）：**\n\n```python\nimport requests\nimport hashlib\nimport json\n\n# 配置您的唯一 Key (从官网获取)\napi_key = \"YOUR_UNIQUE_KEY\"\nurl = \"https:\u002F\u002Fapi.yuan.example.com\u002Fv1\u002Fcompletions\" # 具体 URL 请参阅官方 API 文档\n\n# 构建请求 payload\npayload = {\n    \"model\": \"dialog\",\n    \"prompt\": \"问：“故宫有什么好玩的？”答：\",\n    \"max_tokens\": 100,\n    # 其他参数保持默认或使用官方推荐值\n}\n\nheaders = {\n    \"Authorization\": f\"Bearer {api_key}\",\n    \"Content-Type\": \"application\u002Fjson\"\n}\n\n# 发送请求\nresponse = requests.post(url, headers=headers, data=json.dumps(payload))\n\n# 解析结果\nif response.status_code == 200:\n    result = response.json()\n    print(result['choices'][0]['text'])\nelse:\n    print(\"Error:\", response.text)\n```\n\n> **注意**：具体的 API 端点地址、鉴权头格式及返回字段结构，请务必以官网最新发布的 **API 文档** 和 `yuan_api\u002Fexamples` 中的实际代码为准。\n\n### 3. 应用场景参考\nYuan-1.0 支持多种任务模式，您可通过调整 `prompt template` 快速切换功能：\n\n| 应用场景 | 推荐模型 | 提示词模板示例 | 少样本支持 |\n| :--- | :--- | :--- | :--- |\n| **对话生成** | dialog | `问：\"`用户输入`\"答：\"` | 支持 |\n| **诗歌创作** | base_10B | `以\"`用户输入`\"为题作一首诗：\"` | 推荐 |\n| **关键词抽取** | base_10B | `为以下正文提取关键词。正文：`用户输入`；关键词：` | 支持 |\n| **内容续写** | base_10B | `` `用户输入` `` | 不推荐 |\n\n更多高级应用配置请参考官方文档。","某大型内容电商平台的内容运营团队，每天需要处理成千上万条商品评论，并从中提取关键反馈以优化产品描述和客服话术。\n\n### 没有 Yuan-1.0 时\n- **人工成本高昂**：面对海量中文评论，团队不得不雇佣大量兼职人员进行人工阅读和关键词标记，耗时且昂贵。\n- **语义理解偏差**：传统的规则匹配或小型模型难以理解复杂的中文语境（如反讽、方言），导致提取的关键词经常偏离用户真实意图。\n- **零样本能力缺失**：每当新增一个商品品类（如从“美妆”扩展到“户外装备”），都需要重新收集数据并训练模型，无法直接应对新场景。\n- **响应速度滞后**：从数据收集到模型迭代上线通常需要数周时间，无法实时捕捉突发舆情或热点趋势。\n\n### 使用 Yuan-1.0 后\n- **自动化高效处理**：利用 Yuan-1.0 强大的中文语料预训练能力，通过简单的 API 调用即可自动完成万级评论的关键词抽取，人力成本降低 90%。\n- **精准语境洞察**：依托其 2460 亿参数规模和对 5TB 高质量中文文本的学习，Yuan-1.0 能准确识别隐含情感与复杂句式，提取结果准确率显著提升。\n- **灵活的少样本学习**：借助 Yuan-1.0 卓越的 Few-Shot 能力，运营人员只需提供几条新类目的示例，模型即可立即适应新领域，无需重新训练。\n- **实时业务响应**：集成 Yuan-API 后，系统可实现秒级反馈，帮助团队在热点出现的第一时间调整营销策略。\n\nYuan-1.0 凭借其在大规模中文预训练和少样本学习上的突破，将原本繁琐的非结构化数据处理工作转化为即时可用的商业洞察。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FShawn-IEITSystems_Yuan-1.0_08f260b1.png","Shawn-IEITSystems","Shawn Wu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FShawn-IEITSystems_6c1ad48b.png",null,"IEITSystems","Beijing","https:\u002F\u002Fgithub.com\u002FShawn-IEITSystems",[84,88,92,96,99,102,106,110,113],{"name":85,"color":86,"percentage":87},"Python","#3572A5",88.4,{"name":89,"color":90,"percentage":91},"C++","#f34b7d",6.5,{"name":93,"color":94,"percentage":95},"Cuda","#3A4E3A",2.6,{"name":97,"color":98,"percentage":54},"Shell","#89e051",{"name":100,"color":101,"percentage":54},"JavaScript","#f1e05a",{"name":103,"color":104,"percentage":105},"C","#555555",0.3,{"name":107,"color":108,"percentage":109},"HTML","#e34c26",0.1,{"name":111,"color":112,"percentage":109},"CSS","#663399",{"name":114,"color":115,"percentage":116},"Makefile","#427819",0,589,110,"2026-03-02T12:41:44","","未说明（训练需数千张 GPU，但推理通过 API 进行，本地无 GPU 要求）","未说明",{"notes":124,"python":125,"dependencies":126},"该工具主要提供 API 访问而非本地模型部署。用户需在官网申请账号并等待审核（通常少于一周）以获取 API 密钥。本地仅需安装基础 Python 库即可调用 API，无需下载大规模模型文件或配置高性能计算环境。","Python 3",[127,128,129],"requests","hashlib","json",[15],"2026-03-27T02:49:30.150509","2026-04-10T07:47:03.733224",[134,139,144,149,154,159,164],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},27248,"调用 API 时返回 'IBASE_INTERFACE_USER_INTERFACE_AUTHORIZE_EXPIRED' 错误怎么办？","该错误通常表示授权已过期。可能原因包括系统升级或 Linux 服务器时间不正确导致授权失效。解决方法：1. 联系后台工作人员提供用户名以重置试用期限；2. 检查并确保服务器系统时间准确；3. 在官网 APIExp 测试工具中验证账号状态。如果在线测试正常但代码报错，请检查代码中的账号配置。","https:\u002F\u002Fgithub.com\u002FShawn-IEITSystems\u002FYuan-1.0\u002Fissues\u002F12",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},27249,"个人用户如何申请体验源 1.0 模型？","支持个人体验使用。用户需在官网提交申请表，工作人员将在 5 个工作日内完成审批。注意事项：1. 申请表填写必须清晰完备，否则可能导致审核不通过（不通过可重新填写提交）；2. 如遇问题，可发送邮件至源服务邮箱 (air_service@inspur.com) 或联系工作人员微信 (zhoupika) 进行咨询。","https:\u002F\u002Fgithub.com\u002FShawn-IEITSystems\u002FYuan-1.0\u002Fissues\u002F37",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},27250,"遇到 'IBASE_INTERFACE_GET_USER_INTERFACE_EMPTY' 或 Token 验签失败错误如何修复？","此错误通常由以下原因导致：1. 账号未申请开通 API 权限（官网注册用户需提交申请并审核通过）；2. API 使用权限已过期；3. 代码中用户名或手机号设置错误；4. 服务器时间不正确。解决步骤：首先登录官网 APIExp 查看审批状态；若线上测试正常，请检查代码中 set_yuan_account 的参数及服务器时间；若仍未解决，请联系后台小助手并提供账号信息进行排查。","https:\u002F\u002Fgithub.com\u002FShawn-IEITSystems\u002FYuan-1.0\u002Fissues\u002F33",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},27251,"preprocess_data.py 中的 --merge-file 参数是什么文件？","--merge-file 是 GPTTokenizer 使用的文件。官方建议改用 EncDecTokenizer 进行处理。请参考 preprocess_data_cn.py 脚本的实现逻辑，相关代码更新可见 commit: 548c378bb86406ae78d210e23b4624f9805b2e8a。","https:\u002F\u002Fgithub.com\u002FShawn-IEITSystems\u002FYuan-1.0\u002Fissues\u002F6",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},27252,"官网首页找不到 API 申请入口或显示空白怎么办？","API 申请入口位于官网首页的 Banner 区域。如果页面显示空白或找不到按钮，可能是浏览器兼容性问题。建议尝试以下方法：1. 更换浏览器（如从 Edge 换为 Chrome）；2. 检查网络连接或切换网络环境。通常更换浏览器后即可正常看到申请按钮。","https:\u002F\u002Fgithub.com\u002FShawn-IEITSystems\u002FYuan-1.0\u002Fissues\u002F36",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},27253,"src 目录下是否包含可直接使用的训练代码？","是的，src 目录下提供了训练代码。对于源 130 亿模型的训练，请参考更新的脚本：src\u002Fpretrain_yuan_13B.sh。用户可以通过该脚本学习并进行模型训练。","https:\u002F\u002Fgithub.com\u002FShawn-IEITSystems\u002FYuan-1.0\u002Fissues\u002F2",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},27254,"data_path_aug.txt 文件应该如何配置？","data_path_aug.txt 用于配置训练数据集。在该文件中，可以通过设置加权系数来控制不同数据集在训练过程中的占比，从而实现数据采样和平衡。","https:\u002F\u002Fgithub.com\u002FShawn-IEITSystems\u002FYuan-1.0\u002Fissues\u002F9",[]]