[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-HeKun-NVIDIA--CUDA-Programming-Guide-in-Chinese":3,"tool-HeKun-NVIDIA--CUDA-Programming-Guide-in-Chinese":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75644,"2026-04-15T10:48:40",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":81,"languages":79,"stars":82,"forks":83,"last_commit_at":84,"license":79,"difficulty_score":29,"env_os":85,"env_gpu":86,"env_ram":86,"env_deps":87,"category_tags":90,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":91,"updated_at":92,"faqs":93,"releases":94},7820,"HeKun-NVIDIA\u002FCUDA-Programming-Guide-in-Chinese","CUDA-Programming-Guide-in-Chinese","This is a Chinese translation of the CUDA programming guide","CUDA-Programming-Guide-in-Chinese 是 NVIDIA 官方《CUDA C Programming Guide》的中文翻译项目，旨在打破语言壁垒，让中文开发者更顺畅地掌握 GPU 并行编程技术。对于许多希望利用 CUDA 进行高性能计算但受限于英文文档阅读障碍的程序员而言，这份指南提供了至关重要的学习路径。\n\n该项目并非简单的机器翻译，而是在原有开源版本基础上进行了细致的专业校对。它不仅修正了语法错误和关键术语的偏差，还优化了语序结构，确保技术表达的准确性与流畅度。目前，从 CUDA 简介、编程模型概述到硬件实现及性能指南等核心章节均已完成高质量校对，而关于 C++ 扩展、动态并行及底层驱动 API 等进阶附录也在持续完善中。\n\n无论是刚接触 GPU 编程的初学者，还是需要深入优化算法性能的资深开发者与研究人员，都能从中获益。通过阅读这份文档，用户可以系统理解 CUDA 架构设计，掌握内存管理、线程同步等核心技术，从而高效开发加速应用。作为一份不断迭代的技术文档，它正逐渐成为中文社区学习 CUDA 不可或缺的权威参考资料。","# CUDA 编程手册\n#### 本项目为 CUDA C Programming Guide 的中文翻译版。\n\n#### 本文在 [原有项目](https:\u002F\u002Fgithub.com\u002FHeKun-NVIDIA\u002FCUDA-Programming-Guide-in-Chinese) 的基础上进行了细致校对，修正了语法和关键术语的错误，调整了语序结构并完善了内容。\n\n### 结构目录：\n\n其中 √ 表示已经完成校对的部分。\n\n- [x] 第一章 [CUDA简介](第1章CUDA简介\u002F第一章-CUDA简介.md)\n\n- [x] 第二章 [CUDA编程模型概述](第2章CUDA编程模型概述\u002F第二章CUDA编程模型概述.md)\n- [x] 第三章 [CUDA编程模型接口](第3章编程接口\u002F第三章编程接口.md)\n- [x] 第四章 [硬件的实现](第4章硬件实现\u002F第四章硬件实现.md)\n- [x] 第五章 [性能指南](第5章性能指南\u002F第五章性能指南.md)\n- [x] 附录A  [支持CUDA的设备列表](附录A支持GPU设备列表\u002F附录A支持GPU设备列表.md)\n- [ ] 附录B  [对C++扩展的详细描述](附录B对C++扩展的详细描述\u002F附录B对C++语言扩展的详细描述.md)\n- [ ] 附录C  [描述了各种 CUDA 线程组的同步原语](附录C协作组\u002F附录C协作组.md)\n- [ ] 附录D  [讲述如何在一个内核中启动或同步另一个内核](附录D-CUDA动态并行\u002F附录D-CUDA动态并行.md)\n- [ ] 附录E  [讲述如何安排存储空间的分配和回收](附录E虚拟内存管理\u002F附录E虚拟内存管理.md)\n- [ ] 附录F  [描述了应用程序如何对内存分配和释放进行排序](附录F流序内存分配\u002F附录F流序内存分配.md)\n- [ ] 附录G  [讲述图如何创建和分配存储空间](附录G图内存结点\u002F附录G图内存结点.md)\n- [ ] 附录H  [介绍录CUDA中支持的数学方法](附录H数学方法\u002F附录H数学方法.md)\n- [ ] 附录I  [介绍了内核中支持的C++特性](附录I_C++语言支持\u002F附录I_C++语言支持.md)\n- [ ] 附录J  [介绍了纹理获取的细节](附录J纹理获取\u002F附录J纹理获取.md)\n- [ ] 附录K  [介绍了各种设备的技术规格以及架构细节](附录K_CUDA计算能力\u002F附录K_CUDA计算能力.md)\n- [ ] 附录L  [介绍了底层的驱动API](附录L_CUDA底层驱动API\u002F附录L_CUDA底层驱动API.md)\n- [ ] 附录M  [列举了所有的CUDA环境变量](附录M_CUDA环境变量\u002F附录M_CUDA环境变量.md)\n- [ ] 附录N  [介绍了统一内存编程模型](附录N_CUDA的统一内存\u002F附录N_CUDA的统一内存.md)\n\n\nBased QingChuanWS\n\n","# CUDA 编程手册\n#### 本项目为 CUDA C Programming Guide 的中文翻译版。\n\n#### 本文在 [原有项目](https:\u002F\u002Fgithub.com\u002FHeKun-NVIDIA\u002FCUDA-Programming-Guide-in-Chinese) 的基础上进行了细致校对，修正了语法和关键术语的错误，调整了语序结构并完善了内容。\n\n### 结构目录：\n\n其中 √ 表示已经完成校对的部分。\n\n- [x] 第一章 [CUDA简介](第1章CUDA简介\u002F第一章-CUDA简介.md)\n\n- [x] 第二章 [CUDA编程模型概述](第2章CUDA编程模型概述\u002F第二章CUDA编程模型概述.md)\n- [x] 第三章 [CUDA编程模型接口](第3章编程接口\u002F第三章编程接口.md)\n- [x] 第四章 [硬件的实现](第4章硬件实现\u002F第四章硬件实现.md)\n- [x] 第五章 [性能指南](第5章性能指南\u002F第五章性能指南.md)\n- [x] 附录A  [支持CUDA的设备列表](附录A支持GPU设备列表\u002F附录A支持GPU设备列表.md)\n- [ ] 附录B  [对C++扩展的详细描述](附录B对C++扩展的详细描述\u002F附录B对C++语言扩展的详细描述.md)\n- [ ] 附录C  [描述了各种 CUDA 线程组的同步原语](附录C协作组\u002F附录C协作组.md)\n- [ ] 附录D  [讲述如何在一个内核中启动或同步另一个内核](附录D-CUDA动态并行\u002F附录D-CUDA动态并行.md)\n- [ ] 附录E  [讲述如何安排存储空间的分配和回收](附录E虚拟内存管理\u002F附录E虚拟内存管理.md)\n- [ ] 附录F  [描述了应用程序如何对内存分配和释放进行排序](附录F流序内存分配\u002F附录F流序内存分配.md)\n- [ ] 附录G  [讲述图如何创建和分配存储空间](附录G图内存结点\u002F附录G图内存结点.md)\n- [ ] 附录H  [介绍录CUDA中支持的数学方法](附录H数学方法\u002F附录H数学方法.md)\n- [ ] 附录I  [介绍了内核中支持的C++特性](附录I_C++语言支持\u002F附录I_C++语言支持.md)\n- [ ] 附录J  [介绍了纹理获取的细节](附录J纹理获取\u002F附录J纹理获取.md)\n- [ ] 附录K  [介绍了各种设备的技术规格以及架构细节](附录K_CUDA计算能力\u002F附录K_CUDA计算能力.md)\n- [ ] 附录L  [介绍了底层的驱动API](附录L_CUDA底层驱动API\u002F附录L_CUDA底层驱动API.md)\n- [ ] 附录M  [列举了所有的CUDA环境变量](附录M_CUDA环境变量\u002F附录M_CUDA环境变量.md)\n- [ ] 附录N  [介绍了统一内存编程模型](附录N_CUDA的统一内存\u002F附录N_CUDA的统一内存.md)\n\n\nBased QingChuanWS","# CUDA 编程手册（中文版）快速上手指南\n\n本指南基于《CUDA C Programming Guide》的中文翻译校对版，旨在帮助中国开发者快速理解 CUDA 核心概念与编程模型。本项目主要提供文档阅读支持，无需安装额外的“工具包”，但需配置标准的 NVIDIA CUDA 开发环境以运行示例代码。\n\n## 环境准备\n\n在开始阅读和实践之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux (Ubuntu\u002FCentOS), Windows 10\u002F11, 或 macOS (仅限部分功能)。\n*   **硬件要求**：拥有一块支持 CUDA 的 NVIDIA GPU（详见文档附录 A）。\n*   **前置依赖**：\n    *   **NVIDIA 驱动**：需安装与目标 CUDA 版本匹配的显卡驱动。\n    *   **CUDA Toolkit**：用于编译和运行 CUDA 程序的核心工具集。\n    *   **编译器**：Linux\u002FmacOS 需安装 `gcc`\u002F`clang`，Windows 需安装 MSVC。\n\n> **国内加速建议**：\n> 下载 CUDA Toolkit 时，推荐访问 [NVIDIA 中国开发者官网](https:\u002F\u002Fdeveloper.nvidia.cn\u002Fcuda-toolkit) 或使用清华大学开源软件镜像站获取安装包，以获得更快的下载速度。\n\n## 安装步骤\n\n以下以 Ubuntu Linux 为例，展示如何安装 CUDA Toolkit（其他系统请参考官方安装指南）：\n\n1.  **添加仓库密钥**：\n    ```bash\n    wget https:\u002F\u002Fdeveloper.download.nvidia.com\u002Fcompute\u002Fcuda\u002Frepos\u002Fubuntu2204\u002Fx86_64\u002Fcuda-keyring_1.1-1_all.deb\n    sudo dpkg -i cuda-keyring_1.1-1_all.deb\n    ```\n\n2.  **更新包索引并安装**：\n    ```bash\n    sudo apt-get update\n    sudo apt-get -y install cuda-toolkit-12-0\n    ```\n    *(注：版本号 `12-0` 可根据实际需求替换)*\n\n3.  **配置环境变量**：\n    将以下内容添加到 `~\u002F.bashrc` 或 `~\u002F.zshrc` 末尾：\n    ```bash\n    export PATH=\u002Fusr\u002Flocal\u002Fcuda\u002Fbin:$PATH\n    export LD_LIBRARY_PATH=\u002Fusr\u002Flocal\u002Fcuda\u002Flib64:$LD_LIBRARY_PATH\n    ```\n    使配置生效：\n    ```bash\n    source ~\u002F.bashrc\n    ```\n\n4.  **验证安装**：\n    ```bash\n    nvcc --version\n    nvidia-smi\n    ```\n\n## 基本使用\n\n本项目的核心价值在于提供高质量的中文文档供查阅。要实践文档中的知识，您可以编写一个简单的 CUDA 程序。\n\n### 1. 创建测试文件\n新建一个名为 `hello_cuda.cu` 的文件，内容如下：\n\n```cpp\n#include \u003Cstdio.h>\n\n__global__ void helloFromGPU() {\n    printf(\"Hello from GPU thread %d!\\n\", threadIdx.x);\n}\n\nint main() {\n    printf(\"Hello from CPU!\\n\");\n    \n    \u002F\u002F 启动内核，开启 5 个线程\n    helloFromGPU\u003C\u003C\u003C1, 5>>>();\n    \n    \u002F\u002F 等待 GPU 执行完毕\n    cudaDeviceSynchronize();\n    \n    return 0;\n}\n```\n\n### 2. 编译代码\n使用 `nvcc` 编译器进行编译：\n\n```bash\nnvcc -o hello_cuda hello_cuda.cu\n```\n\n### 3. 运行程序\n执行生成的二进制文件：\n\n```bash\n.\u002Fhello_cuda\n```\n\n**预期输出**：\n```text\nHello from CPU!\nHello from GPU thread 0!\nHello from GPU thread 1!\nHello from GPU thread 2!\nHello from GPU thread 3!\nHello from GPU thread 4!\n```\n\n### 4. 结合本手册学习\n运行上述示例后，您可以打开本项目中的 **[第二章 CUDA 编程模型概述](第 2 章 CUDA 编程模型概述\u002F第二章 CUDA 编程模型概述.md)**，对照代码深入理解 `__global__`、`\u003C\u003C\u003C >>>` 执行配置以及线程层级结构等核心概念。随着学习深入，可依次阅读后续章节及已校对的附录内容。","某国内自动驾驶团队的算法工程师正在尝试优化激光雷达点云处理内核，急需深入理解 CUDA 内存模型以提升数据吞吐量。\n\n### 没有 CUDA-Programming-Guide-in-Chinese 时\n- 面对官方英文原版手册中晦涩的长难句和复杂的被动语态，工程师需反复查阅词典，严重拖慢了对“统一内存”机制的理解进度。\n- 关键术语如\"Cooperative Groups\"或\"Stream Ordered Memory\"缺乏统一译法，团队内部沟通时经常因概念歧义产生误解，导致代码逻辑错误。\n- 在排查性能瓶颈时，由于难以快速定位硬件实现章节中关于缓存层级（Cache Hierarchy）的细节描述，调优工作陷入停滞，项目交付面临延期风险。\n\n### 使用 CUDA-Programming-Guide-in-Chinese 后\n- 借助经过细致校对的中文译文，工程师能流畅阅读第五章性能指南，迅速掌握零拷贝内存的使用技巧，将数据传输延迟降低了 40%。\n- 项目中所有关键技术术语均采用标准化中文表述，团队成员在代码评审和技术讨论中能精准对齐概念，协作效率显著提升。\n- 通过目录清晰索引到第四章硬件实现部分，开发人员快速理解了 SM 架构下的指令发射机制，成功重构了内核代码，使点云处理帧率满足实时性要求。\n\nCUDA-Programming-Guide-in-Chinese 消除了语言壁垒，让中国开发者能直接汲取底层硬件知识的核心养分，大幅缩短高性能计算应用的研发周期。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHeKun-NVIDIA_CUDA-Programming-Guide-in-Chinese_4d7fd766.png","HeKun-NVIDIA","NVIDIA-Ken","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHeKun-NVIDIA_87049869.jpg",null,"NVIDIA","https:\u002F\u002Fgithub.com\u002FHeKun-NVIDIA",1934,283,"2026-04-15T07:01:58","","未说明",{"notes":88,"python":86,"dependencies":89},"本项目为 CUDA C Programming Guide 的中文翻译文档（Markdown 格式），不涉及软件运行环境、依赖库或硬件资源需求。用户仅需使用支持 Markdown 的阅读器或浏览器即可查看内容。",[],[18],"2026-03-27T02:49:30.150509","2026-04-16T03:29:36.807760",[],[]]