[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-NVIDIA-developer-blog--code-samples":3,"tool-NVIDIA-developer-blog--code-samples":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85267,2,"2026-04-18T11:00:28",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75916,"2026-04-19T10:54:02",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":123,"forks":124,"last_commit_at":125,"license":126,"difficulty_score":46,"env_os":79,"env_gpu":127,"env_ram":128,"env_deps":129,"category_tags":132,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":133,"updated_at":134,"faqs":135,"releases":164},9615,"NVIDIA-developer-blog\u002Fcode-samples","code-samples","Source code examples from the Parallel Forall Blog","code-samples 是 NVIDIA 官方整理的并行计算代码示例库，源自其知名的\"Parallel Forall\"技术博客。它汇集了涵盖 CUDA、OpenACC、Python 及 MATLAB 等多种语言的实战源码，旨在帮助开发者跨越理论与实践的鸿沟。\n\n在高性能计算领域，许多开发者往往难以将复杂的并行加速概念转化为实际可运行的代码。code-samples 通过提供经过验证的具体案例，直观展示了如何利用 GPU 加速处理密集计算任务，有效解决了学习曲线陡峭和落地难的问题。无论是希望优化算法性能的资深工程师，还是正在探索并行编程的学生与研究人员，都能从中找到适合的学习素材。\n\n该资源库的独特亮点在于其内容紧密跟随 NVIDIA 最新的技术动态，不仅包含基础的 OpenACC 指令编程演示，还覆盖了多语言混合编程等进阶场景。所有示例均基于宽松的 BSD 开源协议发布，用户可以自由查看、修改并集成到自己的项目中。对于想要深入理解 GPU 架构、掌握现代并行开发技巧的技术人员而言，code-samples 是一份不可多得的实用指南，能帮助你在提升程序运行效率的道路上少走弯路。","Parallel Forall Code Samples\n============================\n\nThis repository contains CUDA, OpenACC, Python, MATLAB, and other source code examples from the NVIDIA [Parallel Forall Blog](http:\u002F\u002Fdeveloper.nvidia.com\u002Fparallel-forall).\n\nLicense\n-------\n\nThese examples are released under the BSD open source license.  Refer to license.txt in this directory for full details.\n\nList of Code Samples\n--------------------\nposts\u002F002-openacc-example: An example of [OpenACC Directives programming].\n","并行forall 代码示例\n============================\n\n本仓库包含来自 NVIDIA [Parallel Forall 博客](http:\u002F\u002Fdeveloper.nvidia.com\u002Fparallel-forall) 的 CUDA、OpenACC、Python、MATLAB 等源代码示例。\n\n许可证\n-------\n\n这些示例采用 BSD 开源许可证发布。完整详情请参阅此目录下的 license.txt 文件。\n\n代码示例列表\n--------------------\nposts\u002F002-openacc-example：[OpenACC 指令式编程] 的示例。","# code-samples 快速上手指南\n\n本仓库收录了来自 NVIDIA Parallel Forall 博客的 CUDA、OpenACC、Python、MATLAB 等源代码示例。以下指南以 `posts\u002F002-openacc-example`（OpenACC 指令编程示例）为例，帮助您快速运行代码。\n\n## 环境准备\n\n*   **操作系统**：Linux (推荐 Ubuntu\u002FCentOS) 或 Windows (需安装 WSL2)。\n*   **硬件要求**：配备支持 OpenACC 的 NVIDIA GPU。\n*   **编译器**：必须安装 **NVIDIA HPC SDK** (包含 `nvc`, `nvc++`, `nvfortran`) 或较新版本的 **GCC** (配合支持 OpenACC 的插件，但官方示例通常针对 NVCC\u002FNVHPC 优化)。\n    *   *建议*：直接下载并安装 [NVIDIA HPC SDK](https:\u002F\u002Fdeveloper.nvidia.com\u002Fhpc-sdk)，这是运行此类示例最稳定的环境。\n*   **依赖项**：\n    *   Git\n    *   Make (通常预装)\n\n> **国内加速提示**：\n> *   安装 Git 时可配置使用 Gitee 镜像或调整 DNS。\n> *   下载 NVIDIA HPC SDK 时，若官网速度慢，可尝试寻找国内高校镜像站或阿里云\u002F腾讯云镜像源中的 NVIDIA 软件包。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    使用以下命令将代码下载到本地：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcode-samples.git\n    cd code-samples\n    ```\n\n2.  **配置编译器环境变量**\n    如果您安装了 NVIDIA HPC SDK，需要将其添加到环境变量中（路径根据实际安装位置调整，以下为默认路径示例）：\n    ```bash\n    source \u002Fopt\u002Fnvidia\u002Fhpc_sdk\u002FLinux_x86_64\u002F2023\u002Fcompilers\u002Fbin\u002Fcompilervars.sh\n    ```\n    *注：请根据您安装的版本年份和架构修改上述路径。*\n\n3.  **进入示例目录**\n    跳转到具体的 OpenACC 示例文件夹：\n    ```bash\n    cd posts\u002F002-openacc-example\n    ```\n\n## 基本使用\n\n本示例通常包含一个 `Makefile`，用于简化编译过程。\n\n1.  **编译项目**\n    使用 `make` 命令进行编译。确保当前终端已加载支持 OpenACC 的编译器（如 `nvc` 或 `nvcc`）：\n    ```bash\n    make\n    ```\n    *如果 Makefile 默认使用 gcc，您可能需要手动指定编译器，例如：*\n    ```bash\n    make CC=nvc CFLAGS=\"-acc -gpu=managed\"\n    ```\n\n2.  **运行程序**\n    编译成功后，执行生成的二进制文件（文件名通常在 Makefile 中定义，常见为 `main` 或示例特定名称）：\n    ```bash\n    .\u002Fmain\n    ```\n    或者查看目录下的可执行文件并运行：\n    ```bash\n    ls -l\n    .\u002F\u003C可执行文件名>\n    ```\n\n3.  **验证输出**\n    程序运行后，终端应输出计算结果及性能相关信息（如内核执行时间），表明 OpenACC 指令已成功在 GPU 上并行执行。","某高校计算物理实验室的研究团队正尝试将原本运行在 CPU 上的大规模流体动力学模拟迁移至 NVIDIA GPU，以加速实验数据的处理效率。\n\n### 没有 code-samples 时\n- 团队成员需从零开始查阅晦涩的 OpenACC 官方文档，难以快速理解指令在真实代码中的具体语法和位置。\n- 在编写并行循环时，因缺乏标准参考模板，频繁出现数据竞争或内存访问模式错误，导致程序崩溃或结果不准确。\n- 调试过程极其耗时，开发者无法区分是算法逻辑错误还是并行化指令使用不当，排查问题如同“盲人摸象”。\n- 团队内部对并行化最佳实践缺乏统一认知，不同成员编写的代码风格迥异，后期维护与合并代码成本高昂。\n\n### 使用 code-samples 后\n- 直接复用 `posts\u002F002-openacc-example` 中的成熟案例，团队成员能立即掌握 OpenACC 指令在实际循环中的正确写法。\n- 参照官方提供的内存管理与数据映射示例，迅速修正了原有的数据竞争问题，确保模拟结果的数值稳定性。\n- 利用现成的可运行代码作为“基准测试”，快速定位自身代码的逻辑偏差，将调试周期从数天缩短至几小时。\n- 基于官方示例建立团队内部的编码规范，统一了并行化实现路径，显著提升了代码的可读性与协作效率。\n\ncode-samples 通过将抽象的并行理论转化为可执行的工业级代码范例，极大地降低了高性能计算的开发门槛与试错成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA-developer-blog_code-samples_6a533c2e.png","NVIDIA-developer-blog","NVIDIA Developer Blog","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNVIDIA-developer-blog_84b68253.png","",null,"http:\u002F\u002Fdevblogs.nvidia.com\u002F","https:\u002F\u002Fgithub.com\u002FNVIDIA-developer-blog",[84,88,92,96,100,104,108,112,116,119],{"name":85,"color":86,"percentage":87},"HTML","#e34c26",28.2,{"name":89,"color":90,"percentage":91},"Cuda","#3A4E3A",25.9,{"name":93,"color":94,"percentage":95},"C","#555555",17.8,{"name":97,"color":98,"percentage":99},"C++","#f34b7d",9.6,{"name":101,"color":102,"percentage":103},"Makefile","#427819",4.3,{"name":105,"color":106,"percentage":107},"MATLAB","#e16737",3.5,{"name":109,"color":110,"percentage":111},"JavaScript","#f1e05a",3.1,{"name":113,"color":114,"percentage":115},"Jupyter Notebook","#DA5B0B",2.2,{"name":117,"color":118,"percentage":10},"CSS","#663399",{"name":120,"color":121,"percentage":122},"Python","#3572A5",1.2,1327,643,"2026-04-13T14:33:48","BSD-3-Clause","需要 NVIDIA GPU（支持 CUDA 或 OpenACC），具体型号、显存大小及 CUDA 版本未说明","未说明",{"notes":130,"python":128,"dependencies":131},"该仓库包含来自 NVIDIA Parallel Forall 博客的 CUDA、OpenACC、Python、MATLAB 等多种语言的代码示例。具体运行环境需求因示例而异，请参考各个子目录（如 posts\u002F002-openacc-example）中的详细说明。代码基于 BSD 开源许可证发布。",[],[18],"2026-03-27T02:49:30.150509","2026-04-20T04:04:32.402716",[136,141,146,151,156,160],{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},43158,"为什么在同一节点上使用 CUDA-aware MPI 的性能反而比普通 MPI 慢，或者测得的带宽异常高？","这通常是因为 NVLINK (GPUDirect P2P via CUDA IPC) 未被正确启用。如果未启用，CUDA-aware MPI 会通过 CPU 内存进行数据暂存（staging），导致性能下降甚至低于普通 MPI。建议使用 NSight Systems 对代码进行性能分析，检查 MPI 调用期间是否发生了预期的直接 GPU 通信。此外，确保您的 MPI 实现已编译支持 CUDA 和 OpenFabrics (ofi)，并正确设置了 `CUDA_VISIBLE_DEVICES` 环境变量。","https:\u002F\u002Fgithub.com\u002FNVIDIA-developer-blog\u002Fcode-samples\u002Fissues\u002F41",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},43159,"在使用较新版本的 GCC (如 GCC 11+) 编译 CUDA 代码时，遇到 'attribute \"__malloc__\" does not take arguments' 错误怎么办？","这是由于 GCC 版本与 CUDA 版本不兼容导致的。旧版本的 CUDA Toolkit 不支持 GCC 11 及以上版本。解决方法是升级您的 CUDA Toolkit 到支持该 GCC 版本的较新版本（例如 CUDA 11.5+ 通常支持更新的编译器），或者降级您的系统 GCC\u002Fg++ 编译器以匹配当前安装的 CUDA 版本要求。","https:\u002F\u002Fgithub.com\u002FNVIDIA-developer-blog\u002Fcode-samples\u002Fissues\u002F47",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},43160,"编译 CUDA 项目时出现 CUB 库版本冲突或 'function template has already been defined' 错误如何解决？","这通常是因为系统中同时存在多个版本的 CUB 库（例如 CUDA Toolkit 自带的版本和项目本地包含的版本）导致命名空间冲突。请检查您的包含路径顺序，确保优先使用 CUDA Toolkit 自带的 CUB，或者移除项目中重复引用的 CUB 副本。如果问题持续，建议清理构建目录并重新配置 CMake，确保只链接一个一致的 CUB 版本。","https:\u002F\u002Fgithub.com\u002FNVIDIA-developer-blog\u002Fcode-samples\u002Fissues\u002F48",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},43161,"在 TensorRT 示例代码中编译报错 'exp was not declared in this scope' 是什么原因？","这是因为代码中使用了 `exp` 函数但未包含相应的数学头文件。请在源文件顶部添加 `#include \u003Ccmath>` (对于 C++) 或 `#include \u003Cmath.h>` (对于 C) 来声明该函数。这是标准的 C++ 编译错误，修复头文件引用后即可解决。","https:\u002F\u002Fgithub.com\u002FNVIDIA-developer-blog\u002Fcode-samples\u002Fissues\u002F17",{"id":157,"question_zh":158,"answer_zh":159,"source_url":150},43162,"关于 CUDA 编程中的 Bank Conflict：不同 Warp 中的线程访问共享内存同一 Bank 的不同地址会产生冲突吗？影响大吗？","是的，即使来自不同的 Warp，如果多个线程同时访问共享内存的同一个 Bank（即使是不同的地址），也会发生 Bank Conflict。然而，在某些特定场景下（如非阻塞式访问或硬件能够隐藏延迟时），这种冲突造成的额外延迟可能不如同一 Warp 内的冲突那么严重，但原则上仍应避免。最佳实践是设计内存访问模式，确保同一时刻访问同一 Bank 的线程数最小化（理想为 1）。",{"id":161,"question_zh":162,"answer_zh":163,"source_url":150},43163,"GitHub Issues 是否适合询问具体的 CUDA 编程错误或寻求代码调试帮助？","不适合。该项目的 GitHub Issues 主要用于报告代码样本本身的 Bug 或文档问题，而不是作为通用的编程帮助论坛。如果您遇到具体的编译错误、逻辑问题或需要性能优化建议，请访问 NVIDIA 官方开发者论坛 (forums.developer.nvidia.com) 或 Stack Overflow 提问，那里有更活跃的社区和专家能提供详细解答。",[]]