[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-NVIDIA--Cosmos":3,"tool-NVIDIA--Cosmos":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,2,"2026-04-08T11:03:08",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75257,"2026-04-09T23:07:38",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":80,"stars":83,"forks":84,"last_commit_at":85,"license":80,"difficulty_score":86,"env_os":79,"env_gpu":87,"env_ram":87,"env_deps":88,"category_tags":91,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":92,"updated_at":93,"faqs":94,"releases":95},6012,"NVIDIA\u002FCosmos","Cosmos","New repo collection for NVIDIA Cosmos: https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos","NVIDIA Cosmos 是英伟达推出的全新开源项目集合，旨在为物理世界人工智能（Physical AI）和机器人技术的开发提供核心支持。它主要解决了开发者在构建具身智能系统时，缺乏高质量训练数据、仿真环境以及专用模型架构的痛点。通过整合先进的生成式 AI 技术，Cosmos 能够高效合成逼真的虚拟场景与传感器数据，帮助机器人在进入现实世界前完成大量低成本、高安全性的模拟训练，从而显著加速从算法研发到实际部署的进程。\n\n这套工具特别适合从事机器人学、自动驾驶、工业自动化领域的研究人员与工程师，同时也服务于需要构建高保真仿真环境的算法开发者。其独特的技术亮点在于深度融合了英伟达在图形渲染与大模型领域的优势，提供了包括视频生成模型、3D 资产创建工具链以及优化的推理框架在内的全套解决方案，让复杂的物理交互模拟变得更加触手可及。值得注意的是，原有的代码仓库已停止维护并归档，最新的技术进展与完整功能现已迁移至全新的官方组织页面（nvidia-cosmos），建议用户前往新地址获取最前沿的版本与文档支持。","\u003Cp align=\"center\">\n\u003Cimg \n  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_Cosmos_readme_f1a51975d200.png\" \n  alt=\"NVIDIA Cosmos Logo\" \n  width=\"500\"\n\u002F>\n\u003C\u002Fp>\n\u003Ch1 align=\"center\">\n  New GitHub page for \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos\">\u003Cb>NVIDIA Cosmos\u003C\u002Fb>\u003C\u002Fa>:\u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos\">\u003Cb>https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos\u003C\u002Fb>\u003C\u002Fa>\n\u003C\u002Fh1>\n\n**This repository has been deprecated and is no longer maintained.** To view the initial release of NVIDIA Cosmos from this repository, please check out branch `archived-ces2025`.\n","\u003Cp align=\"center\">\n\u003Cimg \n  src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_Cosmos_readme_f1a51975d200.png\" \n  alt=\"NVIDIA Cosmos Logo\" \n  width=\"500\"\n\u002F>\n\u003C\u002Fp>\n\u003Ch1 align=\"center\">\n  NVIDIA Cosmos 的新 GitHub 页面：\u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos\">\u003Cb>https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos\u003C\u002Fb>\u003C\u002Fa>\n\u003C\u002Fh1>\n\n**此仓库已被弃用，不再维护。** 如需查看该仓库中 NVIDIA Cosmos 的初始版本，请检出 `archived-ces2025` 分支。","# NVIDIA Cosmos 快速上手指南\n\n> **⚠️ 重要提示**\n> 当前仓库已**弃用（Deprecated）**且不再维护。NVIDIA Cosmos 项目已迁移至新的官方地址。\n> - **新仓库地址**：[https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos](https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos)\n> - **历史版本查看**：如需查看本仓库的初始发布版本，请切换至 `archived-ces2025` 分支。\n>\n> **以下指南基于新项目架构整理，请务必前往新仓库获取最新代码和模型。**\n\n---\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n### 系统要求\n- **操作系统**：Linux (推荐 Ubuntu 20.04\u002F22.04) 或 Windows with WSL2\n- **GPU**：NVIDIA GPU (建议显存 ≥ 24GB，支持 Ampere 架构或更高)\n- **驱动**：NVIDIA Driver 版本 ≥ 535\n- **CUDA**：CUDA Toolkit 12.x\n\n### 前置依赖\n- Python 3.10 或更高版本\n- Git\n- pip 或 conda (推荐使用 conda 管理环境)\n\n### 国内加速方案（可选）\n为提升下载速度，中国开发者可配置以下镜像源：\n- **PyPI**: `pip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n- **Hugging Face**: 设置环境变量 `export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com`\n\n---\n\n## 2. 安装步骤\n\n请前往新的官方仓库进行克隆和安装。\n\n### 第一步：克隆仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos\u002Fcosmos.git\ncd cosmos\n```\n\n### 第二步：创建虚拟环境\n```bash\nconda create -n cosmos python=3.10 -y\nconda activate cosmos\n```\n\n### 第三步：安装依赖\n根据项目最新的 `requirements.txt` 安装核心依赖：\n```bash\npip install -r requirements.txt\n```\n\n*注：若需使用特定推理加速库，请参考新仓库中的 `install.sh` 脚本或文档进行额外安装。*\n\n---\n\n## 3. 基本使用\n\n以下是一个最简单的文本生成视频（Text-to-Video）推理示例。请确保已下载对应的预训练模型权重。\n\n### 运行推理脚本\n```python\nfrom cosmos import CosmosPipeline\n\n# 初始化管道\npipeline = CosmosPipeline(\n    model_name=\"cosmos-1.0-diffusion-7b\",\n    device=\"cuda\"\n)\n\n# 生成视频\nprompt = \"A futuristic city with flying cars under a sunset sky.\"\nvideo_output = pipeline.generate(\n    prompt=prompt,\n    num_frames=128,\n    resolution=(720, 1280)\n)\n\n# 保存结果\nvideo_output.save(\"output_video.mp4\")\nprint(\"视频生成完成，已保存为 output_video.mp4\")\n```\n\n### 命令行快速测试\n如果项目提供了 CLI 工具，也可通过以下命令快速测试：\n```bash\npython infer.py --prompt \"A cat walking on the moon\" --output_dir .\u002Fresults\n```\n\n---\n\n**下一步建议**：\n请访问 [NVIDIA Cosmos 官方 GitHub](https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos) 查阅完整的模型列表、微调教程及高级 API 文档。","某自动驾驶研发团队正试图构建高保真的世界基础模型，以生成极端天气下的驾驶视频数据来训练感知算法。\n\n### 没有 Cosmos 时\n- 团队需手动收集并清洗海量异构视频数据，缺乏统一的预处理流水线，导致数据准备周期长达数周。\n- 训练大规模视频生成模型时，显存优化和分布式并行策略需从零编写，极易因代码错误导致训练中断或效率低下。\n- 生成的视频往往存在物理规律违背（如车辆穿模、光影突变），缺乏内置的物理一致性约束机制，数据可用性低。\n- 缺少针对机器人和自动驾驶领域的预训练权重，从头训练不仅算力成本高昂，且难以在短期内收敛到可用状态。\n- 仿真环境与真实世界数据之间存在巨大的“域差距”，模型泛化能力差，无法有效迁移到实车测试中。\n\n### 使用 Cosmos 后\n- 直接利用 Cosmos 提供的标准化数据处理工具链，快速将多源视频转化为高质量训练集，数据准备时间缩短至几天。\n- 调用内置的高效训练框架与优化算子，轻松管理千卡集群资源，显著提升了大模型训练的稳定性与吞吐量。\n- 借助 Cosmos 内嵌的物理世界先验知识，生成的视频在物体运动轨迹和光照变化上高度符合真实物理规律。\n- 加载官方发布的领域预训练模型进行微调，大幅降低了算力门槛，使团队能在有限资源下快速迭代出专用模型。\n- 通过 Cosmos 生成的合成数据有效填补了长尾场景空白，显著缩小了仿真与现实的域差距，提升了实车感知系统的鲁棒性。\n\nCosmos 通过提供从数据处理、模型训练到物理一致生成的全栈能力，将自动驾驶世界模型的构建门槛从“造轮子”降低为“搭积木”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_Cosmos_f1a51975.png","NVIDIA","NVIDIA Corporation","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNVIDIA_7dcf6000.png","",null,"https:\u002F\u002Fnvidia.com","https:\u002F\u002Fgithub.com\u002FNVIDIA",8096,516,"2026-04-09T10:37:28",5,"未说明",{"notes":89,"python":87,"dependencies":90},"该仓库已弃用且不再维护。如需查看 NVIDIA Cosmos 的初始版本，请切换至 'archived-ces2025' 分支或访问新的官方 GitHub 页面 (https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos)。当前 README 中不包含具体的运行环境需求信息。",[],[18],"2026-03-27T02:49:30.150509","2026-04-10T07:43:03.386450",[],[96],{"id":97,"version":98,"summary_zh":99,"released_at":100},180374,"Announcement-CES2026","CES 大会重磅消息 🥳 + Cosmos 满一岁 🎂\n\n[Cosmos Reason 2](https:\u002F\u002Fhuggingface.co\u002Fnvidia\u002FCosmos-Reason2-8B) 来了——我们最先进的物理 AI 理性推理视觉语言模型，现已登顶 [物理 AI 基准排行榜](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fshi-labs\u002Fphysical-ai-bench-leaderboard) 🏆\n\n**新特性：**\n\n- 更强大的物理推理与时空理解能力  \n- 提供 20 亿和 80 亿参数两种模型规模，部署灵活  \n- 支持超长上下文理解（最高可达 256K 个 token）  \n- 具备 2D\u002F3D 点位定位及轨迹数据的物体检测功能  \n- 推出全新 [Cosmos 烹饪手册](https:\u002F\u002Fnvda.ws\u002F4qevli8)，助您更快上手  \n\n**📖 阅读[完整博客](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fnvidia\u002Fnvidia-cosmos-reason-2-brings-advanced-reasoning) | 👉 下载 [Cosmos Reason 2](https:\u002F\u002Fhuggingface.co\u002Fnvidia\u002FCosmos-Reason2-8B) | 🧑🏻‍🍳 从 [Cosmos 烹饪手册](https:\u002F\u002Fnvda.ws\u002F4qevli8) 开始使用**\n\n除了 [Cosmos Reason 2](https:\u002F\u002Fhuggingface.co\u002Fnvidia\u002FCosmos-Reason2-8B) 之外，我们还发布了其他多项新更新，包括：\n\n- [Cosmos Predict 2.5](https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos\u002Fcosmos-predict2.5)——一款统一的 Text2World\u002FImage2World\u002FVideo2World 模型，基于 2 亿段视频片段训练而成，能够生成更高质量、对齐度更高的合成视频世界。\n- [Cosmos Transfer 2.5-2B](https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos\u002Fcosmos-transfer2.5)——轻量级、高保真度的世界到世界翻译模型，物理规则对齐更精准、幻觉现象更少，且在长视频中表现更加稳定。\n- [NVIDIA GR00T N1.6](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FIsaac-GR00T)——一个面向通用机器人学习与控制的开源机器人基础模型，现已在 Hugging Face 上发布，并与 [Cosmos Reason 1](https:\u002F\u002Fgithub.com\u002Fnvidia-cosmos\u002Fcosmos-reason1) 完全集成。","2026-01-06T01:52:23"]