[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-baaivision--EVA":3,"tool-baaivision--EVA":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":23,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75097,"2026-04-07T22:51:14",[15,26,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":112,"forks":113,"last_commit_at":114,"license":115,"difficulty_score":23,"env_os":116,"env_gpu":116,"env_ram":116,"env_deps":117,"category_tags":123,"github_topics":124,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":128,"updated_at":129,"faqs":130,"releases":169},5287,"baaivision\u002FEVA","EVA","EVA Series: Visual Representation Fantasies from BAAI","EVA 是由北京智源人工智能研究院（BAAI）推出的一系列前沿视觉表示学习模型，旨在探索大规模掩码视觉预训练的极限。它主要解决了传统视觉模型在数据规模扩大时遇到的性能瓶颈问题，通过创新的训练策略，显著提升了图像理解、分类及多模态匹配任务的准确率与泛化能力。\n\n从专注于自监督学习的 EVA-01，到被誉为“新纪元”视觉表示的 EVA-02，再到参数量高达 180 亿的超大规模多模态模型 EVA-CLIP-18B，该系列不断刷新行业标杆。其独特技术亮点在于高效的大规模掩码建模机制以及改进的 CLIP 训练技巧，能够在海量数据上实现更优的特征提取与图文对齐效果。\n\nEVA 非常适合计算机视觉领域的研究人员、算法工程师以及希望构建高性能 AI 应用的开发者使用。无论是进行学术探索、微调定制模型，还是将其集成到实际产品中，EVA 都提供了成熟的预训练权重，并友好地支持 Hugging Face 和 timm 等主流开源框架，帮助用户轻松上手并快速验证想法。","\u003Cdiv align=\"center\">\n\n\u003Ch2>EVA: Visual Representation Fantasies from BAAI\u003C\u002Fh2>\n\n\u003C\u002Fdiv>\n\n![summary_tab](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_EVA_readme_4c603236ff95.png)\n\n\n\n- [**EVA-01**](EVA-01) (CVPR 2023, 🌟highlight🌟) - Exploring the Limits of Masked Visual Representation Learning at Scale\n\n- [**EVA-02**](EVA-02) (Image and Vision Computing) - A Visual Representation for Neon Genesis\n\n- [**EVA-CLIP**](EVA-CLIP) (Arxiv 2023) - Improved Training Techniques for CLIP at Scale\n\n- [**EVA-CLIP-18B**](EVA-CLIP-18B) (Arxiv 2024) - EVA-CLIP-18B: Scaling CLIP to 18 Billion Parameters\n  \n- [**EVA @ Hugging Face 🤗 & `timm`**](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva02_large_patch14_448.mim_m38m_ft_in1k)\n\n- [**EVA-CLIP @ Hugging Face 🤗 & `timm`**](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva02_enormous_patch14_plus_clip_224.laion2b_s9b_b144k)\n\n- [**EVA-CLIP @ `open_clip`**](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip\u002Fblob\u002Fmain\u002Fsrc\u002Fopen_clip\u002Fmodel_configs\u002FEVA02-E-14-plus.json) \n\n\n\n## Contact\n- **We are hiring** at all levels at BAAI Vision Team, including full-time researchers, engineers and interns. \nIf you are interested in working with us on **foundation model, self-supervised learning and multimodal learning**, please contact [Xinlong Wang](https:\u002F\u002Fwww.xloong.wang\u002F) (`wangxinlong@baai.ac.cn`).\n\n\n## License\n\nThe content of this project itself is licensed under [LICENSE](LICENSE).\n\n\n## Misc\n\n\u003Cdiv align=\"center\">\n\n\n[![Stargazers repo roster for @baaivision\u002FEVA](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_EVA_readme_1f596bd526e3.png)](https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fstargazers)\n\n[![Forkers repo roster for @baaivision\u002FEVA](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_EVA_readme_bae842bf717c.png)](https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fnetwork\u002Fmembers)\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_EVA_readme_5c37c2c4f1e2.png)](https:\u002F\u002Fstar-history.com\u002F#baaivision\u002FEVA&Date)\n\n\u003C\u002Fdiv>\n","\u003Cdiv align=\"center\">\n\n\u003Ch2>EVA：来自BAAI的视觉表征幻想\u003C\u002Fh2>\n\n\u003C\u002Fdiv>\n\n![summary_tab](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_EVA_readme_4c603236ff95.png)\n\n\n\n- [**EVA-01**](EVA-01)（CVPR 2023，🌟亮点🌟）——探索大规模掩码视觉表征学习的极限\n\n- [**EVA-02**](EVA-02)（图像与视觉计算）——新世纪福音战士的视觉表征\n\n- [**EVA-CLIP**](EVA-CLIP)（Arxiv 2023）——CLIP大规模训练的改进技术\n\n- [**EVA-CLIP-18B**](EVA-CLIP-18B)（Arxiv 2024）——EVA-CLIP-18B：将CLIP扩展至180亿参数\n\n- [**EVA 在 Hugging Face 🤗 和 `timm` 上**](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva02_large_patch14_448.mim_m38m_ft_in1k)\n\n- [**EVA-CLIP 在 Hugging Face 🤗 和 `timm` 上**](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva02_enormous_patch14_plus_clip_224.laion2b_s9b_b144k)\n\n- [**EVA-CLIP 在 `open_clip` 上**](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip\u002Fblob\u002Fmain\u002Fsrc\u002Fopen_clip\u002Fmodel_configs\u002FEVA02-E-14-plus.json) \n\n\n\n## 联系方式\n- BAAI 视觉团队各层级均在招聘，包括全职研究员、工程师及实习生。  \n如果您对**基础模型、自监督学习和多模态学习**感兴趣，请联系[Xinlong Wang](https:\u002F\u002Fwww.xloong.wang\u002F)（`wangxinlong@baai.ac.cn`）。\n\n\n## 许可证\n\n本项目的内容本身采用[LICENSE](LICENSE)许可证授权。\n\n\n## 杂项\n\n\u003Cdiv align=\"center\">\n\n\n[[@baaivision\u002FEVA 的点赞者名单](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_EVA_readme_1f596bd526e3.png)](https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fstargazers)\n\n[[@baaivision\u002FEVA 的叉子名单](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_EVA_readme_bae842bf717c.png)](https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fnetwork\u002Fmembers)\n\n[![星数历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_EVA_readme_5c37c2c4f1e2.png)](https:\u002F\u002Fstar-history.com\u002F#baaivision\u002FEVA&Date)\n\n\u003C\u002Fdiv>","# EVA 快速上手指南\n\nEVA 是由北京智源人工智能研究院（BAAI）推出的一系列高性能视觉表示学习模型，涵盖从掩码图像建模（EVA-01\u002F02）到大规模多模态对比学习（EVA-CLIP）的完整技术栈。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+) 或 macOS\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 支持 CUDA 的 NVIDIA GPU（用于推理和训练加速）\n*   **核心依赖**:\n    *   PyTorch >= 1.10\n    *   `timm` (PyTorch Image Models)\n    *   `transformers` (可选，用于部分多模态任务)\n\n> **国内加速建议**：推荐使用清华或阿里镜像源安装 Python 依赖，以提升下载速度。\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch torchvision torchaudio\n> ```\n\n## 安装步骤\n\nEVA 系列模型已深度集成到主流的 `timm` 和 `open_clip` 库中，无需克隆整个仓库即可直接使用。\n\n### 1. 安装基础依赖库\n\n安装最新版的 `timm` 以支持 EVA-01\u002FEVA-02 图像分类模型：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple timm\n```\n\n若需使用 EVA-CLIP 多模态模型，建议安装 `open_clip`：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple open-clip-torch\n```\n\n### 2. 验证安装\n\n确保库已正确安装且无版本冲突：\n\n```bash\npython -c \"import timm; print(timm.__version__)\"\n```\n\n## 基本使用\n\n以下示例展示如何加载预训练的 EVA 模型并进行简单的图像推理。\n\n### 场景一：使用 EVA-02 进行图像分类\n\n利用 `timm` 加载在 ImageNet-1K 上微调过的 EVA-02 Large 模型：\n\n```python\nimport torch\nfrom PIL import Image\nimport timm\nfrom timm.data import resolve_data_config\nfrom timm.data.transforms_factory import create_transform\n\n# 1. 加载模型 (自动下载权重)\nmodel = timm.create_model('eva02_large_patch14_448.mim_m38m_ft_in1k', pretrained=True)\nmodel.eval()\n\n# 2. 准备图像预处理\nconfig = resolve_data_config({}, model=model)\ntransform = create_transform(**config)\n\n# 3. 推理示例\nimage = Image.open('your_image.jpg').convert('RGB')\ninput_tensor = transform(image).unsqueeze(0)\n\nwith torch.no_grad():\n    output = model(input_tensor)\n    probabilities = torch.nn.functional.softmax(output[0], dim=0)\n    \nprint(\"Top-5 Predictions:\")\ntop5_prob, top5_catid = torch.topk(probabilities, 5)\nfor i in range(top5_prob.size(0)):\n    # 获取标签名称需要额外的 imagenet 标签映射，此处仅输出概率和类别 ID\n    print(f\"Class ID: {top5_catid[i].item()}, Probability: {top5_prob[i].item():.4f}\")\n```\n\n### 场景二：使用 EVA-CLIP 进行图文检索\n\n利用 `open_clip` 加载 EVA-CLIP 模型进行零样本分类或特征提取：\n\n```python\nimport torch\nimport clip\nfrom PIL import Image\n\n# 1. 加载 EVA-CLIP 模型\n# 注意：需确保 open_clip 已正确配置 EVA02-E-14-plus 架构\nmodel, preprocess = clip.load(\"EVA02-E-14-plus\", device=\"cuda\" if torch.cuda.is_available() else \"cpu\")\n\nmodel.eval()\n\n# 2. 准备输入\nimage = preprocess(Image.open(\"your_image.jpg\")).unsqueeze(0).to(model.device)\ntext = clip.tokenize([\"a photo of a cat\", \"a photo of a dog\"]).to(model.device)\n\n# 3. 计算特征并匹配\nwith torch.no_grad():\n    image_features = model.encode_image(image)\n    text_features = model.encode_text(text)\n    \n    # 计算余弦相似度\n    logits_per_image, logits_per_text = model.get_similarity(image_features, text_features)\n    probs = logits_per_image.softmax(dim=-1).cpu().numpy()\n\nprint(\"Label probabilities:\", probs)\n```\n\n> **提示**：更多预训练模型权重可直接在 Hugging Face (`timm` 组织下) 查找，例如 `eva02_enormous_patch14_plus_clip_224.laion2b_s9b_b144k`。","某电商平台的算法团队正致力于升级其商品图像检索系统，以支持用户通过上传照片精准查找相似款式的服装。\n\n### 没有 EVA 时\n- **小样本识别率低**：面对新款或小众设计的服装，传统模型因训练数据不足，难以提取有效特征，导致搜不到或推荐不相关。\n- **细粒度区分能力弱**：对于领口形状、纽扣样式等细微差异，旧模型往往无法捕捉，容易将不同款式的衣服误判为相同。\n- **跨模态对齐困难**：在尝试结合文本描述（如“复古碎花长裙”）进行混合搜索时，图像与文本的特征空间对齐效果差，检索精度大幅下降。\n- **推理成本高昂**：为了勉强提升准确率，团队不得不堆叠多个专用小模型，导致服务器资源占用高，响应延迟严重。\n\n### 使用 EVA 后\n- **强泛化特征提取**：借助 EVA-02 在大规模无标签数据上的自监督学习能力，即使面对极少样本的新品，也能生成鲁棒的视觉表示，显著提升召回率。\n- **极致细节感知**：EVA 系列模型对高频细节的敏感度极高，能精准区分微小的设计差异，确保推荐结果在款式上高度一致。\n- **原生多模态协同**：利用 EVA-CLIP-18B 的强大对齐能力，直接实现高质量的图文互搜，用户用自然语言描述即可精准定位目标商品。\n- **单一模型高效部署**：一个预训练好的 EVA 大模型即可替代原有复杂的模型组合，在降低显存占用的同时，将平均检索延迟降低了 40%。\n\nEVA 通过突破性的视觉表示学习，让电商检索系统具备了“看懂细节”与“理解语义”的双重能力，大幅提升了用户体验与转化效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_EVA_a40cf0a8.png","baaivision","BAAI-Vision","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbaaivision_24920407.png","Foundation model fanatics from BAAI.",null,"https:\u002F\u002Fgithub.com\u002Fbaaivision",[82,86,90,94,98,101,105,109],{"name":83,"color":84,"percentage":85},"Python","#3572A5",94.4,{"name":87,"color":88,"percentage":89},"Cuda","#3A4E3A",3.2,{"name":91,"color":92,"percentage":93},"C++","#f34b7d",1.9,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0.2,{"name":99,"color":100,"percentage":97},"Jupyter Notebook","#DA5B0B",{"name":102,"color":103,"percentage":104},"Dockerfile","#384d54",0.1,{"name":106,"color":107,"percentage":108},"Makefile","#427819",0,{"name":110,"color":111,"percentage":108},"CMake","#DA3434",2661,187,"2026-04-03T03:56:55","MIT","未说明",{"notes":118,"python":116,"dependencies":119},"README 主要提供了模型介绍、论文链接及 Hugging Face\u002Ftimm\u002Fopen_clip 的集成入口，未包含具体的本地运行环境配置（如操作系统、GPU 型号、显存、Python 版本等）。用户需参考链接指向的子项目（如 EVA-01, EVA-CLIP）或 timm\u002Fopen_clip 官方文档获取详细依赖和硬件需求。",[120,121,122],"timm","open_clip","torch",[15],[125,126,127],"foundation-models","representation-learning","vision-transformer","2026-03-27T02:49:30.150509","2026-04-08T09:23:09.551332",[131,136,140,145,150,154,159,164],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},23962,"如何加载预训练的 EVA-02 模型并进行推理？输入格式是什么？","加载预训练模型时，请确保模型架构定义与检查点（checkpoint）中的参数形状完全匹配。如果遇到形状不匹配错误（如 `size mismatch`），通常是因为使用了错误的模型初始化函数或检查点版本。对于 EVA-02，建议直接参考官方发布的 EVA-CLIP 模型库（涵盖 150M 到 4.7B 各种规模），其中包含了权重和推理代码。具体模型卡和推理代码请参阅：https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Ftree\u002Fmaster\u002FEVA-CLIP#model-card","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fissues\u002F56",{"id":137,"question_zh":138,"answer_zh":139,"source_url":135},23963,"EVA-02 能否生成注意力图（Attention Map）或 Grad-CAM？","虽然 Issue 中未提供直接的代码实现，但维护者指出可以通过使用更高效的注意力机制（如 window attention）或结合 PyTorch 2.0+ 中的 Flash Attention \u002F SDPA 来优化显存和速度，从而辅助此类可视化任务的运行。对于具体的 Grad-CAM 实现，通常需要基于模型的输出特征图自行编写钩子（hook）来提取梯度信息，官方目前主要关注模型权重和基础推理代码的发布。",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},23964,"将大型 Vision Transformer（如 ViT-g）蒸馏到小型模型（如 ViT-B）的最佳方法是什么？","对于较小规模的模型蒸馏，官方建议参考 EVA-02 项目页面获取最新实践：https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Ftree\u002Fmaster\u002FEVA-02。此外，团队已尝试通过重建 EVA-CLIP-g 视觉特征来预训练 ViT 模型，结果显示前景良好。常见的蒸馏策略包括使用 MIM（掩码图像建模）作为预训练任务，或使用类似 DeiT 的蒸馏 token，以及基于响应或特征的经典蒸馏方法。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fissues\u002F25",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},23965,"EVA 预训练中教师模型的选择对结果有何影响？可以用监督模型替代 CLIP 吗？","教师模型的性能直接影响学生模型的上限。官方实验表明，使用强大的 EVA-CLIP 视觉分支（如 1.0B 参数模型）作为教师，对 vanilla ViT-L 进行 MIM 预训练，微调后在 ImageNet-1K 上可达到 89.2% 的 Top-1 准确率。虽然理论上可以使用在 IN21k 上训练的监督模型作为教师，但官方主要推荐并验证了使用 CLIP 类模型作为特征目标的效果。更多细节和不同规模的模型请参考：https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Ftree\u002Fmaster\u002FEVA-CLIP#model-card","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fissues\u002F28",{"id":151,"question_zh":152,"answer_zh":153,"source_url":149},23966,"为什么选择 ViT 而不是 SwinTransformer 作为骨干网络？ViT 有哪些优良特性？","尽管有研究指出缩放 ViT 模型可能导致 fp16 训练不稳定（如前向溢出或后向下溢），但 ViT 仍因其架构的简洁性和可扩展性被选为骨干。针对速度和显存问题，官方建议利用现代优化技术，如 xFormer、Flash Attention 或 PyTorch 2.0+ 中的 SDPA（Scaled Dot Product Attention），这些技术能有效解决全局注意力机制的效率瓶颈，使得 ViT 在大规模训练中更具优势。",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},23967,"发布的 Object365 检测模型是使用哪个版本的数据集训练的？","官方使用的 Object365 数据集并非标准的 v1.0 (66 万张) 或 v2.0 (174 万张) 的简单子集，而是特定的版本。具体使用的数据集详情和下载链接请参见：https:\u002F\u002Fopen.baai.ac.cn\u002Fdata-set-detail\u002FMTI2NDc=\u002FMTA=\u002Ftrue。该数据集用于训练并在相应的验证集上进行评估。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fissues\u002F22",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},23968,"EVA 2.0 是否有应用于 CLIP 训练或扩展到巨型尺寸的计划？相关技术报告何时发布？","是的，EVA 2.0 已经应用于 CLIP 训练并扩展到了巨型尺寸。相关的技术报告已发布在 arXiv 上，地址为：https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.15389。此外，官方提供了从 150M 到 4.7B 各种规模的高性能 CLIP 模型权重及推理代码，详细信息可查看 EVA-CLIP 的 Model Card。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fissues\u002F41",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},23969,"带有窗口注意力（Window Attention）的 BEiT 模型在语义分割任务中的表现如何？相对位置偏置是如何初始化的？","关于在 Cityscapes 数据集上使用窗口注意力进行语义分割的实验，维护者表示尚未专门测试，但推测其可行性较高且性能下降可能很小（小于 1 个点）。针对全局注意力的速度和显存担忧，建议使用 xFormer、Flash Attention 或 PyTorch 2.0+ 的 SDPA。关于相对位置偏置，如果在架构中去除了 cls embedding 并调整了偏置数量，新的偏置通常会随机初始化，而不是从预训练权重中加载，除非进行了专门的迁移适配。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA\u002Fissues\u002F32",[170],{"id":171,"version":172,"summary_zh":173,"released_at":174},145518,"v0.1","EVA 0.1 版本发布","2023-02-06T06:16:47"]