[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Nutlope--llamatutor":3,"tool-Nutlope--llamatutor":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},6590,"gpt4all","nomic-ai\u002Fgpt4all","GPT4All 是一款让普通电脑也能轻松运行大型语言模型（LLM）的开源工具。它的核心目标是打破算力壁垒，让用户无需依赖昂贵的显卡（GPU）或云端 API，即可在普通的笔记本电脑和台式机上私密、离线地部署和使用大模型。\n\n对于担心数据隐私、希望完全掌控本地数据的企业用户、研究人员以及技术爱好者来说，GPT4All 提供了理想的解决方案。它解决了传统大模型必须联网调用或需要高端硬件才能运行的痛点，让日常设备也能成为强大的 AI 助手。无论是希望构建本地知识库的开发者，还是单纯想体验私有化 AI 聊天的普通用户，都能从中受益。\n\n技术上，GPT4All 基于高效的 `llama.cpp` 后端，支持多种主流模型架构（包括最新的 DeepSeek R1 蒸馏模型），并采用 GGUF 格式优化推理速度。它不仅提供界面友好的桌面客户端，支持 Windows、macOS 和 Linux 等多平台一键安装，还为开发者提供了便捷的 Python 库，可轻松集成到 LangChain 等生态中。通过简单的下载和配置，用户即可立即开始探索本地大模型的无限可能。",77307,"2026-04-11T06:52:37",[15,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":83,"owner_twitter":84,"owner_website":85,"owner_url":86,"languages":87,"stars":100,"forks":101,"last_commit_at":102,"license":81,"difficulty_score":10,"env_os":103,"env_gpu":104,"env_ram":103,"env_deps":105,"category_tags":113,"github_topics":81,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":114,"updated_at":115,"faqs":116,"releases":117},8150,"Nutlope\u002Fllamatutor","llamatutor","An AI personal tutor built with Llama 3.1","llamatutor 是一款基于 Llama 3.1 大模型打造的开源 AI 私人导师，旨在为用户提供个性化、互动式的学习辅导体验。它通过智能对话帮助用户理解复杂概念、解答疑问，并支持实时搜索最新信息以增强回答的准确性，有效解决了传统学习方式中反馈滞后和资源分散的问题。\n\n这款工具特别适合希望利用先进大模型进行自主学习的学生、终身学习者，以及想要快速搭建定制化教育应用的开发者。对于技术人员而言，llamatutor 提供了清晰的技术栈参考：后端采用 Meta 最新的 Llama 3.1 70B 模型，通过 Together AI 进行高效推理；前端基于 Next.js 和 Tailwind CSS 构建，兼具性能与现代感；同时集成 Exa.js 实现联网搜索，并利用 Helicone 和 Plausible 分别进行链路观测与数据分析。\n\n作为一个完全开源的项目，llamatutor 不仅让普通用户能免费享受高质量的 AI 辅导，也为开发者提供了一个极佳的学习模板，便于在此基础上二次开发或部署属于自己的智能教学助手。无论是想探索大模型在教育领域的应用，还是寻找一个简洁高效的个人学习伙伴","llamatutor 是一款基于 Llama 3.1 大模型打造的开源 AI 私人导师，旨在为用户提供个性化、互动式的学习辅导体验。它通过智能对话帮助用户理解复杂概念、解答疑问，并支持实时搜索最新信息以增强回答的准确性，有效解决了传统学习方式中反馈滞后和资源分散的问题。\n\n这款工具特别适合希望利用先进大模型进行自主学习的学生、终身学习者，以及想要快速搭建定制化教育应用的开发者。对于技术人员而言，llamatutor 提供了清晰的技术栈参考：后端采用 Meta 最新的 Llama 3.1 70B 模型，通过 Together AI 进行高效推理；前端基于 Next.js 和 Tailwind CSS 构建，兼具性能与现代感；同时集成 Exa.js 实现联网搜索，并利用 Helicone 和 Plausible 分别进行链路观测与数据分析。\n\n作为一个完全开源的项目，llamatutor 不仅让普通用户能免费享受高质量的 AI 辅导，也为开发者提供了一个极佳的学习模板，便于在此基础上二次开发或部署属于自己的智能教学助手。无论是想探索大模型在教育领域的应用，还是寻找一个简洁高效的个人学习伙伴，llamatutor 都是一个值得尝试的选择。","\u003Ca href=\"https:\u002F\u002Fwww.llamatutor.com\">\n  \u003Cimg alt=\"Llama Tutor\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNutlope_llamatutor_readme_16fd000bbb21.png\">\n  \u003Ch1 align=\"center\">Llama Tutor\u003C\u002Fh1>\n\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n  An open source AI personal tutor. Powered by Llama 3 70B & Together.ai\n\u003C\u002Fp>\n\n## Tech stack\n\n- Llama 3.1 70B from Meta for the LLM\n- Together AI for LLM inference\n- Next.js app router with Tailwind\n- Exa.js for the search API\n- Helicone for observability\n- Plausible for website analytics\n\n## Cloning & running\n\n1. Fork or clone the repo\n2. Create an account at [Together AI](https:\u002F\u002Ftogetherai.link) for the LLM\n3. Create an account at [Exa](https:\u002F\u002Fexa.ai\u002F)\n4. Create an account at [Helicone](https:\u002F\u002Fwww.helicone.ai\u002F) for observability\n5. Create a `.env` (use the `.example.env` for reference) and replace the API keys\n6. Run `npm install` and `npm run dev` to install dependencies and run locally\n\n## Future Tasks\n\n- [ ] Add a share & copy buttons that folks can click on after convos are generated\n- [ ] Add potential follow up questions + new chat at the end of chat page\n- [ ] Split the page into two pages and add back the footer\n- [ ] Move all my icons into their own typescript file (transform.tools)\n- [ ] Add a more detailed landing page with a nice section with the GitHub link\n- [ ] Add nice hamburger menu on mobile\n- [ ] Try out the generative UI stuff from Vercel\n- [ ] Add a nicer dropdown overall\n","\u003Ca href=\"https:\u002F\u002Fwww.llamatutor.com\">\n  \u003Cimg alt=\"Llama Tutor\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNutlope_llamatutor_readme_16fd000bbb21.png\">\n  \u003Ch1 align=\"center\">Llama Tutor\u003C\u002Fh1>\n\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n  一款开源的 AI 个人辅导工具。由 Llama 3 70B 和 Together.ai 提供支持。\n\u003C\u002Fp>\n\n## 技术栈\n\n- Meta 的 Llama 3.1 70B 作为大模型\n- Together AI 负责大模型推理\n- Next.js App Router 配合 Tailwind CSS\n- Exa.js 提供搜索 API\n- Helicone 用于可观测性\n- Plausible 用于网站分析\n\n## 克隆与运行\n\n1. 分支或克隆本仓库\n2. 在 [Together AI](https:\u002F\u002Ftogetherai.link) 注册账号以使用大模型服务\n3. 在 [Exa](https:\u002F\u002Fexa.ai\u002F) 注册账号\n4. 在 [Helicone](https:\u002F\u002Fwww.helicone.ai\u002F) 注册账号，用于可观测性管理\n5. 创建 `.env` 文件（可参考 `.example.env`），并替换其中的 API 密钥\n6. 运行 `npm install` 和 `npm run dev` 安装依赖并本地启动应用\n\n## 未来计划\n\n- [ ] 添加分享和复制按钮，方便用户在对话生成后一键操作\n- [ ] 在聊天页面末尾添加潜在的后续问题及新建聊天选项\n- [ ] 将页面拆分为两个独立页面，并重新加入页脚\n- [ ] 将所有图标移至单独的 TypeScript 文件中（transform.tools）\n- [ ] 增加更详细的落地页，包含美观的 GitHub 链接区域\n- [ ] 在移动端添加精美的汉堡菜单\n- [ ] 尝试 Vercel 的生成式 UI 功能\n- [ ] 改进下拉菜单的样式，使其更加美观","# Llama Tutor 快速上手指南\n\nLlama Tutor 是一个开源的 AI 个人辅导工具，基于 Meta 的 Llama 3.1 70B 模型和 Together.ai 构建，旨在提供个性化的学习辅助体验。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS 或 Linux\n*   **Node.js**：建议安装最新 LTS 版本（推荐 v18+）\n*   **包管理器**：npm (随 Node.js 安装) 或 yarn\u002Fpnpm\n*   **账号准备**：\n    *   [Together AI](https:\u002F\u002Ftogetherai.link) 账号（用于获取 LLM API Key）\n    *   [Exa](https:\u002F\u002Fexa.ai\u002F) 账号（用于获取搜索 API Key）\n    *   [Helicone](https:\u002F\u002Fwww.helicone.ai\u002F) 账号（可选，用于可观测性监控）\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    将仓库克隆到本地或直接 Fork 后克隆：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FNutlope\u002Fllamatutor.git\n    cd llamatutor\n    ```\n\n2.  **安装依赖**\n    运行以下命令安装项目所需的 npm 包。如果在国内网络环境下安装缓慢，可配置淘宝镜像源：\n    ```bash\n    # 使用官方源\n    npm install\n\n    # 或使用国内镜像加速（推荐）\n    npm install --registry=https:\u002F\u002Fregistry.npmmirror.com\n    ```\n\n3.  **配置环境变量**\n    复制示例环境变量文件并填入您的 API Keys：\n    ```bash\n    cp .example.env .env\n    ```\n    编辑 `.env` 文件，填入从 Together AI、Exa 等平台申请的密钥：\n    ```env\n    TOGETHER_API_KEY=your_together_api_key\n    EXA_API_KEY=your_exa_api_key\n    HELICONE_API_KEY=your_helicone_api_key # 可选\n    ```\n\n## 基本使用\n\n完成上述配置后，即可启动本地开发服务器进行体验：\n\n1.  **启动项目**\n    在终端执行：\n    ```bash\n    npm run dev\n    ```\n\n2.  **访问应用**\n    打开浏览器访问 `http:\u002F\u002Flocalhost:3000`。\n\n3.  **开始对话**\n    在界面中输入您想要学习的主题或问题，Llama Tutor 将利用 Llama 3.1 70B 模型结合实时搜索结果为您提供详细的辅导解答。","一名计算机专业大学生正在准备期末考试，需要快速理清“分布式系统一致性协议”这一复杂概念，但面对晦涩的教材和零散的网络资料感到无从下手。\n\n### 没有 llamatutor 时\n- **信息过载且碎片化**：在搜索引擎中查找资料时，被大量广告、过时博客和不相关的技术文章淹没，难以筛选出核心知识点。\n- **缺乏互动式引导**：阅读静态文档时遇到不懂的术语（如“脑裂”或\"Paxos\"），无法即时追问，只能反复跳转页面自行摸索，打断学习心流。\n- **解释过于学术化**：找到的权威资料往往充满数学公式和抽象定义，缺乏通俗易懂的类比，导致理解成本极高，学习效率低下。\n- **知识体系割裂**：不同来源的资料对同一概念的描述角度不一，甚至存在冲突，难以构建完整、逻辑自洽的知识框架。\n\n### 使用 llamatutor 后\n- **精准实时检索**：llamatutor 内置 Exa 搜索 API，能自动过滤噪音，直接基于最新且高质量的技术源生成回答，确保信息准确且聚焦。\n- **苏格拉底式教学**：依托 Llama 3.1 70B 的强大推理能力，llamatutor 像真人导师一样，不仅解答疑问，还会主动通过提问引导思考，帮助深化理解。\n- **个性化通俗解读**：针对难懂的概念，llamatutor 能根据上下文生成生动的现实类比（如用“银行转账”解释一致性），将抽象理论转化为直观认知。\n- **结构化知识构建**：对话过程中，llamatutor 会自动梳理逻辑脉络，将零散点串联成线，帮助学生快速建立起清晰的知识图谱。\n\nllamatutor 将被动、低效的自主信息搜集转变为主动、高效的交互式深度学习，显著降低了掌握高难度技术概念的门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNutlope_llamatutor_16fd000b.png","Nutlope","Hassan El Mghari","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNutlope_668db796.jpg","Building.",null,"New York City, NY","hassan4709@gmail.com","nutlope","http:\u002F\u002Fnutlope.com","https:\u002F\u002Fgithub.com\u002FNutlope",[88,92,96],{"name":89,"color":90,"percentage":91},"TypeScript","#3178c6",99.8,{"name":93,"color":94,"percentage":95},"CSS","#663399",0.1,{"name":97,"color":98,"percentage":99},"JavaScript","#f1e05a",0,1991,330,"2026-04-15T15:40:40","未说明","无需本地 GPU（使用 Together AI 云端推理）",{"notes":106,"python":103,"dependencies":107},"该项目为基于 Next.js 的 Web 应用，大模型推理依赖外部 API（Together AI），因此本地运行无需高性能 GPU 或大量显存。用户需自行注册 Together AI、Exa 和 Helicone 账号并配置 API 密钥到 .env 文件。通过 npm 安装依赖并启动开发服务器即可运行。",[108,109,110,111,112],"next.js","tailwindcss","exa-js","helicone","plausible",[15],"2026-03-27T02:49:30.150509","2026-04-17T09:54:11.542492",[],[]]