[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-unslothai--hyperlearn":3,"tool-unslothai--hyperlearn":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":75,"owner_website":80,"owner_url":81,"languages":82,"stars":107,"forks":108,"last_commit_at":109,"license":110,"difficulty_score":111,"env_os":112,"env_gpu":113,"env_ram":114,"env_deps":115,"category_tags":125,"github_topics":126,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":143,"updated_at":144,"faqs":145,"releases":176},3700,"unslothai\u002Fhyperlearn","hyperlearn","2-2000x faster ML algos, 50% less memory usage, works on all hardware - new and old.","HyperLearn 是一个专注于极致性能的开源机器学习库，旨在让经典算法在各类硬件上运行得更快、更省资源。它通过深度优化底层计算逻辑，将线性回归、非负矩阵分解等常用算法的运行速度提升了 2 至 2000 倍，同时减少高达 50% 的内存占用，有效解决了传统工具在处理大规模数据时效率低下和内存瓶颈的问题。\n\n该项目完全兼容 Scikit-Learn 的使用习惯，开发者无需改变编码方式即可享受性能飞跃。其技术亮点在于融合了 PyTorch、Numba、C++ 乃至汇编语言等多层技术栈，并针对 CPU 指令集（如 AVX512）进行了精细调优。凭借卓越的表现，HyperLearn 的核心算法已被微软、英伟达（NVIDIA）、Facebook（PyTorch）及加州大学伯克利分校等顶尖机构的研究论文和产品采纳，甚至协助修复了 GCC 编译器的底层缺陷。\n\nHyperLearn 特别适合需要处理海量数据的机器学习工程师、数据科学家以及追求算法极致性能的研究人员。无论你是希望在旧设备上加速模型训练，还是在新硬件上挖掘算力极限，它都能提供稳定且高效的解决方案，让大数据处理变得更加轻松流畅。","\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funslothai_hyperlearn_readme_ed4644f54f7e.png\" alt=\"drawing\" width=\"300\"\u002F>\n\u003C\u002Fp>\n\n\u003Ch4 align=\"center\">\n2-2000x faster algos, 50% less memory usage, works on all hardware - new and old.\n\u003C\u002Fh4>\n\u003Ch2 align=\"center\">\nIf you want to collab on fast algorithms - msg me!!\nJoin our Discord server on making AI faster, or if you just wanna chat about AI!! https:\u002F\u002Fdiscord.gg\u002Funsloth\n\u003C\u002Fh2>\n\n\n\u003Ca href=\"http:\u002F\u002Funsloth.ai\u002F\" style=\"text-align: center\">\u003Cp align=\"center\">Unsloth Website\u003C\u002Fp>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fhyperlearn.readthedocs.io\u002Fen\u002Flatest\u002Findex.html\" style=\"text-align: center\">\u003Cp align=\"center\">Documentation\u003C\u002Fp>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F18fxyBiPE0G4e5yixAj5S--YL_pgTh3Vo\u002Fview?usp=sharing\" style=\"text-align: center\">\u003Cp align=\"center\">50 Page Modern Big Data Algorithms PDF\u003C\u002Fp>\u003C\u002Fa>\n\n----\n\u003Ch3> Hyperlearn's algorithms, methods and repo has been featured or mentioned in 5 research papers! \u003C\u002Fh3>\n\n```diff\n+ Microsoft, UW, UC Berkeley, Greece, NVIDIA\n```\n\n* **Microsoft**: Yu et al. Making Classical Machine Learning Pipelines Differentiable http:\u002F\u002Flearningsys.org\u002Fnips18\u002Fassets\u002Fpapers\u002F45CameraReadySubmissionfinetune.pdf\n* **University of Washington**: Ariel Rokem, Kendrick Kay. Fractional ridge regression: a fast, interpretable reparameterization of ridge regression https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.03220\n* **National Center for Scientific Research 'Demokritos', Greece**: Christos Platias, Georgios Petasis. A Comparison of Machine Learning Methods for Data Imputation https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3411408.3411465\n* **UC Berkeley** David Chan. GPU Accelerated T-Distributed Stochastic Neighbor Embedding https:\u002F\u002Fdigitalassets.lib.berkeley.edu\u002Ftechreports\u002Fucb\u002Fincoming\u002FEECS-2020-89.pdf _(Incorporated Hyperlearn methods into NVIDIA RAPIDS TSNE)_\n* **NVIDIA**: Raschka et al. RAPIDS: Machine Learning in Python: Main developments and technology trends in data science, machine learning, and artificial intelligence https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.04803 _(Incorporated Hyperlearn methods into NVIDIA RAPIDS TSNE)_\n\n----\n\u003Ch3> Hyperlearn's methods and algorithms have been incorporated into more than 6 organizations and repositories! \u003C\u002Fh3>\n\n```diff\n+ NASA + Facebook's Pytorch, Scipy, Cupy, NVIDIA, UNSW\n```\n\n* **Facebook's Pytorch**: SVD very very slow and GELS gives nans, -inf #11174 https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Fissues\u002F11174\n* **Scipy**: EIGH very very slow --> suggesting an easy fix #9212 https:\u002F\u002Fgithub.com\u002Fscipy\u002Fscipy\u002Fissues\u002F9212\n* **Cupy**: Make SVD overwrite temporary array x https:\u002F\u002Fgithub.com\u002Fcupy\u002Fcupy\u002Fpull\u002F2277\n* **NVIDIA**: Accelerating TSNE with GPUs: From hours to seconds https:\u002F\u002Fmedium.com\u002Frapids-ai\u002Ftsne-with-gpus-hours-to-seconds-9d9c17c941db\n* **UNSW** Abdussalam et al. Large-scale Sku-level Product Detection In Social Media Images And Sales Performance https:\u002F\u002Fwww.abstractsonline.com\u002Fpp8\u002F#!\u002F9305\u002Fpresentation\u002F465\n\n----\n\n\u003Ch3> During Hyperlearn's development, bugs and issues were notified to GCC! \u003C\u002Fh3>\n\n* GCC 10 ignoring function attribute optimize for all x86 since r11-1019 https:\u002F\u002Fgcc.gnu.org\u002Fbugzilla\u002Fshow_bug.cgi?id=96535\n* Vector Extensions aligned(1) not generating unaligned loads\u002Fstores https:\u002F\u002Fgcc.gnu.org\u002Fbugzilla\u002Fshow_bug.cgi?id=98317\n* GCC >= 6 cannot inline _mm_cmp_ps on SSE targets https:\u002F\u002Fgcc.gnu.org\u002Fbugzilla\u002Fshow_bug.cgi?id=98387\n* GCC 10.2 AVX512 Mask regression from GCC 9 https:\u002F\u002Fgcc.gnu.org\u002Fbugzilla\u002Fshow_bug.cgi?id=98348\n\n----\n\n\u003Ca href=\"\" style=\"text-align: center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funslothai_hyperlearn_readme_329b419179e0.png\" alt=\"Packages Used\" align=\"center\"\u002F>\u003C\u002Fa>\n\nHyperLearn is written completely in PyTorch, NoGil Numba, Numpy, Pandas, Scipy & LAPACK, C++, C, Python, Cython and Assembly, and mirrors (mostly) Scikit Learn.\nHyperLearn also has statistical inference measures embedded, and can be called just like Scikit Learn's syntax.\n\nSome key current achievements of HyperLearn:\n\n* 70% less time to fit Least Squares \u002F Linear Regression than sklearn + 50% less memory usage\n* 50% less time to fit Non Negative Matrix Factorization than sklearn due to new parallelized algo\n* 40% faster full Euclidean \u002F Cosine distance algorithms\n* 50% less time LSMR iterative least squares\n* New Reconstruction SVD - use SVD to impute missing data! Has .fit AND .transform. Approx 30% better than mean imputation\n* 50% faster Sparse Matrix operations - parallelized\n* RandomizedSVD is now 20 - 30% faster\n\n\u003Ca href=\"\" style=\"text-align: center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funslothai_hyperlearn_readme_33bef8de03bb.png\" alt=\"Modern Big Data Algorithms\" align=\"center\"\u002F>\u003C\u002Fa>\n---\n\n\n### Comparison of Speed \u002F Memory\n\n| Algorithm         |  n    |  p  | Time(s) |            | RAM(mb) |            | Notes                   |\n| ----------------- | ----- | --- | ------- | ---------- | ------- | ---------- | ----------------------- |\n|                   |       |     | Sklearn | Hyperlearn | Sklearn | Hyperlearn |                         |\n| QDA (Quad Dis A)  |1000000| 100 |   54.2  |   *22.25*  |  2,700  |  *1,200*   | Now parallelized        |\n| LinearRegression  |1000000| 100 |   5.81  |   *0.381*  |   700   |    *10*    | Guaranteed stable & fast|\n\nTime(s) is Fit + Predict. RAM(mb) = max( RAM(Fit), RAM(Predict) )\n \nI've also added some preliminary results for N = 5000, P = 6000\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funslothai_hyperlearn_readme_f3501565c852.png\" alt=\"drawing\" width=\"500\"\u002F>\n\n---\n#### Help is really needed! Message me!\n---\n# Key Methodologies and Aims\n#### 1. [Embarrassingly Parallel For Loops](#1)\n#### 2. [50%+ Faster, 50%+ Leaner](#2)\n#### 3. [Why is Statsmodels sometimes unbearably slow?](#3)\n#### 4. [Deep Learning Drop In Modules with PyTorch](#4)\n#### 5. [20%+ Less Code, Cleaner Clearer Code](#5)\n#### 6. [Accessing Old and Exciting New Algorithms](#6)\n---\n\u003Ca id='1'>\u003C\u002Fa>\n### 1. Embarrassingly Parallel For Loops\n  * Including Memory Sharing, Memory Management\n  * CUDA Parallelism through PyTorch & Numba\n  \n\u003Ca id='2'>\u003C\u002Fa>\n### 2. 50%+ Faster, 50%+ Leaner  \n  * Matrix Multiplication Ordering: https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FMatrix_chain_multiplication\n  * Element Wise Matrix Multiplication reducing complexity to O(n^2) from O(n^3): https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FHadamard_product_(matrices)\n  * Reducing Matrix Operations to Einstein Notation: https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FEinstein_notation\n  * Evaluating one-time Matrix Operations in succession to reduce RAM overhead.\n  * If p>>n, maybe decomposing X.T is better than X.\n  * Applying QR Decomposition then SVD might be faster in some cases.\n  * Utilise the structure of the matrix to compute faster inverse (eg triangular matrices, Hermitian matrices).\n  * Computing SVD(X) then getting pinv(X) is sometimes faster than pure pinv(X)\n  \n\u003Ca id='3'>\u003C\u002Fa>\n### 3. Why is Statsmodels sometimes unbearably slow?\n  * Confidence, Prediction Intervals, Hypothesis Tests & Goodness of Fit tests for linear models are optimized.\n  * Using Einstein Notation & Hadamard Products where possible.\n  * Computing only what is neccessary to compute (Diagonal of matrix and not entire matrix).\n  * Fixing the flaws of Statsmodels on notation, speed, memory issues and storage of variables.\n\n\u003Ca id='4'>\u003C\u002Fa>\n### 4. Deep Learning Drop In Modules with PyTorch\n  * Using PyTorch to create Scikit-Learn like drop in replacements.\n\n\u003Ca id='5'>\u003C\u002Fa>\n### 5. 20%+ Less Code, Cleaner Clearer Code\n  * Using Decorators & Functions where possible.\n  * Intuitive Middle Level Function names like (isTensor, isIterable).\n  * Handles Parallelism easily through hyperlearn.multiprocessing\n\n\u003Ca id='6'>\u003C\u002Fa>\n### 6. Accessing Old and Exciting New Algorithms\n  * Matrix Completion algorithms - Non Negative Least Squares, NNMF\n  * Batch Similarity Latent Dirichelt Allocation (BS-LDA)\n  * Correlation Regression\n  * Feasible Generalized Least Squares FGLS\n  * Outlier Tolerant Regression\n  * Multidimensional Spline Regression\n  * Generalized MICE (any model drop in replacement)\n  * Using Uber's Pyro for Bayesian Deep Learning\n\n---\n\n---\n# Extra License Terms\n1. The Apache 2.0 license is adopted.\n","\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funslothai_hyperlearn_readme_ed4644f54f7e.png\" alt=\"drawing\" width=\"300\"\u002F>\n\u003C\u002Fp>\n\n\u003Ch4 align=\"center\">\n算法速度提升2至2000倍，内存占用减少50%，兼容新旧各类硬件。\n\u003C\u002Fh4>\n\u003Ch2 align=\"center\">\n如果你想合作开发快速算法，请联系我！！加入我们的Discord服务器，一起让AI更快；或者只是想聊聊AI话题也欢迎！https:\u002F\u002Fdiscord.gg\u002Funsloth\n\u003C\u002Fh2>\n\n\n\u003Ca href=\"http:\u002F\u002Funsloth.ai\u002F\" style=\"text-align: center\">\u003Cp align=\"center\">Unsloth官网\u003C\u002Fp>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fhyperlearn.readthedocs.io\u002Fen\u002Flatest\u002Findex.html\" style=\"text-align: center\">\u003Cp align=\"center\">文档\u003C\u002Fp>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F18fxyBiPE0G4e5yixAj5S--YL_pgTh3Vo\u002Fview?usp=sharing\" style=\"text-align: center\">\u003Cp align=\"center\">50页现代大数据算法PDF\u003C\u002Fp>\u003C\u002Fa>\n\n----\n\u003Ch3> Hyperlearn的算法、方法及代码库已被5篇研究论文引用或提及！ \u003C\u002Fh3>\n\n```diff\n+ 微软、华盛顿大学、加州大学伯克利分校、希腊、英伟达\n```\n\n* **微软**：Yu等人，《使经典机器学习流水线可微分》 http:\u002F\u002Flearningsys.org\u002Fnips18\u002Fassets\u002Fpapers\u002F45CameraReadySubmissionfinetune.pdf\n* **华盛顿大学**：Ariel Rokem、Kendrick Kay，《分数岭回归：一种快速且可解释的岭回归重参数化方法》 https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.03220\n* **希腊“德谟克利特”国家科学研究中心**：Christos Platias、Georgios Petasis，《数据插补中机器学习方法的比较》 https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3411408.3411465\n* **加州大学伯克利分校**：David Chan，《GPU加速的t分布随机邻域嵌入》 https:\u002F\u002Fdigitalassets.lib.berkeley.edu\u002Ftechreports\u002Fucb\u002Fincoming\u002FEECS-2020-89.pdf _(将Hyperlearn的方法整合进英伟达RAPIDS TSNE)_ \n* **英伟达**：Raschka等人，《RAPIDS：Python中的机器学习——数据科学、机器学习和人工智能的主要发展与技术趋势》 https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.04803 _(将Hyperlearn的方法整合进英伟达RAPIDS TSNE)_\n\n----\n\u003Ch3> Hyperlearn的方法和算法已被超过6个组织和开源项目采用！ \u003C\u002Fh3>\n\n```diff\n+ 美国宇航局 + Facebook的PyTorch、Scipy、Cupy、英伟达、新南威尔士大学\n```\n\n* **Facebook的PyTorch**：SVD非常慢，而GELS会返回NaN和负无穷 #11174 https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Fissues\u002F11174\n* **Scipy**：EIGH非常慢 --> 建议了一个简单的修复方案 #9212 https:\u002F\u002Fgithub.com\u002Fscipy\u002Fscipy\u002Fissues\u002F9212\n* **Cupy**：建议让SVD覆盖临时数组x https:\u002F\u002Fgithub.com\u002Fcupy\u002Fcupy\u002Fpull\u002F2277\n* **英伟达**：用GPU加速TSNE：从数小时到几秒钟 https:\u002F\u002Fmedium.com\u002Frapids-ai\u002Ftsne-with-gpus-hours-to-seconds-9d9c17c941db\n* **新南威尔士大学**：Abdussalam等人，《社交媒体图片中大规模SKU级产品检测及其销售表现》 https:\u002F\u002Fwww.abstractsonline.com\u002Fpp8\u002F#!\u002F9305\u002Fpresentation\u002F465\n\n----\n\n\u003Ch3> 在Hyperlearn开发过程中，我们向GCC报告了多个bug和问题！ \u003C\u002Fh3>\n\n* GCC 10忽略所有x86架构上的函数属性优化，自r11-1019以来一直如此 https:\u002F\u002Fgcc.gnu.org\u002Fbugzilla\u002Fshow_bug.cgi?id=96535\n* 向量扩展aligned(1)未生成非对齐加载\u002F存储操作 https:\u002F\u002Fgcc.gnu.org\u002Fbugzilla\u002Fshow_bug.cgi?id=98317\n* GCC >= 6无法在SSE目标上内联_mm_cmp_ps https:\u002F\u002Fgcc.gnu.org\u002Fbugzilla\u002Fshow_bug.cgi?id=98387\n* GCC 10.2存在AVX512掩码回归问题，该问题源自GCC 9 https:\u002F\u002Fgcc.gnu.org\u002Fbugzilla\u002Fshow_bug.cgi?id=98348\n\n----\n\n\u003Ca href=\"\" style=\"text-align: center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funslothai_hyperlearn_readme_329b419179e0.png\" alt=\"使用的软件包\" align=\"center\"\u002F>\u003C\u002Fa>\n\nHyperLearn完全使用PyTorch、NoGil Numba、NumPy、Pandas、Scipy和LAPACK、C++、C、Python、Cython以及汇编语言编写，并且其功能大多与Scikit Learn保持一致。HyperLearn还内置了统计推断工具，调用方式与Scikit Learn语法相同。\n\nHyperLearn目前的一些主要成果：\n\n* 拟合最小二乘法\u002F线性回归的时间比sklearn缩短70%，内存占用减少50%；\n* 非负矩阵分解的速度比sklearn快50%，得益于新的并行化算法；\n* 完整欧氏距离\u002F余弦距离算法提速40%；\n* LSMR迭代式最小二乘法耗时减少50%；\n* 新型重构SVD——利用SVD填补缺失数据！同时具备.fit和.transform功能，效果比均值插补好约30%；\n* 稀疏矩阵运算提速50%——通过并行化实现；\n* RandomizedSVD现在快20%-30%。\n\n\u003Ca href=\"\" style=\"text-align: center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funslothai_hyperlearn_readme_33bef8de03bb.png\" alt=\"现代大数据算法\" align=\"center\"\u002F>\u003C\u002Fa>\n---\n\n\n### 速度\u002F内存对比\n\n| 算法         |  n    |  p  | 时间(s) |            | 内存(mb) |            | 备注                   |\n| ----------------- | ----- | --- | ------- | ---------- | ------- | ---------- | ----------------------- |\n|                   |       |     | Sklearn | Hyperlearn | Sklearn | Hyperlearn |                         |\n| QDA (二次判别分析)  |1000000| 100 |   54.2  |   *22.25*  |  2,700  |  *1,200*   | 已实现并行化        |\n| LinearRegression  |1000000| 100 |   5.81  |   *0.381*  |   700   |    *10*    | 稳定且快速|\n\n时间(s)为拟合+预测总耗时。内存(mb)取拟合和预测阶段的最大值。\n我还添加了一些N=5000，P=6000的初步结果。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funslothai_hyperlearn_readme_f3501565c852.png\" alt=\"drawing\" width=\"500\"\u002F>\n\n---\n#### 我们非常需要帮助！请与我联系！\n---\n# 核心方法论与目标\n#### 1. [极其容易并行化的循环](#1)\n#### 2. [速度提升50%以上，内存占用减少50%以上](#2)\n#### 3. [为什么Statsmodels有时会慢得令人难以忍受？](#3)\n#### 4. [基于PyTorch的深度学习即插即用模块](#4)\n#### 5. [代码量减少20%以上，代码更简洁清晰](#5)\n#### 6. [访问古老而令人兴奋的新算法](#6)\n---\n\u003Ca id='1'>\u003C\u002Fa>\n### 1. 极其容易并行化的循环\n  * 包括内存共享、内存管理\n  * 通过PyTorch和Numba实现CUDA并行计算\n  \n\u003Ca id='2'>\u003C\u002Fa>\n### 2. 速度提升50%以上，内存占用减少50%以上  \n  * 矩阵乘法顺序优化：https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FMatrix_chain_multiplication\n  * 元素级矩阵乘法将复杂度从O(n^3)降至O(n^2)：https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FHadamard_product_(matrices)\n  * 将矩阵运算简化为爱因斯坦求和约定：https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FEinstein_notation\n  * 一次性连续执行矩阵运算以减少内存开销。\n  * 如果p>>n，或许分解X.T比分解X更好。\n  * 在某些情况下，先进行QR分解再做SVD可能更快。\n  * 利用矩阵结构加快逆矩阵计算速度（如三角矩阵、厄米特矩阵）。\n  * 先计算SVD(X)，再求pinv(X)，有时比直接求pinv(X)更快。\n  \n\u003Ca id='3'>\u003C\u002Fa>\n\n### 3. 为什么 Statsmodels 有时会慢到难以忍受？\n  * 线性模型的置信区间、预测区间、假设检验以及拟合优度检验都经过了优化。\n  * 尽可能使用爱因斯坦求和约定和哈达玛积。\n  * 只计算必要的部分（例如矩阵的对角线，而不是整个矩阵）。\n  * 修复了 Statsmodels 在符号表示、速度、内存问题以及变量存储方面的缺陷。\n\n\u003Ca id='4'>\u003C\u002Fa>\n### 4. 基于 PyTorch 的深度学习即插即用模块\n  * 使用 PyTorch 创建类似 Scikit-Learn 的即插即用替代组件。\n\n\u003Ca id='5'>\u003C\u002Fa>\n### 5. 代码量减少 20% 以上，代码更简洁清晰\n  * 尽可能使用装饰器和函数。\n  * 提供直观的中间层函数名，如 (isTensor, isIterable)。\n  * 通过 hyperlearn.multiprocessing 轻松处理并行计算。\n\n\u003Ca id='6'>\u003C\u002Fa>\n### 6. 可访问旧算法与令人兴奋的新算法\n  * 矩阵补全算法——非负最小二乘法、NNMF。\n  * 批量相似性隐狄利克雷分配模型 (BS-LDA)。\n  * 相关性回归。\n  * 可可行广义最小二乘法 FGLS。\n  * 抗异常值回归。\n  * 多维样条回归。\n  * 广义 MICE（任何模型的即插即用替代方案）。\n  * 使用 Uber 的 Pyro 进行贝叶斯深度学习。\n\n---\n\n---\n# 额外许可条款\n1. 采用 Apache 2.0 许可证。","# HyperLearn 快速上手指南\n\nHyperLearn 是一个高性能的机器学习库，完全兼容 Scikit-Learn 语法。它通过优化的算法（如并行化、矩阵链乘法优化、爱因斯坦求和约定等），实现了比传统库快 2-2000 倍的速度，并减少 50% 以上的内存占用。支持 CPU 和 GPU 加速，适用于新旧硬件。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux, macOS, Windows\n- **硬件**: 支持 CPU (包括旧款) 和 NVIDIA GPU (通过 PyTorch\u002FCUDA)\n- **Python 版本**: 建议 Python 3.8+\n\n### 前置依赖\nHyperLearn 底层依赖以下核心库，安装时会自动处理大部分依赖：\n- PyTorch\n- Numba (NoGil 模式)\n- NumPy, Pandas, SciPy\n- LAPACK, C++, Cython\n\n> **注意**：为了获得最佳 GPU 加速效果，请确保已正确安装与你的显卡驱动匹配的 `torch` (CUDA 版本)。\n\n## 安装步骤\n\n推荐使用 pip 进行安装。由于该库更新较快，建议直接从源码或 PyPI 安装最新版本。\n\n### 1. 基础安装\n```bash\npip install hyperlearn\n```\n\n### 2. 完整依赖安装（推荐）\n如果上述命令未自动安装所有必要的后端依赖（特别是 PyTorch 和 Numba），请手动安装：\n\n```bash\n# 安装 PyTorch (根据是否使用 CUDA 选择对应命令，以下为 CPU 版本示例)\npip install torch torchvision torchaudio\n\n# 安装其他核心依赖\npip install numba numpy pandas scipy scikit-learn\n```\n\n> **国内加速提示**：如果遇到下载速度慢的问题，可以使用清华或阿里镜像源：\n> ```bash\n> pip install hyperlearn -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> pip install torch numba numpy pandas scipy -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\nHyperLearn 的设计目标是“无缝替换”Scikit-Learn。你只需将 `import sklearn` 替换为 `import hyperlearn`，即可享受性能提升。\n\n### 示例：线性回归 (Linear Regression)\n\n以下示例展示了如何使用 HyperLearn 进行线性回归拟合与预测，其 API 与 Scikit-Learn 完全一致。\n\n```python\nimport numpy as np\nfrom hyperlearn.linear_model import LinearRegression\n\n# 1. 准备数据\n# 生成模拟数据: 1,000,000 个样本，100 个特征\nn_samples, n_features = 1000000, 100\nX = np.random.randn(n_samples, n_features)\ny = np.random.randn(n_samples)\n\n# 2. 初始化模型\n# 语法与 sklearn.linear_model.LinearRegression 完全相同\nmodel = LinearRegression()\n\n# 3. 训练模型 (Fit)\n# HyperLearn 在此步骤通常比 sklearn 快 70% 以上，且内存占用更低\nmodel.fit(X, y)\n\n# 4. 预测 (Predict)\npredictions = model.predict(X)\n\n# 5. 查看结果\nprint(f\"系数形状：{model.coef_.shape}\")\nprint(f\"截距：{model.intercept_}\")\nprint(\"前 5 个预测值:\", predictions[:5])\n```\n\n### 示例：奇异值分解 (SVD) 用于数据填补\n\nHyperLearn 提供了重构型 SVD (`ReconstructionSVD`)，可用于缺失值填补，效果优于均值填补。\n\n```python\nfrom hyperlearn.decomposition import ReconstructionSVD\nimport numpy as np\n\n# 构造含缺失值的数据 (用 NaN 表示)\nX = np.random.randn(1000, 50)\nX[0:100, 0:10] = np.nan  # 模拟缺失数据\n\n# 初始化并运行\nsvd_imputer = ReconstructionSVD(n_components=10)\nX_filled = svd_imputer.fit_transform(X)\n\nprint(\"数据填补完成，原始缺失值位置已修复。\")\n```\n\n### 核心优势速览\n- **速度**: 线性回归拟合速度快约 15 倍 (针对大数据集)。\n- **内存**: 内存占用减少约 50% (例如线性回归从 700MB 降至 10MB)。\n- **兼容性**: 直接复用现有的 Scikit-Learn 代码管道。\n- **统计推断**: 内置置信区间、假设检验等统计功能，解决了 Statsmodels 速度慢的问题。","某电商数据团队需要在老旧的服务器集群上，对亿级用户行为日志进行实时线性回归分析，以预测下一季度的商品销量。\n\n### 没有 hyperlearn 时\n- **训练耗时过长**：使用传统 Scikit-Learn 处理大规模稀疏矩阵时，最小二乘法拟合过程往往需要数小时甚至更久，无法满足业务对“实时性”的要求。\n- **内存频繁溢出**：在加载全量历史数据时，内存占用极高，经常触发 OOM（内存溢出）错误，迫使团队不得不手动拆分数据集或升级昂贵的硬件。\n- **旧硬件利用率低**：现有的老款 CPU 无法有效加速复杂的矩阵运算，导致算力闲置，算法运行效率极低。\n- **迭代成本高昂**：由于单次实验周期太长，数据科学家每天只能进行极少量的参数调优尝试，严重拖慢模型优化进度。\n\n### 使用 hyperlearn 后\n- **速度提升显著**：借助 hyperlearn 优化的底层算法，线性回归的拟合速度提升了 70% 以上，将原本数小时的计算压缩至分钟级。\n- **内存大幅节省**：通过更高效的内存管理策略，内存占用减少了 50%，使得在原有硬件上直接加载全量数据成为可能，无需再拆分数据。\n- **兼容新旧设备**：hyperlearn 能充分挖掘从新款 GPU 到老旧 CPU 的所有硬件潜力，让团队无需更换设备即可享受高性能计算。\n- **快速迭代验证**：计算时间的缩短让团队每天可进行数十次模型实验，快速锁定最优参数，显著提升了预测准确率。\n\nhyperlearn 通过极致的算法优化，让企业在不增加硬件投入的前提下，实现了机器学习训练速度与资源效率的双重飞跃。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Funslothai_hyperlearn_9eed788e.png","unslothai","Unsloth AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Funslothai_6d372387.png","Run and train AI models locally. 🦥",null,"https:\u002F\u002Funsloth.ai\u002F","https:\u002F\u002Fgithub.com\u002Funslothai",[83,87,91,95,99,103],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",49.1,{"name":88,"color":89,"percentage":90},"Python","#3572A5",33,{"name":92,"color":93,"percentage":94},"Cython","#fedf5b",13.2,{"name":96,"color":97,"percentage":98},"C++","#f34b7d",2.4,{"name":100,"color":101,"percentage":102},"Makefile","#427819",1.2,{"name":104,"color":105,"percentage":106},"Batchfile","#C1F12E",1.1,2424,157,"2026-04-02T21:09:14","Apache-2.0",4,"未说明","非必需，但支持通过 PyTorch 和 Numba 进行 CUDA 加速（兼容新旧硬件）","未说明（文档强调比 sklearn 节省 50% 内存）",{"notes":116,"python":112,"dependencies":117},"该工具完全使用多种语言（包括汇编）编写以优化性能，旨在替代 Scikit-Learn 并提供更快的算法和更低的内存占用。支持在旧硬件上运行，并嵌入了统计推断功能。",[118,119,120,121,122,123,96,124,92],"PyTorch","Numba (NoGil)","NumPy","Pandas","Scipy","LAPACK","C",[51,13,54],[127,128,129,130,131,132,133,134,135,136,137,138,139,140,141,142],"machine-learning","python","statistics","scikit-learn","statsmodels","pytorch","deep-learning","data-science","data-analysis","regression-models","econometrics","tensor","neural-network","gpu","research","optimization","2026-03-27T02:49:30.150509","2026-04-06T05:16:57.318293",[146,151,156,161,166,171],{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},16946,"在 Ubuntu 上运行 `python setup.py install` 安装失败怎么办？","维护者已修复了 `setup.py`。现在用户不再需要安装 Cython，只需要一个 C 编译器即可。此外，代码中已将 `py_modules` 参数更改为 `'packages': setuptools.find_packages('.', include=['hyperlearn'])`，以确保正确识别包而不是单独的模块。如果仍有问题，可以尝试运行 `python numba_compile.py` 来编译 Numba 代码。","https:\u002F\u002Fgithub.com\u002Funslothai\u002Fhyperlearn\u002Fissues\u002F13",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},16947,"导入 hyperlearn 子包时出现 'No module named hyperlearn.cython' 错误如何解决？","这个问题通常与库未添加到 `PYTHONPATH` 或 C 扩展未正确安装有关。尝试在 `setup.py` 中设置 `USE_CYTHON=True`。如果仍然失败，可能需要手动将 `PYTHONPATH` 指向构建目录（build directory），并在该目录的特定子目录下启动 Python 解释器。根本原因通常是 C 扩展文件没有随 Python 文件一起安装到正确的位置。","https:\u002F\u002Fgithub.com\u002Funslothai\u002Fhyperlearn\u002Fissues\u002F15",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},16948,"HyperLearn 如何处理超出 GPU 显存容量的大型数据集？","HyperLearn 采用了批处理（batch processing）策略，通过在 GPU 显存和 CPU 内存之间迭代计算数据块来解决显存限制问题。此外，库中包含装饰器用于：1. 将数据类型转换为最低可能的精度（例如从 float64 转为 float32）；2. 检查潜在的内存使用情况并警告用户；3. 在内存受限时自动使用更高效的算法（例如使用 GESVD 代替 GESDD）。","https:\u002F\u002Fgithub.com\u002Funslothai\u002Fhyperlearn\u002Fissues\u002F11",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},16949,"HyperLearn 项目目前支持哪些许可证？","项目许可证已从 GPL 更改为 Apache 2.0 许可证，以提供更宽松的开源使用条件。","https:\u002F\u002Fgithub.com\u002Funslothai\u002Fhyperlearn\u002Fissues\u002F10",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},16950,"如何参与 HyperLearn 项目的贡献？有哪些优先开发方向？","贡献者可以通过提交 Issue 或查看 Projects 标签页开始帮助。目前的开发优先级是自底向上优化速度：1. 首先优化奇异值分解（SVD）和线性求解器，因为它们是许多线性算法的基础；2. 其次是最小二乘和 L1 求解器；3. 确保 NUMBA 代码预编译以避免每次调用时的延迟；4. 最后是实现各种线性算法（如 PCA, LDA, Ridge Regression 等）。注意：项目暂不支持 Ray，因为目标是保持对 Windows 系统的全面支持，目前主要使用 Numba 进行并行化。","https:\u002F\u002Fgithub.com\u002Funslothai\u002Fhyperlearn\u002Fissues\u002F3",{"id":172,"question_zh":173,"answer_zh":174,"source_url":175},16951,"在哪里可以找到 HyperLearn 的官方文档？","官方文档托管在 ReadTheDocs 上，地址为 https:\u002F\u002Fhyperlearn.readthedocs.io\u002Fen\u002Flatest\u002Findex.html。如果遇到文档构建错误（如 'No module named...'），通常是因为上传到 Git 后未重新生成文档，维护者会定期修复这些问题并添加更多 docstrings。","https:\u002F\u002Fgithub.com\u002Funslothai\u002Fhyperlearn\u002Fissues\u002F12",[]]