[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-keroro824--HashingDeepLearning":3,"tool-keroro824--HashingDeepLearning":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":104,"forks":105,"last_commit_at":106,"license":107,"difficulty_score":108,"env_os":109,"env_gpu":110,"env_ram":111,"env_deps":112,"category_tags":118,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":119,"updated_at":120,"faqs":121,"releases":147},1727,"keroro824\u002FHashingDeepLearning","HashingDeepLearning","Codebase for \"SLIDE : In Defense of Smart Algorithms over Hardware Acceleration for Large-Scale Deep Learning Systems\"","HashingDeepLearning是一个开源项目，专注于通过智能算法优化大规模深度学习系统的训练效率，无需依赖GPU等专用硬件。基于论文《SLIDE: In Defense of Smart Algorithms over Hardware Acceleration for Large-Scale Deep Learning Systems》，它创新性地结合哈希技术、内存优化（如AVX指令集、BFloat16）和透明大页管理，在普通CPU上实现媲美甚至超越GPU的训练速度，大幅降低硬件成本。特别适合处理Amazon-670K等超大规模多标签分类任务，为学术研究团队和中小企业开发者提供低成本、高效率的解决方案。项目提供Docker镜像简化部署，兼容现代CPU架构，兼顾高性能与易用性，推动深度学习技术的普惠化应用。","# SLIDE\n\nThe SLIDE package contains the source code for reproducing the main experiments in this [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.03129).\n\nFor Optimized Code on CPUs (with AVX, BFloat and other memory optimization) from the newer [paper](https:\u002F\u002Fproceedings.mlsys.org\u002Fpaper\u002F2021\u002Ffile\u002F3636638817772e42b59d74cff571fbb3-Paper.pdf) please refer [here](https:\u002F\u002Fgithub.com\u002FRUSH-LAB\u002FSLIDE) \n\n## Dataset\n\nThe Datasets can be downloaded in [Amazon-670K](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B3lPMIHmG6vGdUJwRzltS1dvUVk). Note that the data is sorted by labels so please shuffle at least the validation\u002Ftesting data.\n\n## TensorFlow Baselines\n\nWe suggest directly get TensorFlow docker image to install [TensorFlow-GPU](https:\u002F\u002Fwww.tensorflow.org\u002Finstall\u002Fdocker).\nFor TensorFlow-CPU compiled with AVX2, we recommend using this precompiled [build](https:\u002F\u002Fgithub.com\u002Flakshayg\u002Ftensorflow-build).\n\nAlso there is a TensorFlow docker image specifically built for CPUs with AVX-512 instructions, to get it use:\n\n```bash\ndocker pull clearlinux\u002Fstacks-dlrs_2-mkl    \n```\n\n`config.py` controls the parameters of TensorFlow training like `learning rate`. `example_full_softmax.py, example_sampled_softmax.py` are example files for `Amazon-670K` dataset with full softmax and sampled softmax respectively.\n\nRun\n\n```bash\npython python_examples\u002Fexample_full_softmax.py\npython python_examples\u002Fexample_sampled_softmax.py\n```\n\n## Running SLIDE\n\n### Dependencies\n\n- CMake v3.0 and above\n- C++11 Compliant compiler\n- Linux: Ubuntu 16.04 and newer\n- Transparent Huge Pages must be enabled.\n  - SLIDE requires approximately 900 2MB pages, and 10 1GB pages: ([Instructions](https:\u002F\u002Fwiki.debian.org\u002FHugepages))\n\n### Notes:\n\n- For simplicity, please refer to the our [Docker](https:\u002F\u002Fhub.docker.com\u002Frepository\u002Fdocker\u002Fottovonxu\u002Fslide) image with all environments installed. To replicate the experiment without setting Hugepages, please download [Amazon-670K](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B3lPMIHmG6vGdUJwRzltS1dvUVk) in path ```\u002Fhome\u002Fcode\u002FHashingDeepLearning\u002Fdataset\u002FAmazon``` \n\n- Also, note that only Skylake or newer architectures support Hugepages. For older Haswell processors, we need to remove the flag `-mavx512f` from the `OPT_FLAGS` line in Makefile. You can also revert to the commit `2d10d46b5f6f1eda5d19f27038a596446fc17cee` to ignore the HugePages optimization and still use SLIDE (which could lead to a 30% slower performance). \n\n- This version builds all dependencies (which currently are [ZLIB](https:\u002F\u002Fgithub.com\u002Fmadler\u002Fzlib\u002Ftree\u002Fv1.2.11) and [CNPY](https:\u002F\u002Fgithub.com\u002Fsarthakpati\u002Fcnpy)).\n\n### Commands\n\nChange the paths in ```.\u002FSLIDE\u002FConfig_amz.csv``` appropriately.\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fsarthakpati\u002FHashingDeepLearning.git\ncd HashingDeepLearning\nmkdir bin\ncd bin\ncmake ..\nmake\n.\u002Frunme ..\u002FSLIDE\u002FConfig_amz.csv\n```\n","# 幻灯片\n\nSLIDE软件包包含用于重现本文[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.03129)中主要实验的源代码。\n\n如需获取来自最新[论文](https:\u002F\u002Fproceedings.mlsys.org\u002Fpaper\u002F2021\u002Ffile\u002F3636638817772e42b59d74cff571fbb3-Paper.pdf)中针对CPU优化的代码（支持AVX、BFloat及其他内存优化），请参阅[此处](https:\u002F\u002Fgithub.com\u002FRUSH-LAB\u002FSLIDE)。\n\n## 数据集\n\n数据集可从[Amazon-670K](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B3lPMIHmG6vGdUJwRzltS1dvUVk)下载。请注意，数据已按标签排序，因此请至少对验证集和测试集进行随机打乱。\n\n## TensorFlow基准\n\n我们建议直接获取TensorFlow Docker镜像以安装[TensorFlow-GPU](https:\u002F\u002Fwww.tensorflow.org\u002Finstall\u002Fdocker)。\n对于使用AVX2编译的TensorFlow-CPU，我们推荐使用此预编译版本[build](https:\u002F\u002Fgithub.com\u002Flakshayg\u002Ftensorflow-build)。\n\n此外，还有一个专门为支持AVX-512指令的CPU构建的TensorFlow Docker镜像，获取方法如下：\n\n```bash\ndocker pull clearlinux\u002Fstacks-dlrs_2-mkl    \n```\n\n`config.py`控制着TensorFlow训练的参数，例如学习率。`example_full_softmax.py`和`example_sampled_softmax.py`分别是针对Amazon-670K数据集使用全softmax和采样softmax的示例文件。\n\n运行：\n\n```bash\npython python_examples\u002Fexample_full_softmax.py\npython python_examples\u002Fexample_sampled_softmax.py\n```\n\n## 运行SLIDE\n\n### 依赖项\n\n- CMake v3.0及以上版本\n- 支持C++11的编译器\n- Linux：Ubuntu 16.04及更高版本\n- 必须启用透明大页。\n  - SLIDE大约需要900个2MB页面和10个1GB页面：([说明](https:\u002F\u002Fwiki.debian.org\u002FHugepages))\n\n### 注意事项：\n\n- 为简化操作，请参考我们提供的[Docker](https:\u002F\u002Fhub.docker.com\u002Frepository\u002Fdocker\u002Fottovonxu\u002Fslide)镜像，其中已安装所有环境。若要不设置大页而复现实验，请将[Amazon-670K](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B3lPMIHmG6vGdUJwRzltS1dvUVk)下载至路径```\u002Fhome\u002Fcode\u002FHashingDeepLearning\u002Fdataset\u002FAmazon```。\n\n- 另外请注意，仅Skylake或更新架构支持大页。对于较老的Haswell处理器，我们需要从Makefile中的`OPT_FLAGS`行中移除标志`-mavx512f`。您也可以回退到提交`2d10d46b5f6f1eda5d19f27038a596446fc17cee`以忽略大页优化，但仍可使用SLIDE（这可能导致性能降低30%）。\n\n- 此版本会构建所有依赖项（目前包括[ZLIB](https:\u002F\u002Fgithub.com\u002Fmadler\u002Fzlib\u002Ftree\u002Fv1.2.11)和[CNPY](https:\u002F\u002Fgithub.com\u002Fsarthakpati\u002Fcnpy)）。\n\n### 命令\n\n请适当修改```.\u002FSLIDE\u002FConfig_amz.csv```中的路径。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fsarthakpati\u002FHashingDeepLearning.git\ncd HashingDeepLearning\nmkdir bin\ncd bin\ncmake ..\nmake\n.\u002Frunme ..\u002FSLIDE\u002FConfig_amz.csv\n```","# HashingDeepLearning 快速上手指南\n\n## 环境准备\n\n- **系统要求**：Ubuntu 16.04 或更高版本。推荐使用 Docker 镜像避免手动配置。\n- **前置依赖**：\n  - Docker（若使用 Docker 方式）\n  - CMake ≥3.0，C++11 编译器（如 GCC 5+，若直接编译）\n  - 若直接编译，需启用 Transparent HugePages（约 900 个 2MB 页面和 10 个 1GB 页面，[参考说明](https:\u002F\u002Fwiki.debian.org\u002FHugepages)）\n- **数据集**：Amazon-670K 数据集，[下载地址](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B3lPMIHmG6vGdUJwRzltS1dvUVk)（国内用户建议使用网盘加速工具或镜像源）\n\n## 安装步骤\n\n### 方式一：使用 Docker（推荐）\n\n1. 拉取 Docker 镜像（国内用户可配置 Docker 加速器）：\n   ```bash\n   docker pull ottovonxu\u002Fslide\n   ```\n\n2. 下载数据集并解压到本地目录，例如 `~\u002Fdata\u002FAmazon-670K`。\n\n3. 启动容器并挂载数据集：\n   ```bash\n   docker run -it -v ~\u002Fdata:\u002Fhome\u002Fcode\u002FHashingDeepLearning\u002Fdataset\u002FAmazon ottovonxu\u002Fslide\n   ```\n\n### 方式二：直接编译\n\n1. 克隆仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fsarthakpati\u002FHashingDeepLearning.git\n   cd HashingDeepLearning\n   ```\n\n2. 创建编译目录并编译：\n   ```bash\n   mkdir bin && cd bin\n   cmake ..\n   make\n   ```\n\n3. 将下载的 Amazon-670K 数据集解压到项目目录下的 `SLIDE\u002Fdataset\u002FAmazon` 路径。\n\n## 基本使用\n\n运行示例命令：\n```bash\n.\u002Frunme ..\u002FSLIDE\u002FConfig_amz.csv\n```\n\n> 注意：确保 `Config_amz.csv` 中的路径正确指向数据集位置","某电商平台的AI工程师正在为商品推荐系统训练多标签分类模型，使用Amazon-670K数据集，但受限于计算资源和训练效率。\n\n### 没有 HashingDeepLearning 时\n- 需租用高端GPU云实例，每月云服务成本高达6000美元。\n- 在CPU上训练时，单次迭代需10小时以上，严重拖慢模型迭代速度。\n- 处理670K标签时，内存占用超150GB，频繁触发内存溢出导致训练中断。\n- 需手动启用Transparent Huge Pages并配置大量内存页，但服务器默认未设置，操作复杂且易出错。\n\n### 使用 HashingDeepLearning 后\n- 仅需普通4核CPU服务器，月成本降至500美元，硬件开支减少92%。\n- 训练速度提升5倍，单次迭代仅需2小时，显著加速模型调优周期。\n- 内存优化后仅需30GB，稳定运行无崩溃，支持更复杂的模型结构。\n- 通过Docker镜像自动处理HugePages优化，5分钟内完成环境搭建，无需手动调整硬件参数。\n\nHashingDeepLearning让大规模深度学习在普通硬件上高效运行，大幅降低企业成本并加速产品创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkeroro824_HashingDeepLearning_c81aa136.png","keroro824","Beidi Chen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkeroro824_89ab1233.jpg","Assistant Prof@CMU, Research Scientist@FAIR",null,"bettychen824@gmail.com","https:\u002F\u002Fwww.andrew.cmu.edu\u002Fuser\u002Fbeidic\u002F","https:\u002F\u002Fgithub.com\u002Fkeroro824",[84,88,92,96,100],{"name":85,"color":86,"percentage":87},"C++","#f34b7d",78.7,{"name":89,"color":90,"percentage":91},"Python","#3572A5",14.9,{"name":93,"color":94,"percentage":95},"CMake","#DA3434",4.4,{"name":97,"color":98,"percentage":99},"Makefile","#427819",1.1,{"name":101,"color":102,"percentage":103},"C","#555555",0.9,1104,170,"2026-03-29T06:39:53","MIT",4,"Linux","否","16GB+",{"notes":113,"python":114,"dependencies":115},"必须启用Transparent Huge Pages，建议使用Docker镜像ottovonxu\u002Fslide，Amazon-670K数据集需下载至\u002Fhome\u002Fcode\u002FHashingDeepLearning\u002Fdataset\u002FAmazon，旧CPU需移除Makefile中的-mavx512f标志或回退到commit 2d10d46b5f6f1eda5d19f27038a596446fc17cee","未说明",[116,117],"zlib","cnpy",[13],"2026-03-27T02:49:30.150509","2026-04-06T06:52:05.579393",[122,127,132,137,142],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},8852,"CMake配置时出现错误，如何修复？","在Node.h文件中添加以下头文件：#include \u003Csys\u002Fmman.h> 和 #include \u003Casm-generic\u002Fmman-common.h>","https:\u002F\u002Fgithub.com\u002Fkeroro824\u002FHashingDeepLearning\u002Fissues\u002F8",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},8853,"如何使代码运行结果与论文一致？","在config.py中设置max_label为1-5（例如Amazon-670K数据集）；使用full softmax（图5基于full softmax）；运行时间差异：无HugePages时速度提升2.7倍，有HugePages时速度提升3.5倍。","https:\u002F\u002Fgithub.com\u002Fkeroro824\u002FHashingDeepLearning\u002Fissues\u002F24",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},8854,"运行时出现'Illegal instruction (core dumped)'错误如何解决？","CPU不支持AVX512f指令集，需更换支持AVX512f的CPU。","https:\u002F\u002Fgithub.com\u002Fkeroro824\u002FHashingDeepLearning\u002Fissues\u002F13",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},8855,"如何获取Amazon-670k数据集？","从http:\u002F\u002Fmanikvarma.org\u002Fdownloads\u002FXC\u002FXMLRepository.html 或 Google Drive链接 https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TLaXCNB_IDtLhk4ycOnyud0PswWAW6hR\u002Fedit 下载。","https:\u002F\u002Fgithub.com\u002Fkeroro824\u002FHashingDeepLearning\u002Fissues\u002F42",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},8856,"运行时出现段错误(Segmentation fault)如何解决？","检查huge pages支持：运行命令 `grep pse \u002Fproc\u002Fcpuinfo | uniq` 和 `grep pdpe1gb \u002Fproc\u002Fcpuinfo | uniq`，若输出非空则支持。临时分配：`sysctl -w vm.nr_hugepages=4096`。永久启用：在grub配置中添加 `transparent_hugepage=always hugepagesz=1GB hugepages=10 hugepagesz=2MB hugepages=900`，更新grub并重启。","https:\u002F\u002Fgithub.com\u002Fkeroro824\u002FHashingDeepLearning\u002Fissues\u002F18",[]]