[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-seungwonpark--RandWireNN":3,"tool-seungwonpark--RandWireNN":64},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,2,"2026-04-06T11:32:50",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[15,16,52,61,13,62,43,14,63],"插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":95,"env_os":96,"env_gpu":97,"env_ram":96,"env_deps":98,"category_tags":104,"github_topics":105,"view_count":32,"oss_zip_url":94,"oss_zip_packed_at":94,"status":17,"created_at":108,"updated_at":109,"faqs":110,"releases":151},4650,"seungwonpark\u002FRandWireNN","RandWireNN","Implementation of: \"Exploring Randomly Wired Neural Networks for Image Recognition\"","RandWireNN 是一个基于 PyTorch 的开源项目，复现了论文《Exploring Randomly Wired Neural Networks for Image Recognition》中的核心思想。它旨在探索一种非传统的神经网络构建方式：不再依赖人工设计的固定层级结构，而是利用随机图生成算法（如 Erdos-Renyi、Watts-Strogatz 等）自动创建神经网络的连接拓扑，并将其应用于图像识别任务。\n\n该项目主要解决了深度学习模型架构搜索中过度依赖人工经验的问题，通过实验验证了随机生成的网络结构在 ImageNet 数据集上同样具备出色的特征提取与分类能力。尽管是非官方实现，但它提供了完整的训练、验证及可视化流程，并记录了不同优化器与超参数下的详细性能数据，为复现和研究提供了宝贵参考。\n\nRandWireNN 特别适合人工智能研究人员、算法工程师以及对神经网络架构创新感兴趣的开发者使用。用户不仅可以利用其进行图像分类模型的训练与评估，还能通过内置脚本灵活生成各种随机有向无环图（DAG），深入探究网络结构与性能之间的关系。其独特的技术亮点在于将图论中的经典随机模型","RandWireNN 是一个基于 PyTorch 的开源项目，复现了论文《Exploring Randomly Wired Neural Networks for Image Recognition》中的核心思想。它旨在探索一种非传统的神经网络构建方式：不再依赖人工设计的固定层级结构，而是利用随机图生成算法（如 Erdos-Renyi、Watts-Strogatz 等）自动创建神经网络的连接拓扑，并将其应用于图像识别任务。\n\n该项目主要解决了深度学习模型架构搜索中过度依赖人工经验的问题，通过实验验证了随机生成的网络结构在 ImageNet 数据集上同样具备出色的特征提取与分类能力。尽管是非官方实现，但它提供了完整的训练、验证及可视化流程，并记录了不同优化器与超参数下的详细性能数据，为复现和研究提供了宝贵参考。\n\nRandWireNN 特别适合人工智能研究人员、算法工程师以及对神经网络架构创新感兴趣的开发者使用。用户不仅可以利用其进行图像分类模型的训练与评估，还能通过内置脚本灵活生成各种随机有向无环图（DAG），深入探究网络结构与性能之间的关系。其独特的技术亮点在于将图论中的经典随机模型引入深度学习架构设计，为自动化神经网络搜索（NAS）提供了新的视角和实验基准。","# RandWireNN\n\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fexploring-randomly-wired-neural-networks-for\u002Fimage-classification-imagenet-image-reco)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fimage-classification-imagenet-image-reco?p=exploring-randomly-wired-neural-networks-for)\n\nUnofficial PyTorch Implementation of:\n[Exploring Randomly Wired Neural Networks for Image Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.01569).\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fseungwonpark_RandWireNN_readme_d1c2434b54e2.png)\n\n## Results\n\nValidation result on Imagenet(ILSVRC2012) dataset:\n\n| Top 1 accuracy (%)         | Paper | Here |\n| -------------------------- | ----- | ---- |\n| RandWire-WS(4, 0.75), C=78 | 74.7  | 69.2 |\n\n\n- (2019.06.26) 69.2%: 250 epoch with SGD optimizer, lr 0.1, momentum 0.9, weight decay 5e-5, cosine annealing lr schedule (no label smoothing applied, see loss curve below)\n- (2019.04.14) 62.6%: 396k steps with SGD optimizer, lr 0.1, momentum 0.9, weigth decay 5e-5, lr decay about 0.1 at 300k\n- (2019.04.12) 62.6%: 416k steps with Adabound optimizer, initial lr 0.001(decayed about 0.1 at 300k), final lr 0.1, no weight decay \n- (2019.04) [JiaminRen's implementation](https:\u002F\u002Fgithub.com\u002FJiaminRen\u002FRandWireNN) reached accuarcy which is almost close to paper, using identical training strategy with paper.\n- (2019.04.10) 63.0%: 450k steps with Adam optimizer, initial lr 0.001, lr decay about 0.1 for every 150k step\n- (2019.04.07) 56.8%: Training took about 16 hours on AWS p3.2xlarge(NVIDIA V100). 120k steps were done in total, and Adam optimizer with `lr=0.001, batch_size=128` was used with no learning rate decay.\n  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fseungwonpark_RandWireNN_readme_06c385e5aafd.png)\n\n## Dependencies\n\nThis code was tested on Python 3.6 with PyTorch 1.0.1. Other packages can be installed by:\n```bash\npip install -r requirements.txt\n```\n\n## Generate random DAG\n\n```bash\ncd model\u002Fgraphs\npython er.py -p 0.2 -o er-02.txt # Erdos-Renyi\npython ba.py -m 7 -o ba-7.txt # Barbasi-Albert\npython ws.py -k 4 -p 0.75 ws-4-075.txt # Watts-Strogatz\n# number of nodes: -n option\n```\n\nAll outputs from commands shown above will produce txt file like:\n```\n(number of nodes)\n(number of edges)\n(lines, each line representing edges)\n```\n\n## Train RandWireNN\n\n1. Download ImageNet dataset. Train\u002Fval folder should contain list of 1,000 directories, each containing list of images for corresponding category. For validation image files, this script can be useful: https:\u002F\u002Fraw.githubusercontent.com\u002Fsoumith\u002Fimagenetloader.torch\u002Fmaster\u002Fvalprep.sh\n1. Edit `config.yaml`\n    ```bash\n    cd config\n    cp default.yaml config.yaml\n    vim config.yaml # specify data directory, graph txt files\n    ```\n1. Train\n\n    *Note.* Validation performed here won't use entire test set, since it will consume much time. (about 3 min.)\n    ```\n    python trainer.py -c [config yaml] -m [name]\n    ```\n1. View tensorboardX\n    ```\n    tensorboard --logdir .\u002Flogs\n    ```\n\n## Validation\n\nRun full validation:\n\n```bash\npython validation.py -c [config path] -p [checkpoint path]\n```\n\nThis will show accuracy and average test loss of the trained model.\n\n\n## Author\n\nSeungwon Park \u002F [@seungwonpark](http:\u002F\u002Fswpark.me)\n\n## License\n\nApache License 2.0\n","# RandWireNN\n\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fexploring-randomly-wired-neural-networks-for\u002Fimage-classification-imagenet-image-reco)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fimage-classification-imagenet-image-reco?p=exploring-randomly-wired-neural-networks-for)\n\n非官方 PyTorch 实现：\n[探索用于图像识别的随机连接神经网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.01569)。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fseungwonpark_RandWireNN_readme_d1c2434b54e2.png)\n\n## 结果\n\n在 ImageNet (ILSVRC2012) 数据集上的验证结果：\n\n| Top 1 准确率 (%)         | 论文 | 此处 |\n| -------------------------- | ----- | ---- |\n| RandWire-WS(4, 0.75), C=78 | 74.7  | 69.2 |\n\n\n- (2019.06.26) 69.2%：使用 SGD 优化器训练 250 个 epoch，学习率 0.1，动量 0.9，权重衰减 5e-5，余弦退火学习率调度（未应用标签平滑，见下方损失曲线）\n- (2019.04.14) 62.6%：使用 SGD 优化器训练 396k 步，学习率 0.1，动量 0.9，权重衰减 5e-5，约在 300k 步时将学习率衰减至 0.1\n- (2019.04.12) 62.6%：使用 Adabound 优化器训练 416k 步，初始学习率 0.001（约在 300k 步时衰减至 0.1），最终学习率 0.1，无权重衰减 \n- (2019.04) [JiaminRen 的实现](https:\u002F\u002Fgithub.com\u002FJiaminRen\u002FRandWireNN) 使用与论文相同的训练策略，达到了几乎接近论文的准确率。\n- (2019.04.10) 63.0%：使用 Adam 优化器训练 450k 步，初始学习率 0.001，每 150k 步将学习率衰减约 0.1\n- (2019.04.07) 56.8%：在 AWS p3.2xlarge (NVIDIA V100) 上训练耗时约 16 小时。总共进行了 120k 步训练，使用 Adam 优化器，设置 `lr=0.001, batch_size=128`，且未进行学习率衰减。\n  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fseungwonpark_RandWireNN_readme_06c385e5aafd.png)\n\n## 依赖项\n\n此代码已在 Python 3.6 和 PyTorch 1.0.1 环境下测试通过。其他依赖包可通过以下命令安装：\n```bash\npip install -r requirements.txt\n```\n\n## 生成随机有向无环图\n\n```bash\ncd model\u002Fgraphs\npython er.py -p 0.2 -o er-02.txt # Erdos-Renyi\npython ba.py -m 7 -o ba-7.txt # Barbasi-Albert\npython ws.py -k 4 -p 0.75 ws-4-075.txt # Watts-Strogatz\n# 节点数：-n 选项\n```\n\n上述所有命令的输出都会生成类似如下的 txt 文件：\n```\n(节点数)\n(边数)\n(每行代表一条边)\n```\n\n## 训练 RandWireNN\n\n1. 下载 ImageNet 数据集。训练\u002F验证文件夹应包含 1,000 个目录，每个目录内存放对应类别的图片列表。对于验证图片文件，可使用以下脚本：https:\u002F\u002Fraw.githubusercontent.com\u002Fsoumith\u002Fimagenetloader.torch\u002Fmaster\u002Fvalprep.sh\n1. 编辑 `config.yaml`\n    ```bash\n    cd config\n    cp default.yaml config.yaml\n    vim config.yaml # 指定数据目录和图的 txt 文件\n    ```\n1. 开始训练\n\n    *注意*：此处的验证不会使用完整的测试集，因为这会耗费大量时间。（约 3 分钟）\n    ```\n    python trainer.py -c [config yaml] -m [name]\n    ```\n1. 查看 tensorboardX\n    ```\n    tensorboard --logdir .\u002Flogs\n    ```\n\n## 验证\n\n运行完整验证：\n\n```bash\npython validation.py -c [配置文件路径] -p [检查点路径]\n```\n\n这将显示已训练模型的准确率和平均测试损失。\n\n\n## 作者\n\nSeungwon Park \u002F [@seungwonpark](http:\u002F\u002Fswpark.me)\n\n## 许可证\n\nApache License 2.0","# RandWireNN 快速上手指南\n\nRandWireNN 是论文《Exploring Randomly Wired Neural Networks for Image Recognition》的非官方 PyTorch 实现，旨在探索随机连接神经网络在图像识别任务中的表现。\n\n## 环境准备\n\n- **操作系统**: Linux \u002F macOS (Windows 需自行适配)\n- **Python 版本**: 推荐 Python 3.6+\n- **深度学习框架**: PyTorch 1.0.1+\n- **硬件要求**: 建议使用支持 CUDA 的 NVIDIA GPU（如 V100）以加速训练\n\n## 安装步骤\n\n1. 克隆项目代码（假设已获取源码目录）：\n   ```bash\n   cd RandWireNN\n   ```\n\n2. 安装依赖包（国内用户推荐使用清华或阿里镜像源加速）：\n   ```bash\n   pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n## 基本使用\n\n### 1. 生成随机有向无环图 (DAG)\n\n进入模型图生成目录，选择一种随机图算法生成拓扑结构文件：\n\n```bash\ncd model\u002Fgraphs\n# Erdos-Renyi 模型\npython er.py -p 0.2 -o er-02.txt\n# Barabasi-Albert 模型\npython ba.py -m 7 -o ba-7.txt\n# Watts-Strogatz 模型 (论文主要使用此模型)\npython ws.py -k 4 -p 0.75 -o ws-4-075.txt\n```\n*注：可通过 `-n` 参数指定节点数量。生成的 txt 文件包含节点数、边数及具体的边连接信息。*\n\n### 2. 配置训练参数\n\n1. 准备 ImageNet (ILSVRC2012) 数据集，确保训练集和验证集目录结构正确（包含 1000 个类别子文件夹）。\n2. 复制并编辑配置文件：\n   ```bash\n   cd config\n   cp default.yaml config.yaml\n   vim config.yaml\n   ```\n   在 `config.yaml` 中修改以下关键项：\n   - `data_dir`: 指向 ImageNet 数据集根目录。\n   - `graph_file`: 指向上一步生成的图结构 txt 文件路径（如 `..\u002Fmodel\u002Fgraphs\u002Fws-4-075.txt`）。\n\n### 3. 开始训练\n\n运行训练脚本，指定配置文件和实验名称：\n\n```bash\npython trainer.py -c config\u002Fconfig.yaml -m randwire_exp\n```\n\n训练过程中可使用 TensorBoard 监控损失和准确率：\n\n```bash\ntensorboard --logdir .\u002Flogs\n```\n\n### 4. 模型验证\n\n训练完成后，使用检查点文件进行完整验证：\n\n```bash\npython validation.py -c config\u002Fconfig.yaml -p .\u002Flogs\u002Frandwire_exp\u002Fcheckpoint_best.pth\n```\n\n该命令将输出模型在验证集上的 Top-1 准确率和平均测试损失。","某计算机视觉团队正在为医疗影像诊断系统研发高精度图像分类模型，试图在有限的算力资源下突破现有架构的性能瓶颈。\n\n### 没有 RandWireNN 时\n- **架构设计受限**：团队过度依赖 ResNet 或 DenseNet 等手工设计的固定拓扑结构，难以探索更优的特征传递路径。\n- **调参成本高昂**：为了提升准确率，工程师需花费数周时间手动调整层数、连接方式及超参数，试错效率极低。\n- **性能遭遇天花板**：在 ImageNet 等复杂数据集上，传统主干网络的 Top-1 准确率停滞不前，难以满足临床辅助诊断对细微病灶识别的高要求。\n- **创新验证困难**：缺乏快速生成和验证非标准网络结构的工具，导致关于“随机连接是否有效”的理论假设无法落地实测。\n\n### 使用 RandWireNN 后\n- **自动探索拓扑**：利用 RandWireNN 内置的 Erdos-Renyi 或 Watts-Strogatz 算法，一键生成多样化的随机有向无环图（DAG），自动发现潜在的高效网络结构。\n- **研发周期缩短**：无需手动设计每一层连接，通过配置文件即可批量训练不同随机种子生成的模型，将架构搜索时间从数周压缩至数天。\n- **准确率显著突破**：实验显示，特定参数下的随机连接网络在 ImageNet 验证集上取得了接近论文报告的优异成绩，证明了非直观连接模式在特征提取上的独特优势。\n- **理论快速落地**：直接复用官方提供的 PyTorch 实现与训练脚本，快速验证了随机连接理论在特定医疗影像任务中的泛化能力。\n\nRandWireNN 通过引入随机图论思想，打破了人工设计神经网络的思维定式，以自动化探索的方式为图像识别任务开辟了新的性能增长路径。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fseungwonpark_RandWireNN_62b26d7d.png","seungwonpark","Seung-won Park","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fseungwonpark_a7711b8d.jpg","박승원 · ML Engineer @moloco · 3+ yrs of ongoing work in ML for ads, 3 yrs of past experience in speech synthesis.","@moloco","Menlo Park, California, United States","seungwon.park@moloco.com","veydpz_public","https:\u002F\u002Fswpark.me","https:\u002F\u002Fgithub.com\u002Fseungwonpark",[87],{"name":88,"color":89,"percentage":90},"Python","#3572A5",100,686,136,"2025-12-31T08:03:46",null,4,"未说明","需要 NVIDIA GPU (基于 AWS p3.2xlarge\u002FNVIDIA V100 测试记录)，具体显存和 CUDA 版本未说明",{"notes":99,"python":100,"dependencies":101},"该工具为论文的非官方 PyTorch 实现。训练需准备 ImageNet (ILSVRC2012) 数据集并按特定目录结构整理。生成随机图结构需运行 model\u002Fgraphs 下的脚本生成 txt 文件，并在 config.yaml 中指定路径。验证集评估默认不使用完整测试集以节省时间。","3.6",[102,103],"torch==1.0.1","tensorboardX",[15],[106,107],"neural-architecture-search","imagenet","2026-03-27T02:49:30.150509","2026-04-07T06:24:37.327717",[111,116,121,126,131,136,141,146],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},21162,"关于 BA 和 WS 模型的节点索引分配策略是否正确？","这是一个关键问题。根据论文附录，ER 模型索引随机分配；BA 模型初始 M 个节点索引为 1 到 M，后续节点按加入顺序索引；WS 模型按顺时针顺序依次分配索引。当前实现对所有模型都使用了随机索引分配，这对于 BA 和 WS 模型是不正确的，需要重新实验修正。","https:\u002F\u002Fgithub.com\u002Fseungwonpark\u002FRandWireNN\u002Fissues\u002F8",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},21163,"DAGLayer 的输入节点（Input Node）是否应该包含可学习的聚合权重？","不应该。对于 DAGLayer 的输入节点，NodeOp 不应将输入乘以可学习参数，而应该直接传递输入本身。维护者已确认此逻辑错误并计划修复。","https:\u002F\u002Fgithub.com\u002Fseungwonpark\u002FRandWireNN\u002Fissues\u002F2",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},21156,"如何正确设置输出通道数（Output Channels）以获得更好的准确率？","原代码在输出节点增加通道数的做法是不正确的。根据 Kaiming He 的论文，通道数应在从一级进入下一级时在输入节点增加（即翻倍）。维护者已确认此问题并修复：修正通道数设置后，Top-1 准确率从 64.0% 提升到了 69.2%。该修复已合并到 master 分支。","https:\u002F\u002Fgithub.com\u002Fseungwonpark\u002FRandWireNN\u002Fissues\u002F11",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},21157,"权重初始化为 0 会导致问题吗？代码中的初始化逻辑是什么？","不会初始化为真正的 0。代码中虽然看似初始化为 0，但实际上应用了 Sigmoid 函数来计算最终权重，因此实际初始权重值为 0.5。","https:\u002F\u002Fgithub.com\u002Fseungwonpark\u002FRandWireNN\u002Fissues\u002F10",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},21158,"训练一个 epoch 通常需要多长时间？","时间取决于硬件配置和 batch size。维护者使用单张 Tesla V100 (16GB)，batch size 为 128，运行 120k steps 大约需要 16 小时（折合单个 epoch 约 1.3 小时）。有用户使用 4 张 TITAN Xp GPU 配合 nn.DataParallel 并将 batch size 扩大到 420，每个 epoch 大约需要 2 小时。","https:\u002F\u002Fgithub.com\u002Fseungwonpark\u002FRandWireNN\u002Fissues\u002F7",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},21159,"是否支持将 RandWireNN 作为 Faster R-CNN 的主干网络进行目标检测训练？","原论文末尾提到了使用 Faster R-CNN + FPN + RandWireNN 进行 COCO 目标检测的实验。但当前仓库尚未实现这部分代码。维护者表示由于对计算机视觉其他任务尚不熟悉，完整实现需要时间，目前仓库主要供研究人员测试 RandWireNN 作为分类主干网络使用。","https:\u002F\u002Fgithub.com\u002Fseungwonpark\u002FRandWireNN\u002Fissues\u002F9",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},21160,"如何生成项目 README 中的神经网络结构图（teaser.png）？","该图片直接来源于原始论文，仓库中未包含生成该图片的代码。维护者推测原图是使用 Graphviz 工具绘制的。","https:\u002F\u002Fgithub.com\u002Fseungwonpark\u002FRandWireNN\u002Fissues\u002F19",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},21161,"训练和评估流程以及学习率调度器是否有改进计划？","是的，原有的训练过程是在 while 循环中迭代进行，每 1000 步评估一次。维护者计划将其修改为在每个 epoch 结束时进行评估，这样也能更方便地配置学习率调度器（LR scheduling）。相关修复曾在 `fix-13` 分支中进行。","https:\u002F\u002Fgithub.com\u002Fseungwonpark\u002FRandWireNN\u002Fissues\u002F13",[]]