deeplearning-papernotes
deeplearning-papernotes 是一个专注于深度学习领域的开源知识库,旨在为研究者提供高质量的研究论文摘要与笔记。面对深度学习领域论文爆发式增长、阅读门槛高且难以快速把握核心思想的痛点,该项目通过人工梳理,将复杂的学术成果转化为结构清晰、易于理解的精华内容。
它特别适合人工智能研究人员、算法工程师以及希望紧跟前沿技术的学生使用。无论是需要快速调研某个细分方向(如强化学习、计算机视觉或自然语言处理),还是希望深入理解矩阵微积分等基础理论,用户都能在此找到按时间线整理的精选论文解读。从 IMPALA 分布式架构到 DensePose 人体姿态估计,再到对抗样本与可解释性分析,内容覆盖广泛且更新及时。
其独特亮点在于不仅提供论文链接,还往往附带官方代码库、技术博客文章及相关资源索引,帮助用户实现从理论理解到代码复现的无缝衔接。通过社区协作的方式,deeplearning-papernotes 持续沉淀有价值的学术洞察,是深度学习从业者高效获取知识、节省文献筛选时间的得力助手。
使用场景
某自动驾驶初创公司的算法工程师正急需为无人机编队开发一套能在复杂野外环境中稳定飞行的视觉导航系统,同时需要快速复现前沿的强化学习策略。
没有 deeplearning-papernotes 时
- 文献检索如大海捞针:面对 arXiv 上每天涌现的数百篇论文,难以快速筛选出与“无人机飞行(DroNet)”或“分布式强化学习(IMPALA)”直接相关的核心文章,大量时间浪费在浏览标题和摘要上。
- 数学推导门槛高:在阅读《深度学习所需的矩阵微积分》等基础理论论文时,复杂的公式推导往往让工程师卡壳数天,难以将理论转化为代码逻辑。
- 复现路径不清晰:即使找到了像 DensePose 或 Soft Actor-Critic 这样的关键论文,也常因找不到官方代码链接、配套文章或具体的实验设置细节,导致复现工作反复试错,进度严重滞后。
- 知识体系碎片化:团队内部缺乏对“在线学习”或“可解释性”等综述类文章的统一认知,导致技术选型时各自为战,难以形成合力。
使用 deeplearning-papernotes 后
- 精准定位前沿成果:通过按月整理的清单,工程师能瞬间锁定 2018 年初发布的 DroNet 和 IMPALA 论文,并直接获取对应的 GitHub 代码库和 DeepMind 官方博客解读,将调研时间从数周缩短至几小时。
- 攻克理论难点:借助工具中收录的矩阵微积分笔记和深度批判性评估文章,团队快速补齐了数学短板,顺利推导出适合无人机传感器数据的损失函数。
- 一站式复现资源:每个条目都附带了论文、技术文章和源代码的直接链接,工程师可以直接基于 SBNet 或 DeepType 的开源实现进行微调,大幅降低了环境配置和调试成本。
- 构建系统化认知:利用工具提供的综述类笔记(如视觉可解释性调查),团队迅速统一了技术路线图,明确了从感知到决策的最优架构组合。
deeplearning-papernotes 通过将分散的顶会论文、代码实现与通俗解读结构化整合,成为了深度学习研究者从理论通往工程落地的最高效桥梁。
运行环境要求
未说明
未说明

快速开始
2018年2月
- 深度学习所需的矩阵微积分 [arXiv]
- 用于图像分类器架构搜索的正则化进化算法 [arXiv]
- 在线学习:全面综述 [arXiv]
- 深度学习的视觉可解释性:综述 [arXiv]
- 行为即一切——以感觉运动协变性表征概念 [论文] [文章] [代码]
- IMPALA:基于重要性加权演员-学习者架构的可扩展分布式深度强化学习 [arXiv] [文章] [代码]
- DeepType:通过神经类型系统演化实现多语言实体链接 [arXiv] [文章] [代码]
- DensePose:野外密集人体姿态估计 [arXiv] [文章]
2018年1月
- 嵌套LSTM [arXiv]
- 通过总结长序列生成维基百科 [arXiv]
- 面向电子健康记录的可扩展且精确的深度学习 [arXiv]
- 基于条件协方差最小化的核特征选择 [NIPS论文] [文章] [代码]
- Psychlab:面向深度强化学习智能体的心理学实验室 [arXiv] [文章] [代码]
- 针对文本分类的微调语言模型 [arXiv] [代码](即将发布)
- 深度学习:应用数学家入门 [arXiv]
- 先天性、AlphaZero与人工智能 [arXiv]
- 计算机能创作艺术吗?[arXiv]
- eCommerceGAN:用于电子商务的生成对抗网络 [arXiv]
- 强化学习中的期望策略梯度 [arXiv]
- DroNet:通过驾驶学习飞行 [UZH文档] [文章] [代码]
- 非对称博弈的对称分解 [Scientific Reports] [文章]
- 软演员-评论家:基于随机演员的离策略最大熵深度强化学习 [arXiv] [代码]
- SBNet:用于快速推理的稀疏块网络 [arXiv] [文章] [代码]
- DeepMind控制套件 [arXiv] [代码]
- 深度学习:批判性评析 [arXiv]
2017年12月
- 对抗性补丁 [arXiv]
- 只需CNN即可 [arXiv]
- 从物理人机交互中学习机器人目标 [论文] [文章]
- NarrativeQA阅读理解挑战 [arXiv] [数据集]
- 会发声的对象 [arXiv]
- 基于梅尔频谱图预测的WaveNet自然TTS合成 [arXiv] [文章] [文章2]
- 深度神经进化:遗传算法是训练深度神经网络进行强化学习的一种有竞争力的替代方案 [arXiv] [文章] [代码]
- 通过一群追求新颖性的智能体改进深度强化学习进化策略中的探索 [arXiv] [文章] [代码]
- 无限制德州扑克中超越人类水平的人工智能:Libratus击败顶尖职业选手 [Science]
- 深度学习的数学 [arXiv]
- 基于序列到序列模型的最先进语音识别 [arXiv] [文章]
- Peephole:在训练前预测网络性能 [arXiv]
- 审议网络:推动神经机器翻译的前沿 [微软研究] [文章]
- 用于块稀疏权重的GPU内核 [OpenAI研究] [文章] [代码]
- 通过通用强化学习算法的自我博弈掌握国际象棋和将棋 [arXiv]
- 深度学习的规模效应具有可预测性,经验证明 [arXiv] [文章]
2017年11月
- 基于条件生成对抗网络的高分辨率图像合成与语义操控 [arXiv] [文章] [代码]
- StarGAN:用于多领域图像到图像转换的统一生成对抗网络 [arXiv] [代码]
- 神经网络的群体基础训练 [arXiv] [文章]
- 将神经网络蒸馏为软决策树 [arXiv]
- 神经文本生成:实用指南 [arXiv]
- 并行WaveNet:快速高保真语音合成 [DeepMind文档] [文章]
- CheXNet:基于深度学习的胸部X光片肺炎检测达到放射科医生水平 [arXiv] [文章]
- 非局部神经网络 [arXiv]
- 深度图像先验 [论文] [文章] [代码]
- 在线深度学习:实时学习深度神经网络 [arXiv]
- 从噪声数据中学习解释性规则 [arXiv]
- 利用深度学习改善姑息治疗 [arXiv] [文章]
- VoxelNet:基于点云的三维目标检测端到端学习 [arXiv]
- 用于机器翻译的加权Transformer网络 [arXiv] [文章]
- 非自回归神经机器翻译 [arXiv] [文章]
- 块稀疏循环神经网络 [arXiv]
- 多智能体强化学习的统一博弈论方法 [arXiv]
- 神经离散表征学习 [arXiv] [文章]
- 不要衰减学习率,增大批量大小 [arXiv]
- 用于高效架构搜索的层次化表示 [arXiv]
2017年10月
- 仅使用单语语料库的无监督机器翻译 [arXiv]
- 胶囊之间的动态路由 [arXiv]
- 一种以高数据效率训练并破解基于文本的验证码的生成式视觉模型 [Science] [文章] [代码]
- 理解具身语言学习智能体 [arXiv]
- 计划,快与慢:自适应实时安全轨迹规划框架 [arXiv] [文章] [代码](即将发布)
- 通过“吃掉”整个EXE文件进行恶意软件检测 [arXiv] [文章]
- 改进质量、稳定性和多样性的GAN渐进式增长方法 [NVIDIA研究] [文章] [代码]
- 共享层次结构的元学习 [arXiv] [文章] [代码]
- Deep Voice 3:2000位说话人的神经网络文本转语音系统 [arXiv] [文章]
- AVA:一个时空局部化的原子视觉动作视频数据集 [arXiv] [文章] [数据集]
- 不依赖人类知识掌握围棋游戏 [Nature] [文章]
- 基于动力学随机化的机器人控制从仿真到现实的迁移 [arXiv] [文章]
- 基于图像的机器人学习中的非对称演员评论家算法 [arXiv] [文章]
- 卷积神经网络中类别不平衡问题的系统性研究 [arXiv]
- 深度学习中的泛化能力 [arXiv]
- Swish:一种自门控激活函数 [arXiv]
- 多智能体通信中的涌现式翻译 [arXiv]
- SLING:一种用于框架语义解析的框架 [arXiv] [文章] [代码]
- 摔跤领域的元学习 [arXiv] [文章] [代码]
- 混合精度训练 [arXiv] [文章] [文章2] [文档/代码]
- 生成对抗网络:概述 [arXiv]
- 多智能体竞争中的涌现复杂性 [arXiv] [文章] [代码]
- 深度格网网络与部分单调函数 [Google研究] [文章] [代码]
- 孟买理工学院英印平行语料库 [arXiv] [文章]
- Rainbow:结合深度强化学习中的多项改进 [arXiv]
- 基于动态可扩展网络的终身学习 [arXiv]
- 变分推断与深度学习:一种新的综合(论文) [dropbox]
- 神经任务编程:学习在层次化任务间泛化 [arXiv]
- 图像之间的神经色彩迁移 [arXiv]
- 海马体作为预测地图 [biorXiv] [文章]
- 面向电子健康记录的可扩展且准确的深度学习 [arXiv]
2017年9月
- 生成模型中的变分记忆寻址 [arXiv]
- 利用示范克服强化学习中的探索问题 [arXiv]
- 一种结合数字信号处理与深度学习的实时全频段语音增强方法 [arXiv] [文章] [代码]
- ChestX-ray8:医院规模的胸部X光数据库及常见胸腔疾病的弱监督分类与定位基准测试 [CVF] [文章] [数据集]
- NIMA:神经图像评估 [arXiv] [文章]
- 通过编辑原型生成句子 [arXiv] [代码]
- 意识先验 [arXiv]
- StarSpace:将所有内容嵌入![arXiv] [代码]
- 基于强化学习的神经网络优化器搜索 [arXiv]
- 神经序列模型的动态评估 [arXiv]
- 神经机器翻译 [arXiv]
- Matterport3D:基于室内环境的RGB-D数据学习 [arXiv] [文章] [文章2] [代码]
- 重要的深度强化学习 [arXiv] [代码]
- 不确定性贝尔曼方程与探索 [arXiv]
- WESPE:用于数码相机的弱监督照片增强器 [arXiv] [文章]
- 全局归一化阅读器 [arXiv] [文章] [代码]
- 工程师入门级机器学习简明介绍 [arXiv]
- 具有对手学习意识的学习 [arXiv] [文章]
- 一款深度强化学习聊天机器人 [arXiv]
- 激励挤压网络 [arXiv]
- 深度学习的高效方法与硬件(论文) [斯坦福数字资源库]
2017年8月
- NIPS 2016 审稿流程的设计与分析 [arXiv]
- 使用卷积神经网络对强引力透镜进行快速自动化分析 [arXiv] [文章]
- TensorFlow Agents:在 TensorFlow 中实现高效的批量强化学习 [白皮书] [代码]
- 在在线评论系统中自动化的众包刷评攻击与防御 [arXiv]
- 基于模型的深度强化学习结合无模型微调的神经网络动力学 [arXiv] [文章] [代码]
- 深度学习在视频游戏中的应用 [arXiv]
- 用于广告点击预测的深度交叉网络 [arXiv]
- Fashion-MNIST:一个用于机器学习算法基准测试的新图像数据集 [arXiv] [代码]
- 多任务自监督视觉学习 [arXiv]
- 学习多视角立体视觉系统 [arXiv] [文章] [代码](即将发布)
- 双生网络:利用未来作为正则化手段 [arXiv]
- 深度强化学习简述 [arXiv]
- 基于克罗内克分解近似的可扩展信任区域方法,用于深度强化学习 [arXiv] [代码]
- 可见水印的有效性研究 [CVPR] [文章]
- 基于 Q 学习的实用网络模块设计 [arXiv]
- 关于确保智能机器行为规范的研究 [arXiv]
- 连续控制领域深度强化学习基准任务的可重复性 [arXiv] [代码]
- 使用深度强化学习训练深度自编码器进行协同过滤 [arXiv] [代码]
- 利用深度强化学习学习如何在地面上完成停靠式着陆 [nature]
- 重新审视现成时序建模方法在大规模视频分类中的有效性 [arXiv] [文章]
- 具有自动课程学习的内在动机目标探索过程 [arXiv]
- 神经期望最大化 [arXiv] [代码]
- Google Vizier:黑箱优化服务 [Google 研究]
- STARDATA:星际争霸 AI 研究数据集 [arXiv] [代码]
- 利用数百万个表情符号实例学习跨领域的情感、情绪和讽刺检测表示 [arXiv] [代码] [文章]
- 使用小型前馈网络进行自然语言处理 [arXiv]
2017年7月
- 基于级联精炼网络的摄影图像合成 [arXiv] [代码]
- 星际争霸II:强化学习的新挑战 [DeepMind文档] [代码] [文章]
- 利用示范在稀疏奖励的机器人问题上进行深度强化学习 [arXiv]
- 基于深度能量函数策略的强化学习 [arXiv] [文章] [代码]
- DARLA:提升强化学习中的零样本迁移能力 [arXiv]
- 合成鲁棒的对抗样本 [arXiv] [文章] [代码](即将发布)
- 通过语音循环为野生环境中的说话者进行语音合成 [arXiv] [代码] [文章]
- Eyemotion:利用眼动追踪摄像头在VR中分类面部表情 [arXiv] [文章]
- 强化学习的分布视角 [arXiv] [文章] [视频]
- 神经语言模型评估的现状 [arXiv]
- 优化生成网络的潜在空间 [arXiv]
- 受神经科学启发的人工智能 [Neuron] [文章]
- 学习可迁移的架构以实现可扩展的图像识别 [arXiv]
- 强化学习中的逆向课程生成 [arXiv]
- 基于想象力增强的智能体用于深度强化学习 [arXiv] [文章]
- 从零开始学习基于模型的规划 [arXiv] [文章]
- 近端策略优化算法 [AWSS3] [代码]
- 自动识别欺骗性情绪面部表情 [arXiv]
- Distral:鲁棒的多任务强化学习 [arXiv]
- Creatism:一位能够创作专业作品的深度学习摄影师 [arXiv] [文章]
- SCAN:学习抽象的分层组合视觉概念 [arXiv] [文章]
- 重新审视大数据在深度学习时代的不合理有效性 [arXiv] [文章]
- 故意的非故意智能体:同时学习解决多个连续控制任务 [arXiv]
- 用于实时图像增强的深度双边学习 [arXiv] [代码] [文章]
- 在丰富环境中涌现的运动行为 [arXiv] [文章]
- 通过对抗模仿从动作捕捉数据中学习人类行为 [arXiv] [文章]
- 多样化行为的鲁棒模仿 [arXiv] [文章]
- 事后经验回放 [arXiv]
- 使用卷积神经网络实现心脏病专家级别的心律失常检测 [arXiv] [文章]
- 语义抓取的端到端学习 [arXiv]
- ELF:一个广泛、轻量且灵活的即时战略游戏研究平台 [arXiv] [代码] [文章]
2017年6月
- 用于探索的噪声网络 [arXiv]
- GAN 真的能学习到数据分布吗?一项实证研究 [arXiv]
- 用于连续学习的梯度剧集记忆 [arXiv]
- 多智能体对话中自然语言并不会“自然”出现 [arXiv] [代码]
- 用于点击率预估的深度兴趣网络 [arXiv]
- 面向深度神经网络的认知心理学:以形状偏见为例 [arXiv] [文章]
- 运动控制中的结构学习:一种深度强化学习模型 [arXiv]
- 可编程智能体 [arXiv]
- 在模拟 3D 世界中的具身语言学习 [arXiv]
- 模式网络:基于生成因果模型的直觉物理零样本迁移 [arXiv]
- SVCCA:用于深度学习动态与可解释性的奇异向量典型相关分析 [arXiv] [文章] [代码]
- 一个模型即可学会所有任务 [arXiv] [代码] [文章]
- 强化学习中的混合奖励架构 [arXiv]
- 期望策略梯度 [arXiv]
- 用于自编码生成对抗网络的变分方法 [arXiv]
- 谈判还是不谈?面向谈判对话的端到端学习 [S3AWS] [代码] [文章]
- 注意力就是你所需要的 [arXiv] [代码] [文章]
- 神经网络的索博列夫训练 [arXiv]
- YellowFin 与动量调优的艺术 [arXiv] [代码] [文章]
- 前瞻性思维:逐层构建和训练神经网络 [arXiv]
- 用于神经机器翻译的深度可分离卷积 [arXiv] [代码]
- 用于探索的参数空间噪声 [arXiv] [代码] [文章]
- 基于人类偏好的深度强化学习 [arXiv] [文章]
- 用于混合合作-竞争环境的多智能体演员-评论家算法 [arXiv] [代码]
- 自归一化神经网络 [arXiv] [代码]
- 高精度、大批次 SGD:1 小时内训练 ImageNet [arXiv]
- 一种用于关系推理的简单神经网络模块 [arXiv] [文章]
- 视觉交互网络 [arXiv] [文章]
2017年5月
- 从自然语言推理数据中监督学习通用句子表示 [arXiv] [代码]
- pix2code:从图形用户界面截图生成代码 [arXiv] [文章] [代码]
- 克拉默距离作为解决偏置Wasserstein梯度问题的方案 [arXiv]
- 奖励通道受损情况下的强化学习 [arXiv]
- 空洞残差网络 [arXiv] [代码]
- 贝叶斯GAN [arXiv] [代码]
- 梯度下降可能需要指数时间才能逃离鞍点 [arXiv] [文章]
- 使用深度学习和树搜索进行快速与慢速思考 [arXiv]
- ParlAI:对话研究软件平台 [arXiv] [代码] [文章]
- 语义分解生成对抗网络的潜在空间 [arXiv] [文章]
- 看、听并学习 [arXiv]
- 行动识别何去何从?一种新模型及Kinetics数据集 [arXiv] [代码]
- 卷积序列到序列学习 [arXiv] [代码] [代码2] [文章]
- Kinetics人类动作视频数据集 [arXiv] [文章]
- 不完全信息博弈中的安全与嵌套子博弈求解 [arXiv]
- 针对深度强化学习的连续动作离散序列预测 [arXiv]
- 用于自适应想象优化的元控制 [arXiv]
- 针对深度强化学习的高效并行方法 [arXiv]
- 实时自适应图像压缩 [arXiv]
2017年4月
- 通用视频游戏AI:从屏幕截图中学习 [arXiv]
- 学习略读文本 [arXiv]
- 抓住要点:基于指针-生成器网络的摘要生成 [arXiv] [代码] [文章]
- 对抗性神经机器翻译 [arXiv]
- 从示范中进行深度Q学习 [arXiv]
- 针对现实世界强化学习的示范学习 [arXiv]
- 使用深度卷积网络在移动设备上拍摄单反相机质量的照片 [arXiv] [文章] [代码]
- 草图绘制的神经网络表示 [arXiv] [代码] [文章]
- 针对神经网络的自动化课程学习 [arXiv]
- 用于3D物体重建的分层表面预测 [arXiv] [文章]
- 用于量子化学的神经消息传递 [arXiv]
- 学习生成评论并发现情感 [arXiv] [代码]
- 将深度学习应用于新兴领域的最佳实践 [arXiv]
2017年3月
- 改进的 Wasserstein GAN 训练 [arXiv]
- 进化策略:强化学习的可扩展替代方案 [arXiv]
- 可控文本生成 [arXiv]
- 神经情景控制 [arXiv]
- 一种结构化的自注意力句子嵌入 [arXiv]
- 多步强化学习:一种统一的算法 [arXiv]
- 使用卷积神经网络进行深度学习,用于脑图谱绘制及从人类脑电图中解码运动相关信息 [arXiv]
- FaSTrack:用于快速且保证安全的运动规划的模块化框架 [arXiv] [文章] [文章2]
- 大规模探索神经机器翻译架构 [arXiv] [代码]
- 通过直接体素 CNN 回归从单张图像重建大姿态三维人脸 [arXiv] [文章] [代码]
- 强化学习的极小极大后悔界 [arXiv]
- 锐利的极小值可以泛化到深度网络 [arXiv]
- 并行多尺度自回归密度估计 [arXiv]
- 神经机器翻译与序列到序列模型:教程 [arXiv]
- 图像分类器的大规模进化 [arXiv]
- 用于层次化强化学习的封建网络 [arXiv]
- 深度神经网络的进化 [arXiv]
- 如何高效地逃离鞍点 [arXiv] [文章]
- 通过信息打开深度神经网络的黑箱 [arXiv] [视频]
- 理解合成梯度与解耦神经接口 [arXiv]
- 学习优化神经网络 [arXiv] [文章]
2017年2月
- 破碎梯度问题:如果 ResNet 是答案,那么问题是什么?[arXiv]
- 神经地图:深度强化学习中的结构化记忆 [arXiv]
- 拉近基于价值和基于策略的强化学习之间的差距 [arXiv]
- Deep Voice:实时神经文本转语音 [arXiv]
- 使用深度强化学习击败《任天堂明星大乱斗》世界冠军 [arXiv]
- 游戏模仿:用于快速视频游戏 AI 的深度监督卷积网络 [arXiv]
- 学习解析与翻译能提升神经机器翻译性能 [arXiv]
- 除顶级之外的一切:词表示的简单而有效的后处理 [arXiv]
- 使用动态计算图进行深度学习 [arXiv]
- 跳跃连接作为有效的对称破缺 [arXiv]
- 基于生成式领域自适应网络的半监督问答模型 [arXiv]
2017年1月
- Wasserstein GAN [arXiv]
- 需求深度强化学习:概述 [arXiv]
- DyNet:动态神经网络工具包 [arXiv]
- DeepStack:无限制扑克中的专家级人工智能 [arXiv]
- NIPS 2016 教程:生成对抗网络 [arXiv]
2016年12月
- 一种没有混沌的循环神经网络 [arXiv]
- 使用门控卷积网络进行语言建模 [arXiv]
- EnhanceNet:通过自动纹理合成实现单幅图像超分辨率 [arXiv] [文章]
- 通过对抗训练从模拟和无监督图像中学习 [arXiv]
- 字符级神经机器翻译有多语法?用对比翻译对评估 MT 质量 [arXiv]
- 使用连续缓存改进神经语言模型 [arXiv]
- DeepMind 实验室 [arXiv] [代码]
- 在强弱人类监督下,无需模拟器即可学习机器人任务的深度学习 [arXiv]
- 知道何时该看:通过视觉哨兵实现图像字幕的自适应注意力 [arXiv]
- 克服神经网络中的灾难性遗忘 [arXiv]
2016年11月(ICLR 版)
- 基于条件对抗网络的图像到图像翻译 [arXiv]
- 极其庞大的神经网络:稀疏门控专家混合层 [OpenReview]
- 学习如何进行强化学习 [arXiv]
- 奥德赛的出路:分析并结合LSTM的最新见解 [arXiv]
- 半监督文本分类的对抗训练方法 [arXiv]
- 不等支持下的重要性采样 [arXiv]
- 准循环神经网络 [arXiv]
- 循环神经网络中的容量与可学习性 [OpenReview]
- 展开式生成对抗网络 [OpenReview]
- 深度信息传播 [OpenReview]
- 结构化注意力网络 [OpenReview]
- 增量序列学习 [arXiv]
- 探讨可迁移的对抗样本与黑盒攻击 [arXiv] [代码]
- b-GAN:生成对抗网络的统一框架 [OpenReview]
- 一种多任务联合模型:为多个自然语言处理任务生长神经网络 [OpenReview]
- 使用Gumbel-Softmax进行类别重参数化 [arXiv]
- 在野外唇读句子 [arXiv]
强化学习:
- 学习如何进行强化学习 [arXiv]
- 生成对抗网络、逆向强化学习和基于能量的模型之间的联系 [arXiv]
- 预测机:端到端学习与规划 [OpenReview]
- 第三人称模仿学习 [OpenReview]
- 通过半监督强化学习泛化技能 [OpenReview]
- 具有经验回放的高效演员-评论家算法 [OpenReview]
- 带有无监督辅助任务的强化学习 [arXiv]
- 使用强化学习进行神经架构搜索 [OpenReview]
- 向信息寻求型智能体迈进 [OpenReview]
- 多智能体合作与(自然)语言的涌现 [OpenReview]
- 通过探索被低估的奖励来改进策略梯度 [OpenReview]
- 用于层次化强化学习的随机神经网络 [OpenReview]
- 使用强化学习调优循环神经网络 [OpenReview]
- RL^2:通过慢速强化学习实现快速强化学习 [arXiv]
- 学习不变特征空间以通过强化学习迁移技能 [OpenReview]
- 通过深度强化学习学习执行物理实验 [OpenReview]
- 在GPU上使用异步优势演员-评论家算法进行强化学习 [OpenReview]
- 学习用强化学习将单词组合成句子 [OpenReview]
- 用于加速收敛速度的深度强化学习 [OpenReview]
- #探索:关于深度强化学习中基于计数的探索研究 [arXiv]
- 学习用强化学习将单词组合成句子 [OpenReview]
- 学习在复杂环境中导航 [arXiv]
- 用于模仿学习的无监督感知奖励 [OpenReview]
- Q-Prop:具有离策略评论家的高效策略梯度 [OpenReview]
机器翻译与对话
- 谷歌的多语言神经机器翻译系统:实现零样本翻译 [arXiv]
- 基于重建的神经机器翻译 [arXiv]
- 机器翻译的迭代优化 [OpenReview]
- 用于神经机器翻译的卷积编码器模型 [arXiv]
- 通过连续缓存改进神经语言模型 [OpenReview]
- 神经机器翻译中的词汇选择策略 [OpenReview]
- 向自动图灵测试迈进:学习评估对话回复 [OpenReview]
- 人机协作的对话学习 [OpenReview]
- 批量策略梯度方法用于改进神经对话模型 [OpenReview]
- 通过对话交互学习 [OpenReview]
- 机器翻译的对偶学习 [arXiv]
- 用于序列到序列学习的无监督预训练 [arXiv]
2016年10月
- 使用具有动态外部记忆的神经网络的混合计算 [nature] [code]
- 量子机器学习 [arXiv]
- 理解深度学习需要重新思考泛化能力 [arXiv]
- 普适性对抗扰动 [arXiv] [code]
- 线性时间下的神经机器翻译 [arXiv] [code]
- 教授强制:训练循环网络的新算法 [arXiv]
- 学习用对抗性神经密码学保护通信 [arXiv]
- 主动记忆能否取代注意力机制?[arXiv]
- 利用快速权重关注近期历史 [arXiv]
- 无需显式分词的全字符级神经机器翻译 [arXiv]
- 多样化束搜索:从神经序列模型中解码多样化的解决方案 [arXiv]
- 视频像素网络 [arXiv]
- 将生成对抗网络与演员-评论家方法连接起来 [arXiv]
- 使用神经机器翻译实时学习翻译 [arXiv]
- Xception:基于深度可分离卷积的深度学习 [arXiv]
- 基于分布式异步引导策略搜索的群体机器人强化学习 [arXiv]
- 指针哨兵混合模型 [arXiv]
2016年9月
- 朝向深度符号强化学习 [arXiv]
- 超网络 [arXiv]
- 谷歌的神经机器翻译系统:弥合人类与机器翻译之间的鸿沟 [arXiv]
- 安全高效的离策略强化学习 [arXiv]
- 使用深度强化学习玩FPS游戏 [arXiv]
- SeqGAN:带有策略梯度的序列生成对抗网络 [arXiv]
- 针对深度确定性策略的周期性探索:应用于星际争霸微观操作任务 [arXiv]
- 基于能量的生成对抗网络 [arXiv]
- 通过预测API窃取机器学习模型 [arXiv]
- 基于图卷积网络的半监督分类 [arXiv]
- WaveNet:一种用于原始音频的生成模型 [arXiv]
- 层次多尺度循环神经网络 [arXiv]
- 用于信息获取的对话代理端到端强化学习 [arXiv]
- 用于YouTube推荐的深度神经网络 [paper]
2016年8月
- 自动从语言语料库中提取的语义包含类似人类的偏见 [arXiv]
- 为什么深度且廉价的学习效果如此好?[arXiv]
- 使用匹配LSTM和答案指针的机器阅读理解 [arXiv]
- 堆叠近似回归机:一种简单的深度学习方法 [arXiv]
- 使用合成梯度解耦的神经接口 [arXiv]
- WikiReading:一项基于维基百科的新型大规模语言理解任务 [arXiv]
- 用于神经机器翻译的时序注意力模型 [arXiv]
- 残差网络的残差网络:多层级残差网络 [arXiv]
- 利用连续奖励策略梯度在线学习对齐 [arXiv]
2016年7月
- 用于序列预测的演员-评论家算法 [arXiv]
- 人工智能时代的认知科学:逆向工程婴儿语言学习者的路线图 [arXiv]
- 循环神经网络的神经机器翻译 [arXiv]
- MS-Celeb-1M:一个用于大规模人脸识别的数据集和基准测试 [arXiv]
- 层归一化 [arXiv]
- 带有循环注意力建模的神经机器翻译 [arXiv]
- 神经语义编码器 [arXiv]
- 用于阅读理解的注意力之上再加注意力的神经网络 [arXiv]
- sk_p:MOOCs的神经程序纠正器 [arXiv]
- 循环高速公路网络 [arXiv]
- 用于高效文本分类的技巧大全 [arXiv]
- 面向神经机器翻译的上下文相关词表示 [arXiv]
- 具有软硬寻址方案的动态神经图灵机 [arXiv]
2016年6月
- 序列到序列学习作为束搜索优化 [arXiv]
- 序列级知识蒸馏 [arXiv]
- 用于对话系统的两阶段训练策略网络 [arXiv]
- 向深度学习与神经科学的融合迈进 [arXiv]
- 关于循环神经网络中的乘法整合 [arxiv]
- 推荐系统的宽而深学习 [arXiv]
- 在线与离线手写汉字识别 [arXiv]
- 变分自编码器教程 [arXiv]
- 人工智能安全中的具体问题 [arXiv]
- 深度强化学习发现内部模型 [arXiv]
- SQuAD:用于文本机器理解的10万+个问题 [arXiv]
- 基于PixelCNN解码器的条件图像生成 [arXiv]
- 无模型的周期性控制 [arXiv]
- 渐进式神经网络 [arXiv]
- 训练GAN的改进技术 [arXiv] [代码]
- 内存高效的随时间反向传播 [arXiv]
- InfoGAN:通过信息最大化生成对抗网络实现可解释的表征学习 [arXiv]
- 多语言神经机器翻译下的零资源翻译 [arXiv]
- 用于直接阅读文档的键值记忆网络 [arXiv]
- 具有快速前向连接的深度循环模型用于神经机器翻译 [arXiv]
- 通过梯度下降学习梯度下降 [arXiv]
- 通过交互学习语言游戏 [arXiv]
- Zoneout:通过随机保留隐藏激活来正则化RNNs [arXiv]
- 智能回复:电子邮件的自动回复建议 [arXiv]
- 用于半监督文本分类的虚拟对抗训练 [arXiv]
- 用于对话生成的深度强化学习 [arXiv]
- 用于自然语言处理的超深卷积网络 [arXiv]
- 用于开放域话语连贯性的神经网络模型 [arXiv]
- 用于细粒度实体类型分类的神经架构 [arXiv]
- 用于一次学习的匹配网络 [arXiv]
- 协作式逆强化学习 [arXiv] [文章]
- 用于文本理解的门控注意力阅读器 [arXiv]
- 基于LSTM的端到端对话控制,通过监督和强化学习优化 [arXiv]
- 用于机器阅读的迭代交替神经注意力 [arXiv]
- 用于神经机器翻译的记忆增强解码器 [arXiv]
- 多分辨率循环神经网络:应用于对话响应生成 [arXiv]
- 学习优化 [arXiv] [文章]
- 使用EpiReader进行自然语言理解 [arXiv]
- 对话上下文线索:个性化和历史在响应排序中的作用 [arXiv]
- 对抗性学习推理 [arXiv]
- OpenAI Gym [arXiv] [代码]
- 用于语法错误修正的神经网络翻译模型 [arXiv]
2016年5月
- 层次记忆网络 [arXiv]
- 深度API学习 [arXiv]
- 宽残差网络 [arXiv]
- TensorFlow:一个用于大规模机器学习的系统 [arXiv]
- 使用双向LSTM模型和内部注意力学习自然语言推理 [arXiv]
- 基于深度记忆网络的方面级情感分类 [arXiv]
- 分形网:无需残差的超深度神经网络 [arXiv]
- 学习端到端的目标导向对话 [arXiv]
- 基于记忆增强神经网络的一次学习 [arXiv]
- 无不良局部极小值的深度学习 [arXiv]
- AVEC 2016 - 抑郁、情绪和情感识别研讨会及挑战赛 [arXiv]
- 数据编程:快速创建大型训练集 [arXiv]
- 深度融合网络 [arXiv]
- 深度投资组合理论 [arXiv]
- 通过视频预测进行物理交互的无监督学习 [arXiv]
- 电影描述 [arXiv]
2016年4月
- 高阶循环神经网络 [arXiv]
- 端到端手写段落识别中的联合线段分割与文本转录 [arXiv]
- 分层深度强化学习:整合时间抽象与内在动机 [arXiv]
- IBM 2016年英语会话式电话语音识别系统 [arXiv]
- 基于对话的语言学习 [arXiv]
- 使用双向长短期记忆模型和辅助损失的多语言词性标注 [arXiv]
- 句子级别的语法错误识别作为序列到序列的修正 [arXiv]
- 基于网络的端到端可训练任务导向型对话系统 [arXiv]
- 视觉叙事 [arXiv]
- 通过稳定性训练提升深度神经网络的鲁棒性 [arXiv]
- 弥合残差学习、循环神经网络与视觉皮层之间的差距 [arXiv]
- 扫描、注意与阅读:基于MDLSTM注意力的端到端手写段落识别 [arXiv]
- 句子级递归主题模型:让主题自己说话 [arXiv]
- 利用混合词-字符模型实现开放词汇量的神经机器翻译 [arXiv]
- 构建像人一样学习和思考的机器 [arXiv]
- 基于阶梯网络的语言识别半监督方法 [arXiv]
- 具有随机深度的深度网络 [arXiv]
- PHOCNet:用于手写文档中单词定位的深度卷积神经网络 [arXiv]
2016年3月
- 通过强化学习获取外部证据来改进信息抽取 [arXiv]
- 一种用于句法分析和句子理解的快速统一模型 [arXiv]
- 用于代码生成的潜在预测网络 [arXiv]
- 注意、推断、重复:使用生成模型进行快速场景理解 [arXiv]
- 循环批归一化 [arXiv]
- 基于字符的注意力机制的神经语言校正 [arXiv]
- 在序列到序列学习中融入复制机制 [arXiv]
- 如何不要评估你的对话系统 [arXiv]
- 循环神经网络的自适应计算时间 [arXiv]
- 深度学习中卷积运算指南 [arXiv]
- 彩色图像着色 [arXiv]
- 通过拼图游戏无监督地学习视觉表征 [arXiv]
- 使用循环神经网络生成事实型问题:3000万条事实型问答语料库 [arXiv]
- 基于人格特征的神经对话模型 [arXiv]
- 用于神经机器翻译的无显式分词字符级解码器 [arXiv]
- 从零开始的多任务跨语言序列标注 [arXiv]
- 用于文本处理的神经变分推断 [arXiv]
- 不丢失记忆的循环丢弃 [arXiv]
- 深度生成模型中的单次泛化 [arXiv]
- 具有注意力建模的递归循环网络,用于野外光学字符识别 [[arXiv](Recursive Recurrent Nets with Attention Modeling for OCR in the Wild)]
- 一种新的可视化深度神经网络的方法 [[arXiv](A New Method to Visualize Deep Neural Networks)]
- 用于命名实体识别的神经架构 [arXiv]
- 通过双向LSTM-CNN-CRF实现端到端序列标注 [arXiv]
- 基于字符的神经机器翻译 [arXiv]
- 学习词语分割表示以提升中文社交媒体的命名实体识别 [arXiv]
2016年2月
- 循环神经网络的架构复杂度度量 [arXiv]
- 权重归一化:一种简单的重新参数化方法,用于加速深度神经网络的训练 [arXiv]
- 循环神经网络文法 [arXiv]
- 视觉图谱:利用众包密集图像标注连接语言与视觉 [arXiv]
- 用于大规模自然语言处理任务的上下文LSTM(CLSTM)模型 [arXiv]
- 用于文本摘要的序列到序列RNN [arXiv]
- 从标注文档中提取重要句子 [arXiv]
- 从无标签数据中学习句子的分布式表示 [arXiv]
- 神经网络中深度的优势 [arXiv]
- 联想长短时记忆网络 [arXiv]
- “我为什么要信任你?”:解释任何分类器的预测 [arXiv] [代码]
- 利用循环对抗网络生成图像 [arXiv]
- 探索语言模型的极限 [arXiv]
- Swivel:通过关注缺失的信息来改进词嵌入 [arXiv]
- WebNav:一项基于自然语言的新型大规模序列决策任务 [arXiv]
- 结合卷积层和循环层实现高效的字符级文档分类 [arXiv]
- 梯度下降收敛于极小值点 [arXiv] [文章]
- BinaryNet:训练权重和激活值被约束为+1或-1的深度神经网络 [arXiv]
- 通过标签一致的神经网络学习判别特征 [arXiv]
2016年1月
- 你的机器学习测试得分是多少?面向机器学习生产系统的评分标准 [Google研究]
- 像素循环神经网络 [arXiv]
- 位运算神经网络 [arXiv]
- 用于机器阅读的长短时记忆网络 [arXiv]
- 基于覆盖率的神经机器翻译 [arXiv]
- 理解深度卷积网络 [arXiv]
- 通过扩散训练循环神经网络 [arXiv]
- 图像自动描述生成:模型、数据集和评估指标综述 [arXiv]
- 具有共享注意力机制的多路、多语种神经机器翻译 [arXiv]
- 用于语言建模的循环记忆网络 [arXiv]
- 利用神经注意力机制将语言转换为逻辑形式 [arXiv]
- 学习组合神经网络以进行问答 [arXiv]
- 概率的必然性:在使用非概率反馈训练的通用神经网络中进行概率推理 [arXiv]
- COCO-Text:自然图像中文本检测与识别的数据集及基准测试 [arXiv]
- 基于注意力的RNN模型及其在计算机视觉中的应用综述 [arXiv]
2015年12月
自然语言处理
- 训练大词汇量神经语言模型的策略 [arXiv]
- 基于字节的多语言语言处理 [arXiv]
- 通过预测N-gram学习文档嵌入,用于长篇电影评论的情感分类 [arXiv]
- 基于长短时记忆网络的目标依赖情感分类 [arXiv]
- 使用卷积神经网络在野外阅读文本 [arXiv]
计算机视觉
- 用于图像识别的深度残差学习 [arXiv]
- 重新思考用于计算机视觉的Inception架构 [arXiv]
- 内外网:利用跳跃池化和循环神经网络在上下文中检测目标物体 [arXiv]
- Deep Speech 2:英语和普通话的端到端语音识别 [arXiv]
2015年11月
自然语言处理
- 具有自然语言动作空间的深度强化学习 [arXiv]
- 基于循环神经网络的序列级训练 [arXiv]
- 教机器阅读和理解 [arxiv]
- 半监督序列学习 [arXiv]
- 多任务序列到序列学习 [arXiv]
- 字符级RNN的替代结构 [arXiv]
- 更大上下文的语言建模 [arXiv]
- 统一标注方案:带有词嵌入的双向LSTM循环神经网络 [arXiv]
- 通往通用释义句子嵌入之路 [arXiv]
- BlackOut:使用超大词汇表加速循环神经网络语言模型 [arXiv]
- 基于循环神经网络的序列级训练 [arXiv]
- 基于分布式表示的自然语言理解 [arXiv]
- sense2vec - 神经网络词嵌入中快速准确的词义消歧方法 [arXiv]
- 基于LSTM的深度学习模型用于非事实型答案选择 [arXiv]
程序
- 神经随机存取机 [arxiv]
- 神经程序员:通过梯度下降诱导潜在程序 [arXiv]
- 神经程序员-解释器 [arXiv]
- 从示例中学习简单算法 [arXiv]
- 神经GPU学习算法 [arXiv] [代码]
- 关于学习思考:强化学习控制器与循环神经网络世界模型新组合的算法信息论 [arXiv]
视觉
- ReSeg:用于目标分割的循环神经网络 [arXiv]
- 解构阶梯网络架构 [arXiv]
- 使用深度卷积生成对抗网络进行无监督表征学习 [arXiv]
- 通过空洞卷积进行多尺度上下文聚合 [arXiv] [代码]
通用
- 朝着原则性的无监督学习方向 [arXiv]
- 动态容量网络 [arXiv]
- [从`ous空间生成句子](notes/generating-sentences-cont-space.md) [arXiv]
- Net2Net:通过知识迁移加速学习 [arXiv]
- 通往机器智能的路线图 [arXiv]
- 基于会话的推荐系统与循环神经网络 [arXiv]
- 通过稳定激活来正则化RNN [arXiv]
2015年10月
- 卷积神经网络用于句子分类的敏感性分析(及从业者指南) [arXiv]
- 带有意图的注意力机制用于神经网络对话模型 [arXiv]
- 带有双向长短期记忆循环神经网络的词性标注 [arXiv]
- 综述:深度学习领域的时光之旅——深度学习模型简介及其从最初想法发展至今的过程 [arXiv]
- 自然语言处理中神经网络模型入门 [arXiv]
- 促进多样性的神经对话模型目标函数 [arXiv]
2015年9月
- 用于文本分类的字符级卷积网络 [arXiv]
- 用于摘要式句子摘要的神经注意力模型 [arXiv]
- 扑克-CNN:一种用于扑克游戏中下注和跟注的模式学习策略 [arXiv]
2015年8月
- 基于子词单元的稀有词神经机器翻译 [arXiv] [代码]
- 听、注意并拼写 [arxiv]
- 字符感知的神经语言模型 [arXiv]
- 通过LSTM对字符而非单词建模改进基于转换的句法分析 [arXiv]
- 在形式中寻找功能:用于开放词汇词表示的组合式字符模型 [arXiv]
- 基于注意力的神经机器翻译的有效方法 [arXiv]
2015年7月
- 使用生成式分层神经网络模型构建端到端对话系统 [arXiv]
- 基于阶梯网络的半监督学习 [arXiv]
- 使用段落向量进行文档嵌入 [arXiv]
- 训练非常深的网络 [arXiv]
2015年6月
- 丢弃法作为贝叶斯近似:在深度学习中表示模型不确定性 [arXiv]
- 基于神经网络的上下文敏感会话响应生成 [arXiv]
- 使用段落向量进行文档嵌入 [arXiv]
- 神经对话模型 [arXiv]
- 跳字向量 [arXiv]
- 指针网络 [arXiv]
- 空间变换网络 [arXiv]
- 在无树结构架构的神经网络中实现树状组合 [arXiv]
- 可视化与理解自然语言处理中的神经模型 [arXiv]
- 学习具有无界记忆的转导 [arXiv]
- 随便问我:用于自然语言处理的动态记忆网络 [arXiv]
- 深度知识追踪 [arXiv]
2015年5月
- ReNet:一种基于循环神经网络的卷积网络替代方案 [arXiv]
- 强化学习神经图灵机 [arXiv]
2015年4月
- 相关性神经网络 [arXiv]
2015年3月
- 蒸馏神经网络中的知识 [arXiv]
- 端到端记忆网络 [arXiv]
- 用于短文本对话的神经应答机 [arXiv]
- 批量归一化:通过减少内部协变量偏移加速深度网络训练 [arXiv]
- 摆脱鞍点——张量分解的在线随机梯度下降 [arXiv] [[文章](Escaping from Saddle Points)]
2015年2月
2015年1月
- 机器学习系统中的隐性技术债务 [NIPS]
2014年12月
- 在循环神经网络中学习更长的记忆 [arXiv]
- 神经图灵机 [arxiv]
- 语法作为外语 [arXiv]
- 关于在神经机器翻译中使用超大目标词汇表 [arXiv]
- 卷积神经网络中有效利用词序进行文本分类 [arXiv]
- 基于视觉注意力的多对象识别 [arXiv]
2014年11月
- 多层网络的损失曲面 [arXiv]
2014年10月
2014年9月
- 使用神经网络进行序列到序列学习 [arXiv]
- 通过联合学习对齐与翻译实现神经机器翻译 [arxiv]
- 关于神经机器翻译的性质:编码器-解码器方法 [arXiv]
- 循环神经网络正则化 [arXiv]
- 用于大规模图像识别的超深卷积神经网络 [arXiv]
- 使用卷积进一步深入 [arXiv]
2014年8月
- 用于句子分类的卷积神经网络 [arxiv]
2014年7月
2014年6月
- 使用RNN编码器-解码器学习短语表示以进行统计机器翻译 [arXiv]
- 视觉注意力的循环模型 [arXiv]
- 生成对抗网络 [arXiv]
2014年5月
2014年4月
- 用于建模句子的卷积神经网络 [arXiv]
2014年3月
2014年2月
2014年1月
- 机器学习:技术债务的高息信用卡 [Google Research]
2013年
- 可视化与理解卷积网络 [arXiv]
- DeViSE:一种深度视觉-语义嵌入模型 [出版物]
- Maxout网络 [arXiv]
- 利用语言间的相似性进行机器翻译 [arXiv]
- 向量空间中单词表示的有效估计 [arXiv]
2011年
- 自然语言处理(几乎)从零开始 [arXiv]
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。
cs-video-courses
cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
awesome-machine-learning
awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。