awesome-artificial-intelligence-regulation
awesome-artificial-intelligence-regulation 是一个致力于梳理全球人工智能治理生态的开源知识库。随着 AI 技术深入社会,从业者常面临复杂的伦理挑战和法律合规难题,而网络上相关的原则、框架和法规分散且难以检索。该项目正是为了解决这一痛点,将全球各地的 AI 指南、道德准则、行业标准及法律法规进行了系统化的映射与整理。
其内容覆盖广泛,不仅按经济区域(如中国、欧盟、美国、巴西等)分类汇总了国家级监管政策,还提供了高层级框架、行业标准化倡议、实用检查清单、互动工具以及在线学习资源。无论是需要确保产品合规的开发者、关注伦理边界的研究人员,还是制定企业策略的管理者,都能在此快速找到所需的参考依据。
该项目的独特亮点在于其“地图式”的结构设计,将原本晦涩难懂的法律条文和抽象的伦理原则转化为清晰可查的资源索引,并支持多语言访问。它不生产新的规则,而是充当了连接技术与规范的桥梁,帮助用户在面对未知的伦理困境时,能够有据可依,负责任地开发和部署人工智能系统。
使用场景
一家面向欧洲市场的金融科技初创公司正在开发一款基于 AI 的信贷审批系统,团队急需确保产品符合欧盟及全球各地的合规要求。
没有 awesome-artificial-intelligence-regulation 时
- 法务与研发团队在海量分散的网络信息中盲目搜索,难以区分各国(如奥地利、巴西、中国)最新的 AI 法案草案与正式法规。
- 因缺乏统一的映射视图,团队容易遗漏关键地区的特定伦理原则,导致产品设计初期就埋下合规隐患。
- 手动整理行业标准与检查清单耗时数周,严重拖慢了产品上线进度,且无法保证信息的时效性。
- 面对不同司法管辖区的冲突条款,团队缺乏权威参考依据,难以制定统一的内控策略。
使用 awesome-artificial-intelligence-regulation 后
- 团队直接通过该仓库按经济区域(如欧盟、美国、新加坡)快速定位到具体的法规文件(如欧盟 AI 法案、加拿大 AIDA),大幅缩短调研时间。
- 利用其梳理的高层框架与行业倡议,团队迅速对齐了透明度与问责制等核心伦理指标,从源头规避设计风险。
- 借助集成的交互式工具与检查清单,开发人员能在编码阶段即时自查,将原本数周的合规评估压缩至几天内完成。
- 依托持续维护的多语言资源库,团队能实时追踪全球政策动态,灵活调整跨国业务的合规策略以应对监管变化。
awesome-artificial-intelligence-regulation 将碎片化的全球 AI 治理生态转化为清晰的导航图,帮助企业在复杂的监管环境中高效构建负责任的 AI 系统。
运行环境要求
未说明
未说明

快速开始
优秀的人工智能监管、原则与指南 |
(又名:负责任地编写人工智能) |
概述
随着人工智能系统在社会中的普及,我们面临着日益严峻的社会挑战。由于许多挑战尚属首次出现,从业者将不得不应对复杂的伦理和社会问题。
目前已有大量内容通过“原则”、“伦理框架”、“检查清单”等形式探讨这些问题。然而,在众多资源中找到合适的内容并不容易。
本仓库旨在简化这一过程,通过梳理围绕人工智能制定的各类指南、原则、道德规范、标准及监管措施,帮助用户更好地理解和应用这些资源。
本页各部分快速链接
按经济区域划分的国家监管
| 奥地利 🇦🇹 | 巴西 🇧🇷 | 加拿大 🇨🇦 | 中国 🇨🇳 |
| 迪拜 🇦🇪 | 欧盟 🇪🇺 | 印度 🇮🇳 | 爱尔兰 🇮🇪 |
| 以色列 🇮🇱 | 墨西哥 🇲🇽 | 新加坡 🇸🇬 | 瑞士 🇨🇭 |
| 阿联酋 🇦🇪 | 英国 🇬🇧 | 美国 🇺🇸 |
其他部分
| 🔍 高层次框架与原则 | 📜 行业标准倡议 | 🔨 互动式实用工具 |
| 📚 在线课程 | 🔏 流程与检查清单 | 🤖 研究与行业通讯 |
其他相关资源
|
您可以订阅 |
|
监管与政策
奥地利
- 奥地利2030年人工智能使命 - 塑造奥地利人工智能的未来。奥地利创新与技术部发布了其至2030年的AI愿景。
巴西
- 巴西人工智能监管(PL 2338/2023) - 巴西一项旨在建立全面的人工智能开发与使用框架的提案法案,强调透明度、问责制以及与国际标准的一致性。
加拿大
- 人工智能与数据法案(AIDA) - 为颁布《消费者隐私保护法》、《个人信息与数据保护法庭法》以及《人工智能与数据法案》,并对其他法律作出相应及关联修订而制定的法案。
中国
- 北京人工智能原则 - 一项关于人工智能研究、开发、应用、治理及长期规划的倡议,呼吁促进人工智能健康发展,以支持构建人类命运共同体,实现人工智能造福人类与自然。
- 中国网络安全法 - 中国为提升网络安全和国家安全、维护网络空间主权与公共利益、保护公民、法人及其他组织的合法权益、促进经济社会健康发展而制定的法律(中国工业和信息化部认为,该法为自1999年以来中国坚持实施的“走出去”战略提供了正当依据)。毕马威关于网络安全法的摘要。战略与国际问题研究中心对中国新数据隐私法的概述。
- 中华人民共和国微博信息服务管理规定 - 中国要求微博网站(社交媒体平台)依法取得相关资质、核实用户真实身份、建立辟谣机制等的规定。规则摘要由美国国会图书馆提供。
- 生成式人工智能服务管理暂行办法 - 中国首部针对生成式人工智能服务的行政法规,于2023年8月15日起施行。
- 个人信息安全规范(译文) - 中国政府于2018年5月生效的第一项重要数字隐私规则,详细规定了同意机制以及个人数据的收集、使用和共享方式。战略与国际问题研究中心对该规范的概述。
- 关于加强网络信息保护的决定 - 中华人民共和国全国人民代表大会常务委员会通过了《关于加强网络信息保护的决定》——这是一项包含12条条款的法律,适用于公私部门实体在互联网上收集和处理电子个人信息的行为。
- 个人资料保护法 - 中华民国的个人资料保护法,旨在规范个人资料的收集、处理和使用,以防止对人格权的侵害,并促进个人资料的合理利用。
迪拜
- 智慧迪拜人工智能原则与伦理——伦理AI工具包 - 旨在为整个城市生态系统提供实用帮助。该工具包支持业界、学术界及个人理解如何负责任地使用AI系统,包含一系列原则与指南,以及供开发者评估其平台的自我评估工具。
欧盟
- 值得信赖的人工智能伦理指南 - 由欧盟人工智能高级别专家组(AI HLEG)编制的欧盟委员会文件。
- 欧盟人工智能法案 - 欧盟人工智能法案是规范欧盟境内人工智能应用的法律框架;这是首个针对人工智能制定的监管法规(概述)。
- GDPR.EU指南 - 由欧盟“地平线2020”框架计划共同资助的项目,为研究GDPR的组织和个人提供资源,包括一个简洁且最新的信息库,帮助各组织实现GDPR合规(法律文本)。
- 通用数据保护条例GDPR - 欧洲议会与欧洲理事会于2016年4月27日颁布的关于保护自然人个人数据处理及该等数据自由流动,并废除95/46/EC指令的欧盟GDPR法规2016/679的法律文本。
印度
- 2026年信息技术修正规则 - 这些是更新后的规则,旨在修订2021年信息技术规则,以进一步强化中介机构的尽职调查框架,特别是在合成生成信息(SGI)及相关网络危害方面。常见问题解答在此。
- 数字个人数据保护法(DPDP) - 印度的DPDP法旨在规范数字个人数据的处理方式,既保障个人对其数据的保护权,又满足为合法目的及与其相关或附带事项而处理此类数据的需求。该法案于2023年8月在印度议会通过,目前由MeitY负责推动实施,并已于2025年1月3日发布了基于该法案的规则草案,供公众咨询。DPDP规则草案可供公众审阅并提出反馈在此。
- 国家人工智能战略 - 本文件着重探讨印度如何利用变革性技术,按照政府的发展理念实现社会包容性增长。此外,印度还应努力将这些解决方案推广至其他具有相似条件的发展中国家。
- 负责任的人工智能原则 - 该文件综合了跨部门磋商、大规模全球多方利益相关者磋商、与印度及全球人工智能伦理专家的一对一会谈,以及过去15个月间开展的广泛公众咨询所收集的见解、反馈和经验。本文旨在为人工智能生态系统提供一份重要路线图,鼓励印度以负责任的方式采用人工智能技术,建立公众对该技术的信任,并将“人工智能惠及全民”的理念置于核心位置。
爱尔兰
- 爱尔兰国家人工智能战略 - 爱尔兰于2026年发布其国家人工智能战略,重点解决人工智能素养、基础设施、应用推广等问题。
以色列
- 人工智能领域负责任发展的政策原则 - 该人工智能监管与伦理政策草案强调“负责任创新”,旨在确保行业进步的同时维护公共利益。
墨西哥
- 墨西哥国家人工智能议程提案 - 提出多方面的承诺建议,以指导墨西哥以合乎伦理和负责任的方式开发及使用人工智能。
新加坡
- 2012年个人数据保护法 - 《2012年个人数据保护法》(简称“该法”)规定了新加坡的数据保护法律。除建立一般性的数据保护制度外,该法还对电话营销行为进行了规范。
- 2019年防止在线虚假信息与操纵法 - 该法旨在防止在新加坡通过电子通信传播虚假事实陈述,压制对此类传播的支持并抵消其影响,防范在线账户被用于此类传播及信息操纵,同时授权采取措施提高在线政治广告的透明度,并处理相关事宜。
瑞士
- 新联邦数据保护法(nFADP) - 新联邦数据保护法于2020年在瑞士议会通过,并于2023年9月1日起生效。该法旨在改善个人数据处理流程,赋予相关人员新的权利,同时也对企业施加了一系列义务。任何向瑞士公民提供商品和服务并处理其个人数据的企业,无论是否位于瑞士境内,均需遵守nFADP的规定。更多关于nFADP的亮点信息可参见此处。
阿拉伯联合酋长国
- 阿联酋国家人工智能战略 - 本文件阐述了阿联酋致力于在政府各部门快速采用新兴人工智能技术的愿景,同时吸引顶尖人工智能人才,在先进且安全的生态系统中开展新技术试验,以解决复杂问题。
英国
- 信息专员办公室数据保护指南 - 本指南面向数据保护官及其他日常负责数据保护工作的人员。它主要针对中小型企业,但也可能对大型企业有所帮助。
- 2018年英国数据保护法 - 该法将欧盟通用数据保护条例(GDPR)纳入英国法律体系,但在实施过程中根据GDPR的授权引入了若干“例外条款”,导致一些关键差异(尽管较小,但并非无关紧要,尤其是在脱欧之后可能产生更大影响)。
- 英国人工智能监管:支持创新的方法 - 本白皮书详细介绍了英国实施支持创新的人工智能监管方针的计划。
美国
- 加州消费者隐私法案(CCPA) - 加州消费者隐私法案的法律文本
- 美国国防部人工智能伦理原则 - 美国国防部为技术承包商制定的人工智能负责任使用指南。该指南提供了一个在技术生命周期的规划、开发和部署阶段应遵循的分步流程。
- 欧盟—美国及瑞士—美国隐私盾框架 - 欧盟—美国及瑞士—美国隐私盾框架由美国商务部、欧盟委员会和瑞士政府共同设计,旨在为大西洋两岸的企业提供一种机制,使其在将个人数据从欧盟和瑞士传输至美国以支持跨大西洋商业活动时,能够符合数据保护要求。
- 关于保持美国人工智能领导地位的行政命令 - 美国总统发布的正式指令,旨在
- 2018年公平信用报告法 - 《公平信用报告法》是一项联邦法律,用于规范消费者信用信息的收集及其信用报告的访问权限。
- 格雷姆—里奇—比利法案(适用于金融机构) - 格雷姆—里奇—比利法案要求金融机构(即向消费者提供贷款、财务或投资建议、保险等金融产品或服务的公司)向客户说明其信息共享做法,并采取措施保护敏感数据。
- 1996年健康保险可携性和责任法案 - HIPAA要求美国卫生与公众服务部(HHS)部长制定保护特定健康信息隐私和安全的法规,随后HHS发布了所谓的HIPAA隐私规则和HIPAA安全规则。
- 1974年隐私法 - 1974年隐私法确立了一套公平信息实践准则,用于规范联邦机构在其记录系统中收集、维护、使用和传播有关个人的信息。
- 1980年隐私保护法 - 1980年隐私保护法保护新闻工作者免于在作品公开发表前被执法机构要求交出任何工作成果和文件资料,包括消息来源。
- 白宫关于人工智能的行政命令 - 美国关于安全、可靠且值得信赖的人工智能开发与使用的行政命令
高级别框架与原则
- 负责任机器学习的8项原则(AI与机器学习) - 负责任人工智能与机器学习研究所制定了8项负责任机器学习的原则,供设计、构建和运营机器学习系统的个人及团队采纳。
- 新西兰算法宪章 - 新西兰算法宪章是一项不断发展的文件,需根据新兴技术的变化作出响应,同时也要适合政府机构的实际需求。
- 指南评估——伦理的伦理 - 一篇分析多种伦理原则的研究论文。
- 计算机协会伦理与职业行为准则 - 该准则由计算机协会于1992年制定,并于2018年更新。其旨在激励和指导所有计算专业人士的道德行为,包括现任及未来的从业者、教师、学生、意见领袖,以及以有影响力的方式使用计算技术的任何人。此外,当发生违规行为时,该准则也可作为纠正措施的基础。准则中的各项原则以责任声明的形式呈现,基于公共利益始终是首要考虑这一理念。
- 边界与同意参考框架 - 仅供参考。定义了AI系统的非执行判断边界及同意状态控制机制。
- 负责任与智能数据实践宣言 - 由曼彻斯特开放数据组织提出的关于数据最佳实践的共同愿景。
- 欧盟委员会可信人工智能伦理指南 - 可信人工智能伦理指南是由人工智能高级别专家组(AI HLEG)编制的文件。该独立专家组于2018年6月由欧盟委员会成立,作为当年早些时候宣布的人工智能战略的一部分。
- 从理念到实践:公开可用的人工智能伦理工具、方法与研究的初步审视——将原则转化为实践 - 英国数字 catapult 发表的一篇论文,旨在识别并阐明原则与其实际应用之间的差距。
- IEEE的伦理对齐设计 - 一项以人工智能和自主系统优先保障人类福祉的愿景,鼓励技术人员在创建自主和智能技术时优先考虑伦理因素。
- 蒙特利尔人工智能伦理研究所2020年6月人工智能伦理状况报告 - 由蒙特利尔人工智能伦理研究所整理的一份资源,收录了2020年3月至6月期间人工智能伦理领域内最相关的研究与报告。
- 蒙特利尔关于负责任发展人工智能的宣言 - 由蒙特利尔大学发起制定的伦理原则与价值观,旨在促进人类及群体的根本利益。
- 牛津大学关于人工智能治理的建议 - 来自牛津大学人类未来研究所的一组建议,重点关注高效设计、开发和研究人工智能标准所需的基础设施与特性。
- 普华永道负责任的人工智能 - 普华永道编制了一份调查问卷及一系列原则,概括了他们在负责任人工智能方面所识别出的关键领域。
- 关于人工智能伦理的建议 - 联合国教科文组织的这项建议是一个全面的国际框架,旨在引导人工智能技术的发展与应用,并确立了一系列符合促进和保护人权、人类尊严及环境可持续性的价值观。该建议于2021年11月在教科文组织大会上经193个会员国一致通过。更多信息请参阅教科文组织2023年发布的关键事实资料此处。
- SHELET协议 - 一种用于人类监督AI系统的结构化治理循环(感知→假设→选择→执行→评估→优化),强调通过迭代压缩而非 rigid 控制来实现主权。来源
- 新加坡个人数据保护局人工智能治理原则 - 新加坡政府的个人数据保护局制定了一套关于数据保护及人类参与自动化系统的指导原则,并附有一份报告,详细阐述了这些指导原则及其动机。
- 技术和组织最佳实践 - 由机器学习最佳实践基金会(FBPML)整理的一项资源,包含技术指南(如公平与非歧视、监控与维护、数据质量、产品可追溯性、可解释性)以及组织指南(如数据治理、产品管理、人力资源管理、合规与审计)。欢迎社区成员通过FBPML维基贡献内容。
- 多伦多宣言 - 由Access Now发布的宣言,旨在保护机器学习系统中的平等与非歧视权利。
- 英国政府数据伦理框架原则 - 由数字、文化、媒体和体育部(DCMS)编制的一份资源,概述了数据伦理,并提出了一个包含7项原则的框架。
- 理解人工智能伦理与安全 - 由艾伦·图灵研究所的戴维·莱斯利撰写的指南,旨在为公共部门中人工智能系统的负责任设计与实施提供指导。
行业标准倡议
- ACS职业行为准则 - PDF - 澳大利亚信息与通信技术行业专业组织。
- 计算机协会伦理与职业行为准则 - 该准则由计算机协会于1992年制定,并于2018年更新。其旨在激励和指导所有计算专业人士的道德行为,包括现任及未来的从业者、教师、学生、意见领袖,以及以有影响力的方式使用计算技术的任何人。此外,当发生违规行为时,该准则也可作为纠正措施的基础。准则中的原则以责任声明的形式呈现,基于公共利益始终是首要考虑的原则。
- IEEE人工智能与自主系统伦理考量全球倡议 - IEEE批准的标准项目,专门聚焦于伦理对齐设计原则,包含14项(P700X)标准,涵盖从数据收集到隐私保护、算法偏见等多个主题。
- ISO/IEC的人工智能标准 - ISO的人工智能标准倡议,其中包括一系列后续标准,覆盖大数据、人工智能术语、机器学习框架等领域。
- 开放伦理透明协议 - 开放伦理透明协议(OETP或简称“协议”)描述了涉及自动化决策(ADM)的产品自愿性伦理信息披露的创建与交换机制,这些产品包括人工智能驱动的服务、机器人流程自动化(RPA)工具和机器人等。该协议旨在提高具有完全或部分自动化功能的数字产品的构建与部署过程的透明度。
交互式实用工具
- Aequitas偏差与公平性审计工具包 - 偏差报告由Aequitas提供支持,这是一款面向机器学习开发者、分析师和政策制定者的开源偏差审计工具包,用于审计机器学习模型中的歧视与偏差,并围绕预测性风险评估工具的开发与部署做出明智且公平的决策。
- AI Atlas Nexus - IBM研究院推出的一款开源Python工具包,利用知识图谱统一整合AI风险分类体系(NIST AI RMF、OWASP LLM前10名、欧盟AI法案、MIT AI风险库),以实现风险识别、优先级排序及合规自动化。该工具被列入OECD AI目录,并作为AI联盟信任与安全倡议的一部分。
- AIR Blackbox - 一款开源的欧盟AI法案合规扫描器及Python AI代理的信任层。它根据第9、10、11、12、14和15条法律条款检查代码,并针对LangChain、CrewAI、AutoGen、OpenAI和Anthropic SDK等框架提供特定集成。该工具包含HMAC-SHA256审计链、个人身份信息令牌化、同意门控机制以及提示注入检测功能。采用Apache 2.0许可证。
- Alibi - 一个用于机器学习模型检查与解释的开源Python库。
- 优秀机器学习生产工具列表 - 由伦理AI与机器学习研究所维护的,支持生产级机器学习系统设计、开发和运行的工具与框架列表。
- Cape Python - 可轻松在Pandas和Spark中为数据科学与机器学习任务应用隐私增强技术。可与Cape Core配合使用,共同制定隐私政策,并将这些政策分发给跨团队和组织的数据项目。
- 可解释性工具箱 - 伦理AI与机器学习研究所提出的一种传统数据科学流程的扩展版本,专注于算法偏见与可解释性,以确保能够缓解潜在的不良偏见风险。
- FAT取证 - 一款用于评估人工智能系统公平性、问责制和透明度的Python工具包。它基于SciPy和NumPy构建,并采用3-Clause BSD许可证(新BSD)发布。
- IBM AI可解释性360开源工具包 - 这是IBM提供的工具包,包含大量示例、研究论文和演示,展示了多种能够提供机器学习系统公平性洞察的算法。
- Linux基金会AI全景图 - Linux基金会整理的官方AI领域工具清单,收录了许多维护良好且广泛使用的工具和框架。
- 微软Fairlearn - 由微软开发的用于评估和提升机器学习产品公平性的开源工具包。
- 微软Interpret ML - 由微软开发的用于提升可解释性/理解性的开源工具包。
- 开放伦理数据护照 - 开放伦理数据护照(OEDP)旨在通过揭示训练数据集的收集、清洗、标注及用于AI模型训练的过程,来说明模型的来源。
- 开放伦理标签:AI营养标签 - 开放伦理标签(OEL)是针对包括AI系统在内的数字产品的“营养标签”。它为数字产品引入自我披露标准,使这些产品对消费者更加透明和安全。
- Orchard Kit - 面向自主AI代理的一体化对齐、安全与认知架构工具包。具备膜安全防护、认识论标记、自我审计、代理发现、认知架构及集体认知等功能。无任何依赖项。
- 行动起来:数字伦理 - 来自Avanade
在线课程与学习资源
- 人工智能中的偏见与歧视 - 蒙特利尔大学和IVADO联合推出的免费课程(通过edX平台),探讨算法决策的歧视性影响及负责任的机器学习实践,包括识别和缓解偏见的机构与技术策略。
- 数据科学伦理 - 密歇根大学Jagadish教授主讲的免费课程(通过Coursera平台),内容涵盖数据所有权、隐私与匿名性、数据有效性以及算法公平性。
- 人工智能伦理入门 - Kaggle提供的免费课程,介绍人工智能伦理的基本概念及如何缓解相关问题。
- 人工智能安全、伦理与社会导论 - 由人工智能安全中心主任Dan Hendrycks编写,这本免费在线教材旨在为学生、从业者及其他希望更好地理解人工智能安全与伦理问题的人士提供易于理解的入门知识。除在线阅读外,本书还提供PDF版本在此下载,并设有免费线上课程在此参加。
- 实用数据伦理 - 旧金山大学数据研究所Rachel Thomas主讲的免费课程(通过fast.ai平台),内容涉及虚假信息、偏见与公平、伦理基础、隐私与监控、算法殖民主义等主题。
- Udacity安全与隐私保护的人工智能课程 - Udacity提供的免费课程,介绍三种用于保护隐私的人工智能前沿技术:联邦学习、差分隐私和加密计算。
流程与检查清单
- AI RFX采购框架 - 由伦理人工智能与机器学习研究所的跨学科团队(包括学者、行业从业者和技术专家)共同制定的采购框架,旨在帮助行业从业者评估机器学习系统的成熟度,从而更有效地选择合适的机器学习供应商。
- 数据科学项目检查清单 - Deon是由DrivenData开发的命令行工具,可轻松将伦理检查清单添加到您的数据科学项目中。
- 设计伦理型人工智能体验检查清单与协议 - 该文件旨在指导多元化的团队在共同伦理价值观的基础上,开发可问责、低风险、尊重用户、安全可靠、诚实可信且易用的人工智能系统。卡内基梅隆大学软件工程研究所。
- Ethical OS工具包 - 该工具包深入探讨8个潜在风险领域,以评估技术团队可能面临的挑战;同时提供14个具体场景示例,以及7种面向未来的伦理应对策略。
- 伦理画布 - 受传统商业画布启发的资源,采用类似便利贴的方式,以互动形式头脑风暴项目中可能遇到的伦理风险、机遇及解决方案。
- Kat Zhou的“设计伦理”资源 - 一套可供各团队组织的工作坊,用于识别挑战、评估现有风险,并针对潜在的伦理问题采取行动。
- 机器学习保障 - 快速了解机器学习保障:记录、理解、验证和审计机器学习模型及其相关交易的过程。
- Markula中心的工程/设计实践伦理工具箱 - 一套实用且通俗易懂的工具箱,包含七个组成部分,帮助从业者反思并判断其运营所基于的道德依据。
- 微软人工智能公平性检查清单
- ODEP雇主检查清单:利用电子招聘筛选系统促进残疾人就业,包括人工智能技术的应用 - 由美国劳工部残疾就业政策办公室(ODEP)资助的“残疾包容性雇主援助与资源网络”(EARN)和“就业与无障碍技术伙伴关系”(PEAT)合作编制的包容性人工智能检查清单,专为雇主设计。该清单为领导层、人力资源部门、平等就业机会管理者及采购人员提供了指导,帮助他们在审查用于招聘和候选人评估的人工智能工具时,确保其公平性和对残疾人的包容性。
- 开放伦理成熟度模型(OEMM) - 开放伦理成熟度模型是一个五级框架,引导组织迈向人工智能及自主系统的透明治理之路。
- 旧金山市伦理与算法工具箱 - 面向使用算法的政府领导者和工作人员的风险管理框架,提供两步评估流程:算法评估流程及风险应对流程。
- 英国政府数据伦理工作手册 - 由数字、文化、媒体和体育部(DCMS)编写的资源,提供了一系列可供公共部门从业者提出的问题,这些问题围绕其数据伦理框架原则逐一展开。
- 美国NIST人工智能风险管理框架 - 该框架旨在帮助人工智能系统的开发者、使用者和评估者更好地管理可能影响个人、组织、社会或环境的人工智能风险。
- 世界经济论坛的采购指南 - 世界经济论坛制定了一套供各国政府安全可靠地采购机器学习相关系统的指南,并已在英国政府进行了试点。
研究与行业通讯
- AI安全通讯 - 由AI安全中心每周发布,面向非技术受众,提供关于AI研究、政策及其他领域的最新动态。
- Import AI - 由OpenAI的杰克·克拉克策划的通讯,精选最新且相关的AI研究,以及与AI技术研究交叉的社会议题。
- 马特的间隙思考 - 由Entrepreneur First首席执行官马特·克利福德策划的通讯,对地缘政治、深度科技初创企业、经济学等领域的话题进行精选和批判性分析。
- 机器学习安全通讯 - 同样由AI安全中心发布,不定期深入探讨AI技术研究中的关键成果。
- 蒙特利尔AI伦理研究所每周AI伦理通讯 - 由阿比谢克·古普塔及其在蒙特利尔AI伦理研究所的团队策划的每周通讯,以通俗易懂的方式总结技术和学术论文,并对AI伦理领域的最新进展进行评论。
- 机器学习工程师 - 由伦理AI与机器学习研究所策划的通讯,收录来自资深机器学习从业者的精选文章、教程和博客,涵盖机器学习可解释性、可复现性、模型评估、特征分析等方面的最佳实践、工具和技术见解。
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

