信任AI的框架:欧盟的新道德准则

2019年4月8日,欧盟委员会的高级专家组人工智能释放了 值得信赖的AI伦理指南 (the “指导方针“)。人工智能高级别专家组是一个由52名成员组成的独立组,由委员会成立,并任务起草了支持委员会对欧洲制造的道德,安全和尖端AI的愿景的指导方针。该指南的初稿于12月发布了这一指南,并遵守开放磋商,这些磋商会产生超过500个贡献者的反馈。

该指引明确说明他们不反映欧盟委员会的官方立场,也不会替代任何形式的当前或未来的政策制定或监管。相反,指导方针旨在通过构建基金会来实现AI申请的指导,以实现值得信赖的AI。更具体地说,指导方针旨在成为一个随着时间的推移而发展的自愿生活文件,并将成为围绕信任和AI对话的起点。 AI是一个强大的工具,但它可以向系统引入不公平的偏见或产生不可靠的结果。该指南表明,AI周围的适当限制和治理将以道德和负责任的方式帮助利用这些系统,并提供一些实际指导来帮助实现这一目标。

最近在Cyber​​lex上, 我们概述了加拿大政府对自动决策的新指令。它对加拿大政府利用自动决策系统施加了多种要求。该指令和欧盟委员会的准则(特别是指引中的第三章的评估清单)将有助于对正在制定在其业务中通过和实施AI解决方案的政策的公司的有助于提及。

为了实现AI的信任,指导方针的说明必须是 合法, 道德强壮的。然后利用欧盟条约,欧​​盟宪章和国际人权法的基本原则,以制定7份实际要求的清单,即系统应纳入生产值得信赖的AI,即:

  • 人工机构和监督 - 包括基本权利,人体机构和人类监督
  • 技术稳健与安全 - 包括攻击和安全性的恢复力,退回计划和一般安全,准确性,可靠性和再现性
  • 隐私和数据治理 - 包括尊重隐私,质量和完整性的数据,以及访问数据
  • 透明度 - 包括可追溯性,解释性和沟通
  • 多样性,不歧视和公平 - 包括避免不公平的偏见,可访问性和普遍设计,以及利益相关者参与
  • 社会与环境福祉 - 包括可持续性和环境友好,社会影响,社会和民主
  • 问责制 - 包括审计性,最小化和报告负面影响,权衡和补救

该指南更详细地解释了七种要求中的每一个。

该指南然后是Canvas的许多方法,可以用于实现七种要求,以实现AI系统生命周期的所有阶段实现值得信赖的AI: 

  • 技术方法 可能会受雇,例如在系统内创建架构以避免或促进某些行为。应该使用法治和道德规范“逐个设计”(即,将这些要素积极嵌入系统本身的设计和操作中)。系统的测试和验证应由使用多个指标的各种人群执行。
  • 非技术方法 对于实施七种要求,也应持续使用和评估。采用关键绩效指标的行为守则,标准化商业实践以及关于道德设计的教育系统架构是提供的一些建议。思想,技能,性别和年龄的团队有助于创建AI系统,从而有效地融入我们不同的世界。

最后,提供了一份评估清单草案,以协助达到帝国AI的发展和部署。该指南提出了可以在组织的每个级别定制的治理机制,以便为值得信赖的系统实施这些新进程。评估清单并不意味着穷举;它是利益相关者的起点,可能是为正在制定政策和框架的公司的最有用部分,以便在其业务中采用和实施AI解决方案的政策和框架。

邀请公共和私营部门的利益攸关方进行试点项目,以使用和批评指南评估清单草案。目的列表将根据其调查结果进一步修订,并将在2020年代初发布给欧盟委员会。虽然指南是协调欧盟信赖AI的方法的共同努力,但他们并不是约束力。由于指南在试点项目之后进化,采取指南可以成为欧盟的标准行业实践,无论是通过消费者的预期,还有欧盟一般数据保护监管,侵权法或其组合等规定。

访问我们 网络安全,隐私& Data Management 页面并与我们联系任何问题或提供帮助。

Auteurs

订阅

Receedz NoS Derniers Billets enFrançais

incrivez-vous倒recevoir les分析de ce blogue。
Pour S'abonner Au Contenu enFrançais,procédezàvotre题字àpartir de cette页面。

Veuillez enter une valide