欧盟可信赖人工智能的伦理准则_第1页
欧盟可信赖人工智能的伦理准则_第2页
欧盟可信赖人工智能的伦理准则_第3页
欧盟可信赖人工智能的伦理准则_第4页
欧盟可信赖人工智能的伦理准则_第5页
已阅读5页,还剩43页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

朱悦(译第6-17页,圣路易斯大学法律博士(J.D.)候选人单捷(译第21-27页,捷豹路虎(中国)投资合规数据保护高级经姚凯(译第18-20页,欧喜投资(中国)IT总监。邓研菲(译第21-27页,复星资本投资分析师,中文大学金融学。王良(校对第6-17页,金诚同达。王超(校对第33-38页,爱奇艺总监贺凯(校对第39-46页,宁波银行安全管理岗CISSP。浦顺程(校对第18-20页,希思黎天猫部门。“数据法盟”Datalaw公益翻译小组#“数据法盟”是什么#“数据法盟”是由企业高管、资深、专业及法学教授领衔的高端法律平台,是聚焦于数据安全和隐私保护领域的领先组织,目前已团结了近千名热心于数据合规的实务圈同仁。理想愿景:以全球视野,为中国建言;以中国智慧,为全球献策。组织形式:一是月度,聚焦数据隐私及安全等;二是年度,邀请全球最顶级数据安全和隐私保护专家;三是闭门会议,特邀机构解读政策和趋势;四是公益翻译小组,将亚太和欧美的经验介绍到中国。#我们的目标制造干货,为《个人信息保》和《数据安全法》的提供支撑;翻译、介绍及整理亚太及欧美的数据治理实践,让中国拥抱世界;翻译、介绍中国在数据安全及隐私保护方面的 和司法判例,扩大影响及消除误解,让世界了解中国。#我们的愿景建立平台和,增进同业交流,不再闭门造车;相互,让思想的火花肆意碰撞。#我们的实践团队协力带来最精准翻译;专题式研讨进一步升华;结集公开扩大;我们是认真的。#您的权益#欧 人工智能级专家组 供利益相关方咨询使用的工作文档人工智能高级专家组关于可信赖人工智能的准欧盟本文档由人工智能高级专家组发布,文档既不代表专家组成员在特定问题上的立场,也不限于文档最终版本中的内容。文档仍待后续修订。经欧盟人工智能组织的利益相关方磋商结束后,将于2019年3月发布最终版本。有关人工智能高级专家组的更多信息,请浏览(2011/833/EU(OJL330,14.12.2011,p.39)。若您有意利用或任何欧盟对其不享有的或其它材料,您必须直接寻求相应材料的持有者的关于可信赖人工智能的准I容概II准IV语准则的指导理念及愿景可信赖人工智能:一个框架尊重基本权利、原则及价值:实现可信赖的人工智能可信赖人工智能需满足的要求实现可信赖人工智能的技术:技术方法与非技术方结论内容概要则》草案,最终版本将于20193月发布。会大踏步前进。无人汽车、健康医疗、家用/服务业机器人、教育及,及会生量处同,工智带了须善决、定必须坚持于最大化其收益并将其带来的风险降到最低并是始提祉可信赖人工智能将成为我们的“北斗星:人工智能技术值得信赖,是人类有把握地、充分地可信赖人工智能包含以下两部分内容(1)确保“目标”的实现,可信赖人工智能应尊重基本权利、所适用的及的原则和价值;且(2)即使出于这份草案据此为可信赖人工智能描绘了一个框架第一章基于前述的人工智能应遵循的“基本权利、原则及价值”,解决了“确保‘目标’的实现”这一问题;‐第二章则衍生自以上原则,聚焦于实现可信赖人工智能时应遵循的准则:既关注目标,又关切技术稳健性。此处分析的进路如下:列举可信赖人工(2019推荐措施》——中讨论这些问题,亦无意于阻遏相应政策或的欧盟创设的可信赖人工智能”的起点。诚然,全球竞争,欧盟的行动范围限于宣传自身对人工智能的观念;然泛围内的应用。因此,角度看人工智能,这一点对树立负责任的竞争力相当推动发展具备如下鲜明特征的人工智能:旨在同时保护及惠及与公共利益。这将有助于欧盟沿、安全及遵循的人工智能这一领域中占据先机。唯有架的与讨论。执行准则第一章:对实 目标的关键指“目标”植根并体现以下内容:基本权利;社会价值;包括为善、不作恶、第二章:对实现可信赖人工智能的关键指引自设计之初即将可信赖人工智能的相应要求纳入考量:可问责性、数据治理、‐在人工智能系统中实现以上原则的技术方法与非技术方法。此外,在建‐以清晰的方式,主利益相关方(顾客、雇员等)提供与人工智能系统功‐使可信赖人工智能成为组织文化的一部分,并向利益相关方提供与“可信赖‐切实确保利益相关者参与到人工智能系统的设计与开发当中。此外,在组建‐致力提升人工智能系统便于审核的特性,尤其应当强调重要情境或场景中的预训练模型之间具有可追溯性。此外,还应界定解释人工智能系统的方法。‐确定一套问责审核 用;识别与矫正错误可能与隐私保护相报告并记录这些。 第三章:对评估可信赖人工智能的关键指引‐在开发、推广及利用人工智能时采用评估列表;并且,结合人工智能系统运‐牢记评估列表始终是不完整的,并且,可信赖人工智能的列表并非“对着表术语人工智能或误(Bias:目标(EthicalPurpose:个要一。人类中心的人工智能(Human-CentricAI可信赖人工智能(TrustworthyAI可信赖人工智能包含两方面要素:(1)其开发、推广与使用应确保满足“目标”——与基本权利及所适用相符、且尊重原则与价值;且(2)在技准则的指导理念及愿景在2018年4月25日及2018年12月7日的简报中,欧盟(以下称“委员前沿的人工智能。人工智能愿景的三个支柱包括:(i)增加公共及私人部门对人工智能的投资,以促进其发展;(ii)对社会-经济做好准备;(iii)确立一个强化欧洲价值观的及法律框架。为以上愿景,成立了人工智能高级专家组(AIHLEG,并要求专家组起:(1在过去一个月里,52我们相信:遵循以上路径,欧盟将成为前沿、安全且合乎的人工智能的与者(1)目标”——与基本权利及所适用相符、且尊重原则与价值;(2)在技术方面健而信赖即意,方的成仍来之的害此,基权及适规原与值遵,人智的计开与广过进。术法非术法准则的目标和受众推或利人智能因,也受之一。《准则》的最终版本将提出一种机制,是否正式认可将由各利益相关方自愿决定。《准则》的范围的订立。应于不同的。向民众推荐歌曲的人工智能系统,其敏感程度自然无法与推荐医学疗法的人工智能系统等量齐观。与此相似,在商家-消费者关系当中,在商家-商家关系当中,在公共机关-民众关系当中,乃至更加一般的、在不业或不同实用案例当中应用人工智能系统,带来的机遇与均各有千秋。因此,考虑到人工智能在不同应用场景的特性,我们明确认可“因地制宜”的应对策略。可信赖人工智能:一个框架——共同组成一个实现可信赖人工智能的框架应用可能与相应目标抵触的、因而尤其值得关注的特定领域。评估列表与实用案例。基于第一章确立的目标与第二章明确的实施可信赖人工智能:一个框架目实现可信赖人工智能对应用案例中的可信赖人工智能的评估列表尊重基本权利、原则和价值——目欧盟基于权利的人工智能方人工智能高级专家组(AIHLEG)相信,实现人工智能的是以欧盟条约和何实现具体的价值。欧盟基于承诺保护基本的和不可分割的,确数据保护条例GDPR)等其他法律,进一步阐述了这一承诺。基本权利不仅可以从基本权利到原则和价值阶段开发、使用或投资人工智能系统(即通过确保人们有机会同意产品或服予基本权利以支撑。这三者之间的关系如下图所示(参见图2)。 和人类尊严的公约”(OviedoOviedo权利是确保技术中“人类至上”的基石。基本能减少、受损或被他人约束——也不能工智能等新技术所限制。在人工智尊重、正义和。这需要政治权力以人为中心并且具有边界。人工智、非和团结,包括属于少数群体的人的权利。意味着对待则信息、数据、知识、市场,技术所产生的增值。还需要足够。在与公共部门的互动中,公民可以从各种权利中受益,包括享受善人工智能和相关价值背景下的原9,AI4People5了上述EGE原则以及迄今为止636项其他原则,并将其纳入四项总体原则。这些包括:仁慈(定义为“做好非(定义为“不施加,则为价值观的运作提供了指导8。9仁慈原则:“好” 现10。换句话说,人工智能可以成为一种工具,可以为世界带来的好处和L.Floridi,J。Cowls,M。Beltrametti,R。Chatila,P。Chazerand,V。Dignum,C。Luetge,R。Madelin,U。Pagallo,F。Rossi,B。Schafer,P。Valcke,EJMVayena(2018),“AI4People-良的原则(2018年。这些原则最初是由TBeauchamp和JChildress在医学背景下,有关此问题的信息,请参我们利用IbovandePoel框架将价值转化为设计要求。这包括两个主要阶段;价值规范和价值操关于实践,原则和过程的思考(第253-266页。斯普林格,多德雷赫特。想和机器28(4):689-707。非原则:“不 自治原则:“保护人类机构”正义原则:“公平”10有关三大支柱的信息,请参阅Drexhage,J.,&Murphy,D。(2010)。可级别小组在年月日第一次会议上审议。L.Floridi等人提出了“环境友好”概念强于可持续性的概念。(2018),28(4:689-这里要考虑的项目是大量计算能力对运行AI系统(数据仓库所需)的影响用 可解释性原则:“透明操作”链输入AI指示(人工智能系统寻求的发现或所涉及的因素如预测、发现或预人工智能关键问本本了AIHLEG成员之间的热烈讨论,我们未就下文所述领域引起关注的程度成一致。因此,我们要求参与利益相关方磋商的人员就这一点提出具体意见同意的识别权,需要在人工智能中按比例使用控制技术。区分个人识别与追踪和 (2018,28(4:689-隐蔽人工智能系统人类总是必须知道他/她是否正在与人或机器进行交互,并且人工智能开发人员人工智能开发人员和部署人员应确保人们了解或能够请求并验证他们与人工智能进行交互的事实在并使题杂化-如由类出话工智过。人机人以被认应该经过仔细的评估。偏离基本权利 同意的规范性和大规模的公民评(例如,“”或“完整性”的一般评估)危及这些价值观,特别是性和特定领域的评分(例如学校系统,电子学习或驾驶执照)致命自治系统LAWS可以在没有对选择和单个目标的关键功能进行有意义的人为控制的情得到解决。另请注意,另一方面,在中,LAWS可以减少附带损害,例平中,AIHLEG2018912LAWS(RSP潜在的长期问题事实证明,这一小节在事实证明,这一小节在AIHLEG成员之间的讨论中备受争议,我们未就下文领域引起关注的程度达成一致。因此,我们要求参与利益相关方磋商的人员就这一点提出具体见。问题-这些问题本质上是推测性的。从今天的角度来看,这种情景的发生概率工意识的发展,即可能具有经验的人工智能系统,18人工人19或无(AGI20确确 目的的关键指南‐ (不施‐依靠基本权利,原则和价值观,前瞻性地评估人工智能对人类和共同利益的可能影响。特别注意涉及弱势群体的情况,如儿童,残疾人或少数群体,或者权力或信息不‐承认并这样一个事实‐在为个人和社会带来实质性利益的同时‐会产生影响。对重要关注领域保持警惕知的未知数和“”的认识不确定性21。我们邀请那些参与磋商的人他么从,法律和政治的角度来看,这将是一个很大的问题。它可能会在自类型的自觉性人工智能系统需要被视为具有特定权利的对象的风险。正是在这方面,意识研究今天已经存在于法国,和,它们20实现可信赖人工智能可信赖人工智能的要求问责制数据管理(Data面向全体公众的设计(Designfor人工智能自主决策的管理(人为监督)(ernanceofAIAutonomy(Humanoversight))非性(Non-尊重(并强化)人类自主性(Respectfor(&Enhancementof)Human尊重隐私(Respectfor稳健性安全性透明性人工智能的要求。在第三章中,提供一个评估列表来维持这些要求的问责数据管面向全体公众的设计人工智能自主决策的管理(人为监督)非些差异可以被有意或无意地进行考量(例如种族、、性取向或,同时通过使用人工智能产生的直接或间接4能够用于和边缘化特定群体。12参(业和职业待遇的一般框架。另见“欧盟基本权利”第21条。尊重(并强化)人类自主性尊重隐性取向、、、和政治观点等。而掌握这些信息的人就可以利用这些稳定5参见欧洲基本权利机构的文件《大数据:数据支持决策中的(2018年)”可依赖性和可再现性。信赖性要求结果的准确性可以通过独立评估予以确定和重在人工智能决策过程中出现非计划性。准确性。据模而测推或的能。于工能言明确且完善的发展和评估过程可以支持、减轻和纠正意外的风险。抗能力。同所有软件系统一样人工智系统也可能含一些被对手利用原始的同行路。果工能统到数和统为可能被篡改,导致系统做出不同的决定或者导致系统完全。系统和/或数据也可能因目或到外况而破。管不善数可被意无意决甚至物理上的损害。备用方案安全的人工智能需要有保障措施确保在人工智能系统出现问题时可提安全安全性是确保系统做其应该做的事而不会用户(人的身体的完整性、透明其他道德上的重大影响的一切模型均应当明确并公开有关数据源和开发过程的选择、决策以及利益相关者。技术性和非技术性(3)持续AIAI持续性的过程。虽然下面的方法列表并非详尽无遗,但它反映了实现可信赖AI的主要推荐的方法。为了保障AI系统的可信性,下述方法应始终以第一章中所定义的权利和原则为基3描述了权利、原则和价值理AI开发过程的影响。这些抽象的原则和权利估及论证(justification)过程6作为开发过程的。技术性方法AIAI持续进行AI主要技术性方法。也将为AIHLEG(欧盟人工智能高级专家组)的第二个可交付成果提供信息(如基于设计的与理念(X-by-design基于设计的X理念定AI系统可能具有的影响,以及该系统应遵守的和法律规则等。不同的“by-design”(基于设计的理念)概念已基于涉及的隐私理念及基于设计的安全理念了赢得信任,AI(例如在之后实现故障可信AI的架对可信AI的要求应“转化”为运行程序本身,或/和对运行程序的约束,并锚定-计划-行动”的循环来描述。为了使这种架构能够运用到对可信AI的实反映层面的原则。个AI系统的可信。测试和必须在充分理解的,并可预测的范围内仔细基础模型的稳定性,稳健性和可可解释性非技术性方法以下方法的列举并非详尽无遗,也无强制性,旨在帮助确保实现可信的AI。 AIAIAI在这一问题上,可适用的法律应发挥作用——应包括可诉诸司法正义的途径标准使用标准化的设计制造和商业惯例可以成为AI的系统使得消费者,参与者和能够有能力在过程中识别并符合准则的AI。除传统设计标准等。例如ISO标准,公平贸易标志或“欧洲制造”的。问责涉及AI时,任命专员,内部或董事会,和/或外部或董行为权利”,“”和“避免”等。对思维的教育与培可信的AI需要所有利益相关者的知情参与。这就要求教育发挥重要作用,既要保障关于AI潜在影响的知识普及,又要让人们他们可以参与塑造社会的,用户从更好的医疗到更安全的交通,AI的好处很多。因此欧洲要确保所有欧洲人都可以享受该好处。这需要公开的讨论,社会各界、利益相关者和公众的参和数据分析的合理使用。这些小组包括不同的专家和利益相关者:法律专家,用及影响的,对结果和方法的评估和,以及对复杂的分析。 实现可信AI的关键步骤指南AI,AI对可信AI的关注也可以在组织的章程或行为准则中予以明确。AI义AI系统的解释方法。可信AI的评 现合理性目标和技术的可靠性提供指导AI中,能够距离可信任AI的评估与我们所列的评估的关系。决定性的(3AI评估的每个指标的关键问题和行动都将被识别。随后,这些指标将被用于在AIAI构AI系统。我们应当时时提醒自己,基于的评估并不是一项独立的工作,它必须与职责划(负责训练人工智能?是否签署过约定?)留用从事AI工作的员工?数据管对数据和流程的管理是否合适?管理人员遵循了哪些流程和程序来确保正确的数据治理?是否建立了监督机制?最终负责设计的通用如何衡量和保证每

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论