2024人工智能法律伦理_第1页
2024人工智能法律伦理_第2页
2024人工智能法律伦理_第3页
2024人工智能法律伦理_第4页
2024人工智能法律伦理_第5页
已阅读5页,还剩27页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目录 31.1. 31. 42. 53. 61.2. 91.2.1. 10(2) 101.2.2. 121. 122. 181.2.3. 211. 212. 231.2.4.向善的强人工智能—— 26 261.2.5. 27(1) 271.3. 281.3.1. 281. 282. 283. 294. 295. 296. 291.3.2. 301. 302. 331.4. 34哲学意义上的伦理。伦理一词在古文中常与礼义并举,指约束人们行动和交往的社会规范,如贾谊《新书时变》:商君违礼义,弃伦理。西方伦理学一词则源自古希腊语ο(ho),本指动物常住的巢穴,引申为社会的风俗习惯和个人的性格品质。这(NormativeEthics)与应用伦理学(AppliedEthics)品质促成他或她的正当行为。美德伦理学(VirtueEthics)据此认为,正是一个行动者所当然,规范伦理学的研究进程并不局限于此,值得一提的是关怀伦理学(CareEthics),能”(GeneralAI)或“完全人工智能”(FullAI),配备了上述计算系统的机器就具备了执行通用智能行为(GeneralIntelligentAction)的能力,可以尝试执行全方位的智能行为任制品本身作为“人工道德智能体”(ArtificialMoralAgents),我们应当赋予这类“人工道德感性强弱有关联1。空中客车系列飞机的自主巡航系统具有很高程度的自主性,但其道德性这些简单的伦理价值需求。与之相反,dhx在线学习程序只是一套简单的专家系统,为临床医生处理伦理问题提供相应指南2。虽然dhx的自主性程度不高,但其性程度同时提升的方向发展3。人工智能系统作为一套复杂系统,本质上具有不可预测性,在突发因素的影响下,不可避免地会出现偏差。因此,人工智能伦理就无法像传统伦理学那样,仅对设计、制造和使用人工智能技术的行为进行道德约束,而必须拓展到对智能系统本身的道德约束。人工智能伦理风险的独特性就在于,该技术不仅为人服务,更对人产生重要影响。随着自主性程度的显著提升,人工智能伦理必须被前瞻性地融合在人工智能技术的设计和发展之初。人工智能技术的研发和应用不能仅依赖经济驱动这种单轮驱动模式,而必须转为依赖经济与价值双轮驱动模式。系统偏见。机器是由人设计的,而设计者可能有偏见。人工智能系统在接受研制者的调试时,很容易接受研制者的偏见或错误。例如,媒体实验室在测试面部识别技术如何作用于不同种族、不同性别的人时,发现时更易出错5及人类的偏见,可能影响人机之间的正确理解,使我们无法保证公平、正义及程序正当等。2019年在广泛争取国际意见的基础上,发布了最终版。2019年4表9-1中涉及的强人工智能技术制品伦理隐患、风险等并不完备。在强人工智能技术制表9-1(续表(续表护理机器人(CareRobots)是一类特殊的服务机器人,划分依据的是其服务的主要目的,美国著名学者琼·特伦托指出,关怀是一种活动,包括我们为维护、控制和修复我们的‘世界体、我们自己和我们的环境”。关怀活动包含四个基本要素。响应(Responsiveness):与被关怀者进行良好沟通的能力[15]在方式不同,这会给用户(尤其是在认知上存在一定障碍的用户)的问题。强人工智能体具有何种道德地位?它们能为自己的行为负责吗?它们拥有权利吗16?我们应当仅仅把它们当作工具,还是在对待它们时遵循某些特定的伦理规范?尽社会影响及规划强人工智能技术的发展路径等重大现实问题也有着奠基性的作用。常常会对动物产生一定的道德关切。哲学家对此给出的一个重要理由是,动物和人类一样,也具有感受快乐和痛苦的能力,而我们的道德关切正是建立在这种能力之上的17。是否具有固有的道德价值这个根本问题上,人们目前还没有形成比较广泛的共识。学术界通常的看法,它们之所以“强,是因为它们(应当)具有至少不弱于人类的理性思十分丰硕的成果,但即使在专业的哲学家当中,对于如何理解这一概念还存在很大的分歧。就人工智能体而言,从阿兰·图灵开始,许多人都对机器是否可能拥有自由意志的问有任何决定性的论据表明人工智能体不可能拥有自由意志18。自主性则可以说是人工智能体区别于一般物体的根本特征:与人们通常使用的工具(如锤子、钢笔等)备(如一般的计算机程序)资格。者既能通过理性认识到有哪些道德规范,又能基于道德本身去遵守这些规范。在康德看来,只有这种意义上的自主性才是人的尊严的构成基础19。这种意义上的自主性显然与人工智能体目前所展现出的自主性尚不足以要求人们赋予其以特殊的道德地位。方面,如对美好事物的享受,就不在模拟范围内,模拟它们也没有任何意义11。因此,并没有常规意义上的权利或义务,但这并不意味着我们在和它们“打交道的过程中,无须遵循一些特殊的伦理规范。这种情况在伦理学中并非毫无先例——需要伦理观念和理论,就是因为要借助它们来思考和解决这些问题20。因此,随着社会可能带来的前所未有的伦理挑战。在后文中,我们将介绍一种“优化共生设计方案,并阐明这一方案为何可以用来应对挑战。从20世纪电子计算机问世以来,为计算机赋予类人智能就成为计算机科学领域的“梦想。尽管“人工智能这个术语直到1956年才出现,人工智能研究的根源却可以回溯至20世纪40年代21。20世纪后半叶,人工智能领域的发展几经波折,直到20世纪90年代后期才得以诊疗这些现实问题中的应用。21世纪,我们正在经历的人工智能技术热潮始于2010年前后。人工智能领域的这轮快速发展得益于三个重要的技术要素革新——与算法、计算机算力的显著提升。些学者则把人工智能定义为“能够以理性方式解决复杂问题的系统或能够在任何现实环境中采取恰当行为以实现目标的系统”。相关专家把人工智能系统分为类人思维系统、类5类:符号论、连接论、演进式、蜂巢式自动系统、动力论系统23。复杂系统的本质就包含不可预测性,在遭遇突发事件时易出现各种小事故24。即使是设率事件的发生。正是由于复杂系统存在无法避免的不可预测性,人工智能体(工智能体)所进行的决策和输出都有可能超出设计者、制造者及使用者的原本意图。年12月,美国“全球鹰无人飞机在着陆滑行中意外加速,最终偏离跑道并导致损毁,造成530万美元的损失。2010年5月,美国道琼斯指数自动交易出现闪崩,导致数万亿美元蒸发。综上所述,无论是基于人工智能系统的复杂性还是其自主性,人工智能体(智能体)与人类之间的关系无法再等同为(人们通常认为的)道德行为作为唯一的目标。20通常认为的那样价值中立,而是不可避免地携带着工程师的价值偏好25。近年来,国际工程伦理中不断推广的“负责任的设计就是要把责任主体要素纳入工具的设计规范。然而,“负责任的设计仍然无法应对复杂性和自主性不断增强的人工智能(特别是强人工智能)系统带来的伦理挑战。向善的强人工智能——整体善为基础来整合不同的伦理传统27。与此同时,人工智能技术的广泛使用也在深刻价值多元结构。人工智能系统的设计和研发应该允许并保护世界多元价值的共生秩序。图9-1意义。从发展经验来看,并非所有的技术成果都能够造福人类29。我们在充分肯定人工智能为解放人类生产力带来的重大便利的同时,必须高度重视人工智能对传统的社会结技术和应用。但如果未经他人同意而擅自进行上述模仿活动,就有可能构成对他人人格权的侵害30。此外,是否赋予人工智能主体资格?各界对此问题的观点不一,支持者有之,反对者有之,亦有观点认为应当赋予人工智能有限人格。法律责任认定和承担32。以机器人致害为例,是产品责任还是普通的侵权责任?责任主定。()发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》,并发律客体。机器权利和人权的关系并非十分和谐,在以《人工智能设计的伦理准则》为代表的系统的设计和运作符合人类的尊严、权利、自由和文化的多样性,不侵犯人权。“无人驾驶”的伦理困境是人类与机器操控权分配的典型代表,对辅助驾驶系统能力的夸大和人类对驾驶控制权的放弃导致自动驾驶事故在不断发生。2019年,在埃塞俄比亚航空波音737x飞行控制计算机出现数据错误”后,飞行员无法夺回控制权,最终酿成事故。因此,在主张机器权利的同时,需要对其加以义务

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论