版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
第五章机器人伦理学习和理解机器人伦理概念。学习和理解主要的机器人伦理问题。学习和了解各国机器人伦理规则与措施。本章学习要点对于机器人,人类会比普通的智能机器更加关注其带来的伦理问题。机器人伦理的目的就是要使今天的人类在享有机器人带来的好处的同时,也要关注和预防其在个人情感、心理及社会等多方面可能带来的影响。本章的学习进一步加强机器伦理在机器人这个特殊领域和对象地深入理解和认识。学习导言“机器人”这一概念的出现则是在20世纪初的科幻剧本中。1954年,美国人乔治·德沃尔制造出了世界上第一台可编程机器人。1962年,一家美国公司生产出了真正商业化的工业机器人,全世界掀起了对机器人研究的热潮。1968年,美国斯坦福研究所研发成功世界上第一台智能机器人“Shakey”。5.1机器人概念及发展历史5.1机器人概念及发展历史国防科技大学设计的我国首个人形机器人过去四十年以来人类创造的人形机器人。我国90年代研制第一台人形机器人外观还很简陋粗糙。2000年以后,人形机器人发展无论是外观还是行为上都越来越逼近人类。5.1机器人概念及发展历史
日本开发的人形机器人5.1机器人概念及发展历史行为灵活的波士顿动力机器人2000年以后,人形机器人发展无论是外观还是行为上都越来越逼近人类。行为灵活的波士顿动力机器人5.1机器人概念及发展历史目前市场化的商业服务机器人阿西莫夫提出“机器人三定律”之后,在1950年就发现需要扩充第一定律,以保护个体的人类,以便最终保护整体的人类。1985年,他对原有的三定律进行修订,增加了第零定律,同时修改了其他定律:第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。第一定律:机器人不得到伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。第二定律:机器人必修服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。5.2机器人三定律与机器人伦理从学术角度,机器人伦理学包含三个层次:其一,把机器人作为独立于人类存在的主体对象,以人类自身的伦理规范为标准看待身边的机器人。其二,有关机器人的设计和制作应该考虑到伦理的因素,机器人的行为标准要参照于人类伦理的规范。其三,具备一定的道德主体地位的机器人与人类之间、机器人与机器人之间的伦理关系如何界定。5.3机器人伦理学5.3.1机器人伦理学概念5.3机器人伦理学应用伦理学科技伦理人工智能伦理机器伦理机器人伦理
图5.1伦理、科技伦理、人工智能伦理与机器人伦理之间的关系5.3.2机器人伦理与人工智能伦理的联系与区别从物理载体角度,机器人不同于其他人工智能系统之处,机器人除了感知、认知、决策等软能力,还具有躯体。由于机器人具有躯体而产生的智能(也称为具身智能)可能不同于软件算法产生的智能,由此引发的伦理问题也有区别。从行为角度,由于机器人具有躯体,因而具有或移动或飞行或跳跃甚至兼而有之的等各种行为和执行能力。在任务执行方面所特有的行为智能产生的机器人伦理问题,是有别于以软件和算法形式实现的人工智能伦理问题的。二者之间的联系在于,无论是人工智能伦理还是机器人伦理,所遵循的基本原则是一致的,即都要服从、服务于于人类的根本利益。5.3机器人伦理学5.3.2机器人伦理与人工智能伦理的联系与区别频繁的“人-机”互动导致人在某种程度上极有可能将机器人视作和自身同等的生命,这种现象在儿童这一群体上表现得尤为明显,足以让儿童误以为是真实的情感认同。“非生命”机器人可以作为人的情感交互对象,人则可能频繁地被机器的类人化特征所“欺骗”,因而人对于自身的情感认同将越来越偏离原有轨道,且进一步造成人自身产生对生命、对人自身的认知偏差。5.4机器人伦理问题5.4.1情感问题5.4机器人伦理问题老人与机器海豹宠物因为老年人的精神健康本质上依赖于人类保姆和家人的接触,将护理服务推卸给了机器人而减少本来可以安排的亲近会面,这样会给老人带来自卑、恐惧等负面心理。5.4.1情感问题此人的情感反馈远远大于社会化机器人,情感反馈的强度差异有着天壤之别,因此,作为依归主体的人在情感认同上,在某种程度上可能会出现心理落差。这种落差感归因于社会化机器人,却有可能使人产生自我的不认同感,进而影响人自身的身心发展。5.4机器人伦理问题5.4.2心理影响在社会方面,机器人产业的快速发展也容易造成社会性问题。在全球工业自动化进程下,全球工业机器人保有量在2015年就高达163.2万台,工业机器人快速发展引领着新工业革命。与此同时,在全球范围内将会导致越来越多的人类失业。机器人可以取代危险的或有损尊严的工作,同时社会也要尽可能为目前从事这些工作的人提供过渡到其他社会角色的机会。5.4机器人伦理问题5.4.3对经济就业影响2007年12月,日本千叶大学最近制定了关于智能机器人研究的伦理规定——“千叶大学机器人宪章”,以确保机器人研究被用于和平目的。韩国政府2010年起草世界上第一份《机器人道德宪章》,以防止人类“虐待”机器人和机器人“伤害”人类。2014年,欧盟启动了《欧盟机器人研发计划》(SPARC),其中分析了机器人发展对伦理、法律和社会问题的影响。2016年,联合国教科文组织联合世界科学知识与技术伦理委员(COMEST),共同发布了《关于机器人伦理的初步草案报告》。5.5发展中的机器人伦理规则5.5.1国家与国际组织制定的机器人伦理规则在朕合国发布的《关于机器伦理的初步草案》的报告中集中探讨了以下四个方面,分别是有效应对自动化机器人使用带来挑战、机器人技术与机械伦理学、迈向新的责任分担机制和决策可追溯的重要性。有效应对自动化机器人带来的挑战机器人技术与机器伦理学责任分担机制决策追溯5.5发展中的机器人伦理规则5.5.2朕合国的机器人政策与监管1.有效应对自动化机器人带来的挑战自动化机器人的使用所带来的伦理问题,在于会对人类的安全、隐私、诚信、尊严、自主等带来极大的挑战。如何在监管的措施中,解决这些可能的风险,就能有效地解决将来可能遇到的伦理困境。5.5发展中的机器人伦理规则5.5.2朕合国的机器人政策与监管2.机器人技术与机器伦理学在报告中提出,虽然机器伦理学已得到重视,然而还有很多的领域没有确定相关的规范。造成这种现象的原因:一方面是科技发展迅速,而政府难以快速跟进;另一方面机器伦理学涉及的问题太为复杂,有些问题难以预知。5.5发展中的机器人伦理规则5.5.2朕合国的机器人政策与监管3.责任分担机制只要是参与过机器人的发明、授权和分配过程的所有参与者,都要承担责任,具体承担责任的大小根据不同参与者的参与程度来确定。另一个就是让智能机器人承担责任。5.5发展中的机器人伦理规则5.5.2朕合国的机器人政策与监管4.决策追溯只有确立机器行为的可追溯性,才能时时刻刻地保证机器人的所有决策行为都处于被监管之下。这样带来的好处有:人类可以更加深入地理解机器人的思考决策过程;如果一旦机器人在决策过程中出现错误,人类还能够进行快速适当的修改,以确保机器人决策行为不会带来风险;可塑性的信息也能够进步发挥。5.5发展中的机器人伦理
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
评论
0/150
提交评论