




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
人工智能的伦理与未来专业基础课-《人工智能导论》1234人工智能的道德困境人工智能的伦理问题5人工智能的伦理发展人工智能的未来总结与问题人工智能导论概述2随着人工智能技术的不断发展,其在各个领域的应用越来越广泛。然而,人工智能技术所带来的伦理问题也日益凸显。什么是人工智能的伦理人工智能带来哪些伦理问题人工智能的未来是什么目录一、人工智能的道德困境“电车难题”4
假设一辆有轨电车突发故障,无法刹车,此时摆在前面的有两条路,一条按既定轨道行驶会轧死上面的五个人,一条是旁边的岔道,若司机转向会轧死一个人。二选其一,要么活一个人,要么活五个人。提问:这个司机应该怎么做?如果你是司机会如何抉择?5“电车难题”的引申
同样是电车无法刹车,按正常轨道会轧死五个人,但这回没有岔道,而改成了电车上方的天桥上有个胖子,若将他推下去,他的身体可以阻止电车行进。
一个胖子换轨道上的五个人,提问:如果你恰好在天桥上,会把这个胖子推下去吗?6“电车难题”的第三版本上面的实验选择权不在司机身上,而在“你”手中:同样的场景,旁边出现了一个观者“你”,“你”手上有个拉杆,可选择直行或变道,这种时候,“你”会选择救一人还是五人?7“电车难题”的伦理电车难题不管选哪一方都有人反对或支持,比如选择救五个人,这会儿就有人填充细节了,说如果一个人那边那个是爱因斯坦,五人那边都是小偷,你选哪一个?这个时候两边的“价值”还相等吗?再比如一个人的是你的亲人,五人那边则是牛顿、爱因斯坦等顶尖科学家,你怎么选?可能就是哪边价值大救哪边,看起来很简单,但其实这里面太有讨论空间了。这道题看起来简单,实际上根本不简单。除了伦理观,还考验着道德观和价值观。一条命和五条命看起来是个不需要考虑的数学题,但现在人们的价值观是,人人平等,生命同价,只要是命那就是一样的,不应该牺牲小部分人去拯救大部分人。8“电车难题”与人工智能假设:面临困境的主角不是人类,而是人工智能系统或者智能机器人,那么它们能够采取和人类一样的道德判断和决策吗?葡萄牙新里斯本大学的LuisMonizPereia与印度尼西亚印尼大学的AiSptawijaya在《模拟道德与未来逻辑》一文中深入探讨了此类问题,并在通过计算机编程模拟后宣称:道德观现在不只是人类哲学家的高级领域了。目录二、人工智能的伦理问题人工智能的伦理问题10"智能机器三守则":1.智能机器必须不危害人类,也不允许它眼看人类受害而袖手旁观。2.智能机器必须绝对服从人类,除非这种服从有害于人类。3.智能机器必须保护自身不受伤害,除非为了保护人类或者是人类命令它作出牺牲。社会结构正在发生一种静悄悄的变化。"人—机器"的社会结构,终将为"人—智能机器—机器"的社会结构所取代。人工智能的伦理问题11一、经济与就业问题机器人或人工智能对社会经济会产生哪些影响?机器人或智能机器是否会彻底取代工人?政府和社会应该做些什么?每个人应该如何正视机器人以及各种智能机器给就业和工作带来的危机?目前,世界上主要的发达国家以及我们国家的政府部门,已经纷纷开始研究相关制度,在鼓励人工智能技术和产业发展的同时,也要预防可能由于人工智能技术造成的失业等社会问题。人工智能的伦理问题12二、安全与责任问题智能系统如果操作不当就很容易引发各类问题,影响社会的生产和生活秩序,甚至引发社会恐慌。例如,美国亚马逊公司的Alex智能音箱(依赖于云端智能技术,具有语音识别、聊天对话等功能)曾在深夜发出怪笑声,给很多用户带来了恐慌。目前以深度学习为基础的多数人工智能技术都是基于云端或者互联网开放平台的,互联网与人工智能技术都可能由于本身存在的漏洞而遭受病毒或黑客攻击,造成巨大的安全隐患。美国、韩国都曾出现过黑客入侵银行网络盗取大量用户信用卡信息的事件,造成了大量财产损失,类似的情况完全可能发生在基于网络的人工智能系统中。很多智能摄像头也容易被不法分子控制,用于监视、威胁普通人的生活或者用于敲诈勒索。人工智能的伦理问题13三、公平与平等问题
类似外骨骼这种混合智能技术也可能会导致社会两极分化,产生“有增强”和“无增强”两种新类型的人。例如,富人们可能会让他们的孩子在很小的年纪就植入脑机接口,使他们在心理和身体上都更具有优势;而没有植入脑机接口的孩子长大后就可能会落后。这同样会破坏社会公平,造成公民社会地位不平等。人工智能的其他技术也可能会引发同样的问题。人工智能的伦理问题14四、人类身份认同问题首先,在未来社会,脑机接口等混合智能设备可能会与大脑集成在一起,可穿戴技术将使意识和智能与机器直接结合,可穿戴技术、机器外骨骼技术则从身体上改变人的机能或体能,由此,人与机器之间的界限将变得模糊。其次,利用脑机接口设备,人类能够更快地实现意图和行动之间的转换。在这种情况下,人们最终可能会做出一些自己都难以接受的事情。在2016年的一项研究中,一个曾用过大脑刺激器来治疗抑郁症长达7年的病人说,他开始怀疑他与他人互动的方式,例如,一些他现在看来曾经说过的很不合适的话,究竟是因为电极刺激的作用,还是因为他自己的抑郁所引发,抑或是反映了一些关于他自己的更深层次的东西,这些都不得而知。人工智能伦理问题的分类15强人工智能伦理问题
未来人工智能是否可能产生自我意识,具有像人一样的自由意志,甚至可能开发出它自己的与人类意愿相违背的机器智能系统,从目前来看都是未知的。因此,由此类人工智能产生的机器人权利、对人类生命带来的威胁等伦理问题是未来可能的、潜在的问题。弱人工智能伦理问题
弱人工智能伦理主要是指现阶段所有类型的基于弱人工智能技术实现的智能软硬件系统应用所引发的伦理道德。弱人工智能技术载体可粗略分为软件、硬件两大类。软件是指以软件形式实现的机器智能系统,如智能医疗诊断系统、智能身份验证系统、智能聊天机器人等;硬件是指各种具有弱人工智能技术内核的智能机器,包括智能移动机器人、智能音箱、智能无人系统等。弱人工智能伦理问题161.算法歧视与偏见
算法歧视是指以深度学习、大数据、超级计算机为主要模式的弱人工智能,经可能存在偏颇的数据质量和隐含信息进行的大数据训练而导致算法结果产生违反人类道德规范的后果。
算法歧视产生的偏见也可能会被嵌人智能系统中,如果该类系统被大面积推广使用,那么就容易造成社会性问题。2.软件欺骗
智能手机等智能机器的普及以及搭载的越来越智能化的应用软件使得人们更愿意相信机器,如人们生活中对于智能导航系统的依赖。在人类社会中,软件正在变得越来越智能,人们将越来越信任它。与此同时,软件对人们的危害力也变得更强了。智能软件仅靠算法或者病毒就可以产生危害,而不一定具备像人一样的主观恶意。3.软件控制
互联网技术的发展使人们愿意通过电子商务等网站购买各种商品和服务。与此同时,电子商务公司会利用人工智能技术搜集用户信息,以便设计采取对用户更有针对性的销售策略。4.不可理解由于人类无法掌控复杂的内部运算过程,由此产生的结果可能并不是人类所期望的。因此,基于此类技术的智能系统对于人类而言,不仅不可理解,更重要的是其在一定程度上不可信、不可靠,人类无法将重要的任务放心地交给这种智能机器去处理或者由其代为完成。5.隐私权在智能摄像头等传感器、手机应用程序以及各种人工物能系统无处不在的世界里,互联网公司或不法组织通过各种手段段在收集个人的各种场景下的数据,由此,人们更加关注如何保护个人隐私数据免受网络安全漏洞以及人工智能技术的应用而引发的隐私权问题。17强人工智能伦理问题1.具备自我意识的智能机器的社会地位一旦智能机器尤其是类人的智能机器人产生自我意识,具有了人性特征,人类该如何在伦理上接受它呢?由于混合智能、人机融合、类脑智能等技术的发展,未来可能出现电子人、合成人等智能体,我们该如何界定它们的身份是人还是机器?如何确定它们的人格?2.具备自我意识的智能机器的权利义务和行为责任人类是否应该比智能机器人拥有更多的权利?智能机器人是否应该比人类承担更多的社会劳动和其他责任?是否应该赋予智能机器人法律人格,并赋予其与人类同等的权利义务和行为责任?具有目我意识的机器人受到折磨或虐待怎么办?3.自我意识的智能机器与人类之间的复杂关系具有自我意识的智能机器与生物学意义上的人类之间的关系注定会变得复杂莫测。人类创造人工智能的目的在于让机器变得更加智能,代替人类完成更多更复杂甚至更危险的工作,但它们对人类社会传统的个体、家庭以及社区、组织、机构和企业之间的关系的影响将是非常复杂的。目录三、人工智能的伦理发展国内人工智能伦理发展191.2017年,《新一代人工智能发展规划》:人工智能伦理规则从原则向具体规则转变,并逐步走向产业实践;2.2019年,《新一代人工智能治理原则——发展负责任的人工智能》:提出了八项人工智能发展需要依循的原则;3.2020年,《国家新一代人工智能标准体系建设指南》:明确了伦理标准的定义和重点场景;4.2021年,《网络安全标准实践指南—人工智能伦理安全风险防范指引》:指出了人工智能伦理的5类安全风险;5.2021年,《新一代人工智能伦理规范》:明确了6大基本伦理原则;6.2022年,《关于加强科技伦理治理的意见》:划定人工智能为重点领域,明确提出了“伦理先行”的治理要求;7.2023年,《人工智能法》(制定中):确保人工智能安全的技术标准、最佳实践,预期也会升格为法律义务。国内人工智能伦理发展:国外人工智能伦理发展201.2007年,日本千叶大学就发布了关于智能机器人的《机器人宪章》;2.2011年,英国工程与物理科学研究理事会提出了机器人学原理;3.英国标准协会(BritishStandardsInstitute,BSI)在《机器人和机器系统的伦理设计和应用指南》中指出,机器人的设计要保证透明,同时要避免人类对研究使用机器人上瘾4.《阿西洛马人工智能原则》还是“阿西洛马会议”的重要成果,它比较正式地向人类社会提出了规范人工智能发展的基本原则,目的是为全球从事人工智能的专家提供伦理准则,以保证人工智能能够为人类福祉而服务。;5.国际电子电气工程师协会(IEEE)先后出台了两版《伦理准则设计》,强调在人工智能及自主系统中应将人类福祉摆在优先位置。国外人工智能伦理发展:目录四、人工智能的未来人工智能的未来221.增强人类的劳动技能2.更大更好的语言建模3.网络安全领域的人工智能4.人工智能与元宇宙5.低代码和无代码人工智能6.自动驾驶交通工具7.创造性人工智能目录五、总结与问题总
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 湖北生态温室施工方案
- 铁岭水源井施工方案
- 钢渣施工方案
- 预制水磨石楼地面施工方案
- 六安钢纤维窨井盖施工方案
- 绿化种植工程施工方案
- 云南学校草坪施工方案
- 青浦区老旧厂房施工方案
- 铺设水泥路面基础施工方案
- 苏州螺旋风管安装施工方案
- GB/T 31821-2015电梯主要部件报废技术条件
- GB/T 2565-2014煤的可磨性指数测定方法哈德格罗夫法
- GB/T 17574.11-2006半导体器件集成电路第2-11部分:数字集成电路单电源集成电路电可擦可编程只读存储器空白详细规范
- 快手磁力聚星知识考试题库及答案
- 学校卫生监督协管巡查记录
- 《勾股定理在实际生活中的应用》教学反思
- 游泳池给水排水安装工程识图
- 配位键和配位化合物课件
- 政 审 表打印模板
- 成人心肺复苏(双人)课件
- 苏教版数学二年级下册《认识时分》教案(无锡公开课)
评论
0/150
提交评论