人工智能的伦理问题_第1页
人工智能的伦理问题_第2页
人工智能的伦理问题_第3页
人工智能的伦理问题_第4页
人工智能的伦理问题_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能的伦理问题2016年11月董正宇人工智能的伦理问题研究4/20人工智能的伦理问题的研究西北工业大学计算机学院2016302358 董正宇1.人工智能技术简介[1]人工智能技术简称AI(ArtificialIntelligence),AI作为一门学科,于1956年问世,是由“人工智能之父”麦卡锡(McCartney)及一批数学家、信息学家、心理学家、神经生理学家、计算机科学家在美国Dartnouth大学召开的会议上首次提出来的,它是在计算机科学、控制论、信息学、神经心理学、哲学、语言学等多种学科研究的基础上发展起来的一门综合性的边缘学科。不过,关于人工智能技术的定义,至今还没有一个统一的表述,而且不同的学科以及不同学科背景的学者对人工智能技术有着不同的理解与认识。广义地讲,人工智能技术是关于人造物的智能行为,这种智能行为一般包括知觉、学习、推理、交流以及在复杂环境中的行为(Nilsson,1998年)。另外,从工程的角度来说,人工智能技术就是通过用人工的方法使机器具有与人类智慧有关的功能,如判断、推理、证明、感知、理解、思考、识别、规划、设计、学习和问题求解等思维活动。它是人类智慧在机器上的实现。1.1弱人工智能技术和强人工智能技术一般来说,可以将人工智能技术分为弱人工智能技术和强人工智能技术。其中,弱人工智能技术一般赋予机器的是某种既定的、事先设定好了的程序指令,它只能对特定的外界刺激做出相应的反应,而不能自己去改变。弱人工智能技术“根本没有意向状态,它只是受电路和程序支配简单地来回运动而已”,故其所表现出的智能及行为通常能够被人类控制,对人类并不会造成威胁。弱人工智能技术不能使机器像人类那样通过自我学习来提高自己的智能,且缺乏自我意识更没有主动性而言。强人工智能技术则不同,强人工智能技术能够对外界环境的变化与刺激产生自我意识,且能够对这些变化和刺激进行分析、推理及判断。强人工智能技术通常分为两种:一种是类人的人工智能技术,即这类机器有着与人类相似的推理能力和思维方式;另一种是非类人的人工智能技术,即这类机器具有自己的推理能力和思维方式,并有知觉和自我意识。强人工智能技术具有极大的智能可以从其行为方式上得到体现:要么会按照人预先设定的指令具体去做什么,要么就根据具体环境的需要去做什么,它通常能够主动完成任务,而且其表现出的行为可以不按照人类事先设计好的程序来执行。对于弱人工智能技术的伦理讨论是没有意义的,所以本文要讨论的是强人工智能技术的伦理问题。1.2另一种人工智能的划分方式或者我们可以将人工智能划分为三个基本层次以及更高的层次。[2]1.信息收集辅助与智能筛选信息收集辅助与智能筛选是最基础的人工智能服务,现在已经被广泛使用。如目前的各类搜索引擎,其内在都是采用智能化的搜索机器人算法,在广域的网络中不断读取分析,并汇集而来。当用户在使用搜索引擎时,根据用户的搜索习惯,给出相对最有可能满足用户需求的排序结果。不同的个体在使用同样的关键词进行检索时,会得到不同的结果。因此,从这个意义而言,最基础的人工智能早已经进入人类社会中。信息收集辅助与智能筛选看似是最简单的人工智能领域,然而其难度和复杂度并不简单。关键的难度在于在大数据时代,如何有效地快速获取最有价值的信息。因此,如前所述,大数据时代所产生的海量数据,是促生人工智能领域的最初和最重要的驱动。在这一层面,人工智能可以广泛应用于各类信息获取需要的服务和反馈。2.识别应答接受模糊任务并完成人工智能的早期使用如搜索数据,其最基础的命令输入依然是要用固定形式的格式化命令来实现的。如搜索引擎的“关键字+搜索”就是一种格式化命令。然而人工智能的进一步发展,是要求机器能够识别人类相对较为模糊的自然语言命令并做出有效反应和完成工作。在接到命令后,可以调动之前的搜索功能提供信息,或者驱动行为部件实现特定动作。如人员可以命令“帮我找到××信息”,“帮我提供××方案”等,机器则自动实现有效信息和动作的反馈。在这一层面上,人工智能将更广泛地替代传统僵化的人与机器的交互形式,以声音、图像、动作等多种交互手段,并为人类提供更有效的决策与行为方案参考并根据人的命令指示而完成工作。3.自主的判断与决策人工智能的第三个层面是要实现机器的自主判断决策和相应的行为。在这一层面中,机器可以根据环境条件的变化自主决定最优的行动方案,从而在更大程度上模拟和替代人的行为,并形成对前两个层面能力实现统合,形成完整的人工智能功能体。目前广泛所知的阿尔法狗程序就是在这一层面的探索,其他如车载自动驾驶,自主无人机以及更广泛的人形机器人,都要在一定程度上实现自主的判断与决策。以上就是人工智能的三个最基本的层次,当然,人工智能最高的层次是实现机器自主意识的出现。这将远超机器拥有自主的判断与决策能力层面,是否人能够设计或者机器将自我演化形成具有类似人的自我意识乃至情绪、情感、好恶,将依然是一个极为难以判断的问题。也将产生更多的社会影响,包括自主意识的机器智能体是否还是机器和基本权利问题等等。2.人工智能的发展现状人工智能技术作为一项综合性很强的技术,其发展到目前,主要应用领域有:专家系统、人工生命、模式识别、定理证明、机器人学、机器学习、自动程序设计、自然语言处理、问题求解、人工神经网络、智能决策系统等。人工智能正在经历由弱人工智能向着强人工智能的转变。以谷歌的最新人工智能程序AlphaGO为例,其依靠两个“大脑“来进行整个围棋中的思维过程:落子选择器(movepicker)和棋局评估器(positionevaluator)。落子选择器基于大数据和云计算对于落子概率进行评估,而棋局评估器针对落子选择器所选择的可能结果进行分析评估双方获胜的可能性在反馈给落子选择器。通过这样大量的运算,来确定对自身最为有利的方案来进行棋局。其本质是利用了云计算的强大计算能力来进行一种优选后的穷举运算,这种做法仍然不足以称为”思维“,但是优选这一过程无疑是向着这一方向迈出的重要一步。总体来说,人工智能存在于现代生活的方方面面,但是人工智能技术仍然没有在“能力“到”智力“的进程上取得突破性进展。3.人工智能的未来发展由于本文需要讨论的是人工智能的伦理问题,所以在这里只探讨会产生伦理问题的强人工智能的发展问题,尤其是使人工智能拥有类似人类思维能力和情感的人工智能的发展。要做到拥有类似人类思维能力的人工智能,现阶段有两种方式是最为可能的:其一,是通过大量的电子元器件完全模拟人类的脑神经网络,神经的兴奋和抑制恰好可以与电路的高电频和低电频对应即其很好的对应了计算机的以二进制为基础的语言。目前,人类已经成功的模拟了小鼠的大脑使得电子的小鼠脑产生了与实际小鼠大脑相似的电波。这种方式理论上可以制造出真正的人造人脑,但是,这种方式的问题也是明显的,即这样的人造人脑在无法自行建造的情况下,只能使其拥有人类某一特定状态的思维能力,没有直接以神经网络模拟的形式来获取新知识的能力。其二,是制造可以不断自我更新自我进化的人工智能,随着人工智能的不断的自我进化,其可以产生基于机器自身的逻辑体系和思维方式。这种思维方式会与人类的思维方式是有区别的,但是由于这种形式的人工智能是程序不断自我完善的产物,所以,其思维模式等特征是较难预估的,这便产生了人类无法控制人工智能发展的可能性。而且,零星的偏移就可能产生蝴蝶效应式的巨量偏移,其对人类社会的存在造成的影响是不可预知的。总的来说,拥有人类情感的人工智能是可能的,但是仍面临着技术难关和道德伦理问题。4.人工智能的道德伦理问题这部分将就几个随着人工智能的发展可能浮现出的问题进行讨论。4.1思维存在是否人就存在[3]3D活动模拟图在结构上与人脑皮层相同,如果复制后的“电子人脑”能够产生思维意识,思维的存在是否就是人的存在呢?一方面认为思维的存在不等于人的存在。人是一种自然存在物.自然属性是人存在的基本属性.人的自然性首先是指人对于生命的拥有。正如马克思指出:“人直接地是自然存在物。⋯⋯而且作为有生命的自然存在物。”一个人如果离开了对于自己生命的拥有,那么他将不复存在。因此,人的存在首先是对自身生命和身体的拥有。其次,在自然存在的前提下,人是一种社会存在物和精神存在物.社会属性和精神属性是人类特有的属性。人作为社会动物,必然在相互交往的过程中发生人与人之间、人与社会之间的联系。马克思说:“人的本质并不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”同时马克思实践唯物主义强调实践作为人的存在的基本方式,是实践创造人本身。人类的思维意识在实践活动中得到了丰富,并且实践使人的活动具有社会性。人的存在既是人的自然属性、社会属性和精神属性的统一又是认识活动、实践活动的统一。然而,“电子人脑”仅仅复制的是人脑的承载思维的物质基础。没有了生命和身体,离开自然环境,脱离了社会环境。即使存在思维意识也将变得孤立,认识无从谈起,实践无从谈起。更不能当作是人的存在。另一方面,认为思维的存在即人的存在。黑格尔认为人的本质是一个能够“思考自己”,即具有自我意识的精神实体,是一个能够摆脱物质必然性的束缚而实行独立自决的自由的精神实体,人即精神,精神即人。宗教哲学中将人看做是有灵魂的生物,他们认为每个人都是有灵魂的,灵魂所指就是人类的思维意识。同样,在医学界有着“脑死亡”的说法,思维活动的停止标志着生命的完结。因此,在某种程度上来说,思维意识更是标志一个人存在而永恒不变的东西,思维的存在即人的存在。“电子人脑”即使不能达到与人类相同程度的思维意识。即使是低一级或者迟钝的思维意识,都同样可以看做强AI研究的成功,因为思维意识产生规律的发现将使人工智能逐渐向着人类智能迈进,而且将来为“电子人脑”安装各种传感设备来代替人类感觉器官是极为容易的事情,接收外界环境的感知也将不再是难题,那么高级智能的产生也将仅仅是时间问题。其次,网络技术的普及和发展使得网络对人们的影响不断加深,如今人们除了现实存在外,还在虚拟世界里有着虚拟存在,通过网络,人们能足不出户对客观世界进行认识与实践,或者说认识方式与实践方式随着网络技术的发展而改变。第一,通过网络。人们能够对想要了解的事物有一个基本的认识。网上交流、聊天能获得自己需要的信息,并建立起新的社会关系。第二,通过网络。改变了人类的实践方式。人类的实践活动是一种目的性活动。列宁曾经简洁地提出一个公式:“人的实践=要求+外部现实性”问。网络恰好满足这种“要求和外部现实性”,为虚拟实践提供可能。因此,我们可以设想如果“电子人脑”与网络相联接.即使在缺少自然生命和身体的情况下。其思维意识同样能够与现实社会的人沟通、交流并在网上进行认识实践活动,如在网上实现现实物品的买卖、网络视频会议等。而且认识实践活动中将逐步建立起相应的社会关系。其社会属性和精神属性都将得到实现,如果那样我们还能将这些没有生命的“电子人脑”当作机器看待吗?4.2有感情有意识的人工智能是否应该享有人权假设某一人工智能可以拥有和人类一样的情感和意识,那么对于该人工智能体的界定便面临了巨大的挑战。人类是否应该仅仅作为其创造者的身份与该人工智能相处?该人工智能是否应该享有同人类相同各种权利?当这样的人工智能体的数量极其稀少时这样的问题并非明显,但是一旦拥有自我意识的人工智能数量达到一定限度时,矛盾便凸显了出来。对于拥有自我意识的人工智能在社会中的地位界定是需要提前进行的,只有拥有了正确的明确定位后,拥有自我意识的人工智能体才不会给社会的健康发展带来不利影响。什么才是对于人工智能正确的定位?绝不是简单的使其拥有和普通人类完全相同的人权。做一个极端情况的假设,由于人工智能在大量领域能力是远远超过人类所具备的能力的,以个体的利己性进行考量,人工智能体在择偶市场上可能会拥有超过大多数人类的竞争力,这种平等,极有可能对人类自身的生存和发展造成不良的影响。但是,直接将有情感的人工智能体放在低于人类的地位上同样是不可取的。无数的历史事实告诉我们,阶级的不平等必定带来反抗。人类究竟应该如何看待拥有人类情感的人工智能,人类应该如何与人工智能体共处,这将是人类在人工智能发展道路上必须要面对的问题。4.3具备自我改造进化能力的人工智能的危险性在之前对于人工智能的未来发展的部分中已经提及了不断自我进化的的人工智能的不确定性。这种不确定性是危险的,其危险性不仅在于在不进行人为干预的条件下其自我进化的不可预知性,更在于人为对机器自我进化干预的困难性和不可预知性。在不进行人为干预下的不可预知性较容易理解,它是由于在不断的自我进化中,任何微小的改变都有可能由于

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论