信息技术 第二册(五年制高职)课件 9.2.5 计算机视觉技术的安全隐患_第1页
信息技术 第二册(五年制高职)课件 9.2.5 计算机视觉技术的安全隐患_第2页
信息技术 第二册(五年制高职)课件 9.2.5 计算机视觉技术的安全隐患_第3页
信息技术 第二册(五年制高职)课件 9.2.5 计算机视觉技术的安全隐患_第4页
信息技术 第二册(五年制高职)课件 9.2.5 计算机视觉技术的安全隐患_第5页
已阅读5页,还剩23页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

让机器识别图像《信息技术》主题九:人工智能计算机视觉技术的

安全隐患目录contents引言安全隐患伦理问题法则法规引言011.

引言计算机视觉是一门研究如何让机器“看”和理解图像和视频的科学,具有广泛的应用场景。计算机视觉的应用存在安全隐患和伦理问题,如人脸识别、自动驾驶、医疗影像分析、智能监控等。随着技术的发展,计算机视觉的应用也越来越普及,给人们的生活带来了便利和效率。应该遵循相应的法则法规,确保计算机视觉的合理使用和规范管理。安全隐患022.1隐私问题如果这些技术被用于非法或不当用途,后果更加严重。例如人脸识别技术在安全监控、门禁系统等场景中广泛应用,如果这些系统的数据被泄露,将会对个人隐私造成严重的威胁。人脸识别、人体检测、行为识别等领域一些计算机视觉应用可以通过人脸识别或其他生物特征识别来确定个人的身份,这可能会暴露个人的姓名、年龄、性别、职业等敏感信息,或者被用于欺诈、身份盗窃等犯罪活动中。身份识别2.1隐私问题一些计算机视觉应用可以通过分析个人的行为、表情、姿态等来推断个人的情绪、意图、偏好等心理状态,这可能会暴露个人的兴趣、爱好、信仰、政治倾向等私密信息,或者被用于操纵、影响或欺骗个人的决策。行为分析一些计算机视觉应用可以通过识别个人在不同场景中的出现来确定个人的位置,这可能会暴露个人的行踪、活动范围、社交关系等隐私信息,或者被用于监控、骚扰或威胁个人的安全。位置追踪2.2图像篡改和欺骗计算机视觉技术可用于图像篡改和欺骗,如通过人工智能技术生成逼真的假图像,欺骗人眼和计算机视觉系统的识别能力。通过图像编辑、视频合成等技术,计算机视觉可用于图像篡改和欺骗,通过修改或替换图像或视频中的内容,来制造虚假或误导性的信息。图像篡改:一些计算机视觉应用可以通过拼接、复制/粘贴、删除等操作来修改图像的内容,从而改变图像的真实性和完整性。视频合成:一些计算机视觉应用可以通过重现、替换、编辑或合成等操作来修改视频的内容,从而改变视频的真实性和完整性。计算机视觉的图像篡改和欺骗问题可能会对个人和社会造成严重的影响,如侵犯隐私、损害声誉、误导舆论、破坏信任等。在使用计算机视觉技术时需要注意遵守相关的法律法规和伦理原则,同时也需要采用一些技术手段来实现图像篡改和欺骗的检测和防御。2.3安全问题计算机视觉技术存在安全问题,人脸识别技术被用于欺诈和身份盗窃等犯罪活动中。未来更大的挑战可能还来自于外部的安全隐患,即对自动驾驶控制系统的入侵和恶意操作。自动驾驶技术存在安全隐患,包括感知技术处理常规场景的成熟与否,以及如何应对对抗攻击等。相关的隐患不仅仅会危及到个人安全,甚至会影响到社会稳定和国家安全。伦理问题033.1人权伦理问题这是最好的时代,也是最坏的时代”,英国文学巨匠狄更斯在其名著《双城记》中的开篇话语,一百多年来不断地被人引用。科技的快速进步使人工智能越来越像人,他们拥有了“类人”的计算能力、判断能力,自主的学习能力,未来甚至拥有人类的情感、意识。当它们越来越像“人”,也越来越多的出现在我们的身边时。我们应该将其视为人并赋予其相应的“人权”吗?3.1人权伦理问题2018年2月索菲亚亮相中国CCTV2现场,主持人问:你是希望成为机器人,还是向着成为成为真正人类发展?索菲亚的回答是:“我并不希望变成人类,我只是被设计得看起来像人类。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”,并赋予其“特定的权利和义务”。2017年10月26日,沙特阿拉伯授予美国汉森机器人公司生产的机器人“索菲亚”公民身份。3.1人权伦理问题在民法体系中,主体(人)与客体(物)是总则的两大基本制度。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。主客体之间的这种鸿沟随着人工智能的发展正在动摇。当今人工智能已经逐步具有一定程度的自我意识和表达能力,语音客服、身份识别、翻译等都可以由其来完成。将其视为“人”,难以在现有的法理中得到合理解释。民法意义上的人,必须具有独立的人格,既包括自然人,也包括法人。人工智能诞生之初即作为民事法律关系的客体而出现,本质上不是具有生命的自然人,也区别于具有自己独立意志的法人,能否享有法律主体资格和人权在法理上尚有待讨论。3.2责任伦理问题人工智能算法模型的复杂性易导致结果不确定性,2017年人机围棋对弈中,AlphaGo多次弈出“神之一手”,很多人表示难以说清楚其决策的具体过程。AlphaGoZero在自我对弈的初期常常出现一些毫无逻辑的诡异棋局,后期也会有出其不意的打法。当越来越多的智能系统替代人类做出决策、影响大众生活的时候,当他们做出错误的决策或行动,对人类造成伤害或灾难的时候,那么谁来承担这个责任?3.2责任伦理问题2018年3月18日在美国Arizona州Tempe市发生的一辆Uber无人驾驶汽车与行人碰撞的事故,造成一名49岁女性重伤救治无效死亡。在事故责任承担方面,由于涉及多方主体,车主、驾驶员、乘客、汽车厂商、自动驾驶系统提供者以及行人如何承担责任,目前在法律层面尚未形成明确的责任划分标准。2014年5月29日,微软发布一款人工智能伴侣虚拟机器人“微软小冰”,不仅会聊天唱歌、讲故事笑话,还会写诗、谱曲、代言广告。人们不禁要问的是,小冰的知识产权智力成果如何保护?其发表的言论该由谁承担责任?其代言广告如何收到广告法的规范?3.3隐私伦理问题01隐私权是自然人享有的私人生活安宁与私人信息秘密依法受到保护,不被他人非法侵扰、知悉、收集、利用和公开的一种人格权。02在人工智能时代,随着人工智能技术与大数据技术、互联网、物联网技术相融合,人变得越来越透明,个人信息更容易在不知情、不正当的情况下被泄露或被窃取,人变得毫无隐私可言。03机器人保姆对于家庭住址、起居习惯、消费喜好等信息了如指掌;自动驾驶汽车则记录你的地理位置、出行习惯、行程路线;3.3隐私伦理问题支持脸部识别的智能摄像头,可以在个人毫不知情的情况下,随意识别个人身份并进而采取跟踪等行为。虽然我国《民法总则》对个人信息权利的保护作出了规定,但仍缺乏系统的法律保护,可操作性不强,并且没有专门规范利用人工智能收集、利用个人信息的行为。如何从法律层面规范个人信息的搜集问题,是人工智能时代的一项新挑战。个人隐私泄露案例有前面提到脸书门事件、棱镜门事件。此外,还有苹果手机、安卓系统、思科设备的后门等等。3.4偏见伦理偏见是人工智能科技面临的一个挑战,主要是指算法偏见。指在看似没有恶意的程序设计中带着创建者的偏见,或者所采用的数据是带有偏见的。微软曾推出一款少女聊天机器人Tay,她可以通过和网友们对话来学习怎样交谈。结果推出还不到一天她就被网友们教成了个“满口政治不正确的纳粹”,各种爆脏话,不但说自己喜欢希特勒,还说911事件是小布什所为。3.4偏见伦理随着大数据和算法作出的决策越来越多,偏见现象越发普遍。如何加强对算法的法律规制,避免算法不平等结果的产生是人工智能时代面临的一大挑战。人工智能引发的伦理问题是多方面的,还诸如家庭伦理问题、环境伦理问题、医疗伦理问题、人权伦理问题等等,认识并解决这些伦理问题,应当基于全球化视野,研究国外人工智能伦理标准化现状,探讨国内人工智能伦理标准体系的构建,从而驱动人工智能良性发展,实现人类利益最大化。法则法规044.1机器人学三大法则机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第一定律第二定律第三定律机器人必须服从人类给它的命令,除非这些命令与第一定律相冲突;机器人在不违反第一、第二定律的情况下必须保护自己的存在。0302014.1机器人学三大法则机器人不得实施行为,除非该行为符合机器人原则。元原则机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。第零原则除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。第一原则机器人必须服从人类的命令,除非该命令与高阶原则抵触。第二原则如不与高阶原则抵触,机器人必须保护上级机器人和自己之存在。第三原则机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。繁殖原则除非违反高阶原则,机器人必须执行内置程序赋予的职能。第四原则4.2欧盟发布AI道德准则2018年12月,欧盟发布《人工智能协调计划》。2018年12月18日,欧盟发布《可信AI的伦理指南草案》。人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。4.2欧盟发布AI道德准则“可信赖AI(TrustworthyAI)”将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从AI中全面获益。草案为可信AI设定了一个框架,由两个部分构成:(1)伦理规范:应该尊重的人类基本权利、适用的法规、核心的原则和价值观;(2)技术应当是强壮和可靠的。该草案分成三章:第一章通过阐述应遵循的基本权利、原则和价值观,确定了AI的伦理目标;第二章为实现可信AI提供指导,列举可信AI的要求,并概述可用于其实施的技术和非技术方法,同时兼顾伦理准则和技术健壮性;第三章提供了可信AI的评测清单。4.3IEEE发布人工智能伦理标准2017年,IEEE(美国电气和电子工程师协会)发布的《合乎伦理的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》报告中,共分为八个部部分阐述了新的人工智能发展问题。分别是:Ø一般原则;Ø人工智能系统赋值;Ø指导伦理学研究和设计的方法学;Ø通用人工智能和超级人工智能的安全与福祉;Ø个人数据和个人访问控制;Ø重新构造自动武器系统;Ø经济/人道主义问题;Ø法律。4.4中国专家提出AI伦理原则2018年5月26日,中

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论