《人工智能伦理导论》课件第10章 人工智能发展伦理原则_第1页
《人工智能伦理导论》课件第10章 人工智能发展伦理原则_第2页
《人工智能伦理导论》课件第10章 人工智能发展伦理原则_第3页
《人工智能伦理导论》课件第10章 人工智能发展伦理原则_第4页
《人工智能伦理导论》课件第10章 人工智能发展伦理原则_第5页
已阅读5页,还剩10页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第十章人工智能发展伦理原则

学习要点学习和理解国际的主要人工智能伦理原则。学习和理解国内的主要人工智能伦理原则。学习和理解人工智能开发应用遵循的一般原则。

一般的伦理原则既要遵循人类的基本伦理道德原则,也要在智能机器这种新生事物与人类的关系中重现这些原则。国际和国内已经从理论和实践角度提出了很多伦理原则。本章主要介绍其中共同性原则,以及最重要的责任和安全原则。通过本章的学习,对发展人工智能技术的基本伦理原则有初步的认识和理解。学习导言2014年,谷歌收购英国的人工智能创业公司DeepMind,交易条件为建一个人工智能伦理委员会,确保人工智能技术不被滥用。2016年,为了应对人智能伦理问题,微软曾提出人工智能六大原则。包括:人工智能必须辅助人类、人工智能必须透明、人工智能必须以不危害人们的尊严的方式最大化效率、人工智能必须被设计来保护隐私、人工智能必须在算法层面具有可靠性、人工智能必须防止偏见。10.1国际国内人工智能发展伦理原则10.1.1国际人工智能发展伦理原则

2018年,IBM公司提出人工智能开发的三大原则——信任、尊重与隐私保护。2019年5月,国际经济合作与发展组织(OECD)成员国批准了全球首个由各国政府签署的人工智能原则——“负责任地管理可信人工智能的原则”,包括包容性增长、可持续发展和福祉原则,以人为本的价值观和公平原则,透明性和可解释性原则,稳健性和安全可靠原则,以及责任原则。2017年12月12日,IEEE发布了《合伦理设计:利用人工智能和自主系统(人工智能/AS)最大化人类福祉的愿景(第二版)》。尽管各国存在文化传统方面的差异,但在人工智能伦理原则提出方面表现出一定的趋同性,主要包括可解释性、公平正义、责任、隐私和数据治理、善待、非恶意、自由自治、信任、尊严、稳健性、福祉、有效性、慎用、胜任和人权等方面。10.1国际国内人工智能发展伦理原则10.1.1国际人工智能发展伦理原则2016年10月发布的《国家人工智能研究与发展策略规划》,其中战略3为伦理法律战略,为理解和解决人工智能带来的伦理,法律和社会挑战,做出了系统部署。2018年1月,国家人工智能标准化总体组成立,发布了《人工智能标准化白皮书(2018版)》,提出要建立一个令人工智能造福于社会,保护公众利益的政策、法律和标准化环境。2019年6月由科技部发布《新一代人工智能治理准则——发展负责任的人工智能》提出了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则。10.1国际国内人工智能发展伦理原则10.1.2国内人工智能发展伦理原则腾讯在2018年世界人工智能大会上提出人工智能的“四可”理念,即未来人工智能是应当做到“可知”、“可控”、“可用”和“可靠”。2020年6月,商汤科技智能产业研究院与上海交通大学清源研究院联合发布《人工智能可持续发展白皮书》,提出了以人为本、共享惠民、融合发展和科研创新的价值观,以及协商包容的人工智能伦理原则、普惠利他的人工智能惠民原则、负责自律的人工智能产融原则、开放共享的人工智能可信原则。2021年11月,商汤又联合几家单位,共同发布了《平衡的发展观--AI可持续发展报告2021-2022》,继续倡导“可持续发展”的人工智能伦理观。10.1国际国内人工智能发展伦理原则10.1.2国内人工智能发展伦理原则2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。10.1国际国内人工智能发展伦理原则10.1.2国内人工智能发展伦理原则10.2欧盟《人工智能伦理准则》内容分析

可信赖的人工智能合法的隐私与数据管理基本原则道德的预防伤害原则公平原则稳健的社会与环境福祉问责制度多样性、非歧视性与公平性透明性可解释原则尊重人类自主原则技术稳健性与安全性

人的能动性与监督必要条件最终目标关键要素技术非技术实现方式评估清单图10.1欧盟“可信赖的人工智能伦理框架”10.3阿西洛马人工智能23条原则“阿西洛马人工智能原则”(以下简称23条原则)可以看做是“阿西莫夫机器人三定律的扩展版本”。该原则主要分为三大类:科研问题伦理价值长期问题“阿西洛马人工智能原则”实际上是所有关注人工智能及人工智能系统或智能机器的发展所产生的对人类难以估量的影响的长期观察和思考的一次集中性表达,在更深远的意义上,可以看作是科学家所代表的知识群体和人类的良知对人类自身的性质、地位和价值的一次严肃思考。所以“阿西洛马人工智能原则”是人的道德呼唤,是人性的忧患意识,在这个意义上“阿西洛马人工智能原则”是人类尊严的体现。人工智能在服务和赋能人类生产生活同时,也带来了难以忽视的安全风险。2018年9月18日,世界人工智能大会安全高端对话会发布了《人工智能安全白皮书》,指出技术的进步往往是一把“双刃剑”,人工智能作为一种通用目的技术,为保障国家网络空间安全、提升人类经济社会风险防控能力等方面提供了新手段和途径。人工智能在技术转化和应用场景落地过程中,由于技术的不确定性和应用的广泛性,带来冲击网络安全、社会就业、法律伦理等问题并对国家政治、经济和社会安全带来诸多风险和挑战。10.4人工智能安全原则10.4.1人工智能安全问题1.技术层面的安全作为一项发展中的高新技术,人工智能当前还不够成熟。某些技术缺陷导致工作异常,会使人工智能系统出现安全隐患,比如由于目前多数以深度学习为基础的人工智能技术都是基于云端或者互联网开放平台,互联网本身的漏洞与人工智能技术本身的漏洞都可能造成巨大安全隐患。人工智能系统或智能机器的设计、生产不当会导致运行异常等。另外,如果安全防护技术或措施不完善,无人驾驶汽车﹑智能机器人等可能受到非法入侵和控制,这些人工智能系统就有可能按照犯罪分于的指令,做出对人类有害的事情。10.4人工智能安全原则10.4.2技术与应用层面的安全2.应用层面的安全由于人类对于其内在的信息处理机制还不明确,以深度学习为主的人工智能技术在制造、交通、医疗、教育、能源、城市及家庭等各行业或领域应用都存在各自的安全问题。比如,智能能源更加依赖互联网,能源系统的自组织、自检查、自平衡和自优化更加网络化、智能化,其中任何一个微小的安全问题,都可能导致大批电站陷入瘫痪,进而威胁到社会民生安全和国家安全。10.4人工智能安全原则10.4.2技术与应用层面的安全国家安全是社会、经济、国防、民生、政治等多领域安全问题的综合。“智能+行业”的发展模式是以各种智能系统与实体行业深度融合为基础的。国家安全风险将更加直接地传导到社会经济与国家政治领域。智能系统的大规模普及对社会和国家具有潜在的系统性安全风险。10.4人工智能安全原则10.4.3国家层面的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论