全球人工智能治理发展报告_第1页
全球人工智能治理发展报告_第2页
全球人工智能治理发展报告_第3页
全球人工智能治理发展报告_第4页
全球人工智能治理发展报告_第5页
已阅读5页,还剩11页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目录目录CONTENTS一人工智能治理概念内涵… 1(一)概念内涵 1(二)核心目标 1(三)治理主体 3二全球人工智能治理趋势和特点… 3(一)国际组织 3(二)国家和地区 4(三)科技企业 6三我国人工智能治理已开展的举措… 7(一)政策发展 7(二)标准发展 7(三)行业发展 8(四)国际合作与倡议 9四、人工智能治理难点、风险和挑战 11(一)各国立法步调不统一,全球监管框架难以落地… 11(二)部分国家寻求规则主导权,在推动人工智能治理过程中存在政治化苗头 11(三)全球智能鸿沟进一步放大数字鸿沟弊端,治理能力弥合难以追赶鸿沟扩大速度 11(四)人工智能安全监管滞后,仍较大程度依靠企业自我约束… 12五、促进我国人工智能治理的对策建议… 12(一)完善顶层设计 12(二)实施有力监管 13(三)推动技术发展 13(四)强化国际合作 13本期主题:全球人工智能治理发展报告一、人工智能治理概念内涵当前,全球人工智能技术快速更迭,以ChatGPT为代表的生成式人工智能技术不断催生新场景、新业态、新模式和新市场。在赋能人类社会经济进步的同时,人工智能“狂飙突进”式的发展也给全球带来安全隐患和风险挑战。(一)概念内涵根据“全球治理委员会”的定义:治理是个人和制度、公共和私营部门管理其共同事务的各种方法的综合。人工智能治理是一个涉及伦理、法律、技术等多方面的概念,结合“治理”定义,我们将人工智能治理的概念定义为:人工智能治理是多方主体通过制定和执行原则、标准、指南与政策法规等,确

保人工智能技术在尊重人权、保护隐私和安全的前提下,促进其安全、可靠和健康发展的过程。(二)核心目标人工智能治理的核心目标是确保人工智能安全、可靠、可控,在此基础上,最大限度地发挥其在经济、社会和文化领域的积极作用,防范和控制可能出现的风险与负面影响。为实现人工智能的安全、可靠、可控,我们结合方滨兴院士、中国联通等在人工智能安全架构设计方面的观点,提出了一个五层安全架构模型,包括供应链安全、数据安全、算法安全、应用安全与伦理安全,以系统化地识别和应对人工智能在不同层面上的安全需求。图1人工智能安全架构一是供应链安全。人工智能供应链安全是指在人工智能供应链的整个生命周期中,确保所涉及的训练框架、第三方库、操作系统、数据库、芯片、云服务等软硬件和服务的安全性、完整性和可靠性。二是数据安全。人工智能数据安全是指通过采取必要措施,确保人工智能系统使用的数据得到有效保护,并且合法、安全地被利用,同时具备持续保障数据安全状态的能力。三是算法安全。人工智能算法安全是指在整个人工智能系统的设计、开发、部署和使用过程中,确

保算法的公正性、透明性、鲁棒性和抗攻击能力,同时采取必要措施保护算法免受未经授权的访问和篡改,以及确保算法的决策过程和结果合法、合规。四是应用安全。人工智能应用安全是指确保人工智能应用在实际操作中的安全性和可靠性,防止其被滥用或误用,保障应用的输出和行为符合预期。五是伦理安全。人工智能伦理安全是指在人工智能系统的整个生命周期中,确保其设计和行为遵循以人为本的原则,尊重并保护个人权利,促进社会价值和公共利益,同时避免产生不公平、歧视或责任不清等问题。(三)治理主体一是国际织。国际组织是人工智能治理的协调者和推动者,致力于促进各国在人工智能领域的合作与交流,共同应对人工智能治理全球性挑战。一方面,搭建国际合作平台,促进各国在人工智能治理方面的协作与信息共享,共同探讨人工智能的未来发展方向与治理机制。另一方面,牵头统筹或参与制定人工智能的国际标准,确保人工智能技术的可信度和互操作性,促进全球范围内的技术交流与合作。二是政府部门。政府部门是人工智能治理的主要监管者和推动者,保障人工智能技术的安全、可靠、可控。一方面,制定和执行人工智能治理相关的政策法规,明确人工智能技术的研发、应用和管理等方面的要求和规范,为人工智能技术的健康发展提供制度保障。另一方面,针对人工智能技术开展监管和执法,确保人工智能技术的应用符合法律法规和道德准则,防止滥用和误用现象的发生。

三是科技企业。企业不仅是人工智能技术的研发者和应用者,更是治理环节中的重要参与者和实践者,是推动人工智能技术健康发展的重要力量。一方面,遵循人工智能伦理原则,如可信、公平、非歧视等,确保技术的公正性和透明度,明确人工智能技术的研发、应用和管理等方面的要求和规范,推动企业内部治理体系逐步完善。另一方面,参与行业自律与标准制定,推动形成行业共识,共同应对人工智能带来的挑战和问题。除了国际组织、政府部门与科科研机构等也在人工智能治理中发挥着重要作用,这些主体各自具有不同的优势和资源,通过相互合作和努力,共同推动人工智能技术的二、全球人工智能治理趋势和特点(一)国际组织全球人工智能治理从国际共识向全球共治演进,逐步形成全球性的治理框架。近年来,国际组织如联合国、经济合作与发展组织(OECD)、20国集团(G20)等在人工智能治理方面发挥着关键作用,推动各国针对人工智能发展表达合理关切、寻求解决方案。联合国及其下设机构积极推动全球人工智能治理进程。联合国教2019能伦理问题建议书》,呼吁各国政府、企业、社会组织和个体,在人工智能技术的研发、应用、治理等推动人工智能伦理原则的全球传播与实施。202111成为联合国教科文组织正式通过的首份全球性人工智能伦理协议。20237题为“人工智能给国际和平与安全这是安理会首次就人工智能问题举行会议,中国常驻联合国代表提出关于人工智能治理的五条原则。202312月,联合国秘书长设立的人工智能咨询机构发布了《以人为本的人工智能治理》临时报告,该报告阐明了人工智能对人类潜在益处的机会和推动因素,强调了人工智能在当前和未来一段时期潜在

的风险挑战,并明确了解决全球治理赤字所需的原则以及满足当下需求的新功能和制度安排。2024年3月,联合国大会通过了首个关于人工智能的全球决议,呼吁推动开发“安全、可靠和值得信赖的”人工智能系统,以促进可持续发展。其他国际组织也在全球人工智能治理中发挥重要作用。20195月,经合组织通过了首部政府间人36国以及阿根廷、巴西、哥伦比亚、哥斯达黎加、秘鲁和罗马尼亚等国在部长理事会会议上联合签署了经合组织人工智能原则。它们包括具2024进行了更新,以应对人工智能技术的最新发展。同年,20《G20人工智能原则》,强调了人工智能的伦理和社会责任,鼓励各国在人工智能技术的研发、应用和治理方面,采取符合伦理要求和负责任的措施,并加强全球治理合作,共同推动人工智能的健康发展。(二)国家和地区近年来,全球多个国家和地区高度重视人工智能治理,通过颁布政策文件、成立统筹机构、发布指导框架等方式,逐步加强人工智能监管与统筹,以确保人工智能的健康发展并应对潜在风险。欧盟监管风 趋向于强硬,期望通过设立全球范围的规则对人工智能进行全面监管早在2018年,欧盟就提出了《人工智能的伦理准则》,强调人工智能的应用必须符合人类价值观和伦理原则,并建议采取措施加强人工智能的监管和透明度,促进人工智能技术的可持续发展。2021年,欧盟提出了《人工智能法案》,该法案对高风险人工智能系统的使用提出了严格的要求,并对不合规行为进行罚款和制裁,以限制和减少人工智能系统算法歧视风险经过多轮谈判与协商2024年5月,欧盟理事会正式批准该法案,其广泛的域外适用效力将对欧盟和其他地区产生重要影响。同月,欧盟委员会宣布内设人工智能办公室旨在降低人工智能风险促进人工智能的开发部署和应用该办公室将在欧《人工智能法案的实施中发挥关键作用。美国强调人工智能风险管理,

逐步向加强监管靠拢。202310月,美国颁布《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》,建立安全和隐私保护标准,并要求开发人员对新模型进行安全测试。20245议院跨党派公布人工智能政策“路线图”,要求在必要时对人工智能的高风险使用提出适当的、具体要求,例如透明度、测试评估标准等,为美国人工智能治理立法拉开序幕。与此同时,美国人工智能监管职责正由分散化向集中化转变。202311颁布后宣布成立人工智能安全研究所(USAISI),以加快与其他联邦政府机构的协调工作,推进人工智能风险管理。随后,20243(OMB)要求在各联邦机构指定一名首席人工智能官(CAIO),并建立人工智能治理委员会,以推进人工智能治理、创新和风险管理。新加坡逐步完善治理框,推动国家负责任地使用人工智能。新加坡于2019年发布了首版《人工智能模型治理框架》,指导各组织大规模负责任地部署人工智能解决方案,该框架于2020年进行了更新。20236媒体发展局发布了《生成式人工智能:对信任和治理的影响》,概括了生成式人工智能存在的安全风险并对现有的框架进行审查。20241AIVerify基金会和新加坡信息通信媒体发展局联合发布了《生成式人工智能模型治理框架草案》,以期培育可信的生成式人工智能生态系统。该框架草案在2020模型治理框架,推动了关于生成式人工智能治理的国际共识。随后,20245布。此外,20225出了全球首个人工智能治理测试框(AIVerify),允许公司对自身的人工智能系统进行自愿(三)科技企业科技企业通过签署承诺书、实施最佳实践、设定风险阈值等方式,大力推动了全球人工智能技术的安全和可靠。签署自愿性承诺提升人工智能

系统安全可信度。20237月,美国拜登政府分别召集了包括Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAI、AdobeIBM15家领先的人工智能技术公司,共同作出自愿性承诺,旨在提升人工智能系统和产品的安全性与可信度。20242能(AI)伦理论坛上,全球移动通INNITLGAI(LGAIResearch)、微软、摩托罗拉、赛富时和西班牙电信八家全球性科技机构和公司与联合国教科文组织签署协议,将结合教科文组织《人工智能伦理问题建议书》中有关人工智能伦理的价值观和原则,设计和使用人工智能系统。设定风险阈值管控人工智能安全风险。20245举办的人工智能首尔峰会上,包括OpenAIMicrosoft16家科技公司,共同签署《前沿人工智能安全承诺》,这些公司自愿承诺实施与前沿人工智能安全相关的一系列最佳实践,包括内外部红队测试、信息共享、网络安全投资、第三方漏洞报告机制等,并公开透明地报告其安全框架和风险管理方法。此外,签署方还承诺设定并评估“不可容忍”的风险阈值,在风险过大时暂停开发或部署人工智能模型和系统,以确保技术的安全和可信。三、我国人工智能治理已开展的举措(一)政策发展三大基本法为我国人工智能领域健康发展保驾护航。近年来,一系列规范人工智能技术发展和应用的相关法规陆续出台,展现出我国在人工智能治理方面的高度重视与积极作为。201761华人民共和国网络安全法》开始施行,为人工智能的技术发展提供了202191华人民共和国数据安全法》开始施行,进一步强化了人工智能系统或应用中的数据安全法制保障。2021111人信息保护法》开始施行,有力维护了公民个人信息安全,为人工智

能的合规应用奠定了基础。不断探索人工智能治理法制与监管路径。2021917布《关于加强互联网信息服务算法综合治理的指导意见》,旨在管理好使用好发展好算法应用,全面提升网络综合治理能力。20231管理规定》开始施行,对人工智能在互联网信息服务中的应用进行了规范,确保了信息的真实性、准确2023815成式人工智能服务管理暂行办法》开始施行,为生成式人工智能的发展和应用提供了明确的管理规定,推动我国人工智能产业健康有序发展。202312月,《科技伦理审查办法(试行)》开始施行,人工智能研究单位被列入科技伦理(审查)委员会范围。(二)标准发展前瞻性开展人工智能标准体系顶层设计。20196新一代人工智能治理专家委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。20208会、中央网信办等五部门联合印发《国家新一代人工智能标准体系建设指南》,明确了我国人工智能标准化顶层设计。20241和信息化部对外发布《国家人工智能产业综合标准化体系建设指南》(征求意见稿),旨在进一步加强人工智能标准化工作系统谋划。积极推进国内外标准制定工作。目前我国也已经开展了《网络安全技术人工智能计算平台安全框架》《网络安全技术生成式人工智能服务安全基本要求》等多项国家标准的制定工作,《信息安全技术机器学习算法安全评估规范》(GB/T42888-2023)20243月实施。此外,中国作为国际标准化组织(ISO)的六大常任理事国之一,积极参与ISO和IEC制定的人工智能相关标准,例如ISO/IEC2382:2015,该标准针对信息技术中人工智能的使用提供了框架和指南。(三)行业发展我国人工智能科技企业渐成壮大态势助力行业健康发展。近年来,

我国涌现出了一批具有国际竞争力的人工智能领域科技企业。以百度、阿里巴巴、腾讯为代表的大型互联网公司纷纷加大在人工智能领域的投入,不仅在语音识别、自然语言处理等技术方面取得了重要突破,还在智能硬件、自动驾驶等领域展开了积极探索。此外,我国还培育了一批专注于人工智能技术研发和应用的创新型企业,如商汤科技、旷视科技等,在人工智能芯片、计算机视觉等细分领域取得了显著成果。在行业发展过程中,科技企业积极参与政府主导的人工智能治理工作,与政府、学术界和社会各界共同探讨和制定人工智能的监管政策和法规,推动行业的健康发展。人工智能自律机制逐步建立完善。一是成立人工智能伦理委员会或相关部门。例如,阿里巴巴、百度、旷视科技等均成立了人工智能伦理委员会,注重人工智能技术的伦理和法律问题;腾讯通过建立人工智能实验室和研究院,与全球的科研机构合作,推动人工智能健康发展。二是积极发布行业治理与伦理框架。例如,百度发布了《百度人工智能伦理宣言》,明确提出了在人工智能技术研发和应用中应遵循的伦理原则,如公平、公正、尊重隐私等。腾讯发布了《腾讯人工智能伦理准则》,强调了人工智能技术的安全性、可靠性和公平性,并提出了在人工智能应用中保护用户隐私和数据的措施。三是将治理原则融入自身产品与应用。例如,京东在物流和供应链管理中应用人工智能技术,同时注重保护用户数据安全,提升服务透明度;旷视科技在其面部识别技术中实施了严格的伦理标准,确保技术的使用不会侵犯个人隐私,并在公共安全等领域为社会带来积极影响。(四)国际合作与倡议积极彰显人工智能治理中国主张。我国高度重视人工智能治理,早在2018年,习近平总书记在主持十九届中央政治局第九次集体学

习时就强调要未雨绸缪,加强战略研判,确保人工智能安全、可靠、可控。202211国大会提交《中国关于加强人工智能伦理治理的立场文件》,文件从人工智能技术监管、研发、使用及国际合作等方面,进一步梳理了中国关于人工智能伦理治理的主张。202310月,中国在第三届“一带一路”国际合作高峰论坛上正式发布《全球人工智能治理倡议》,这一倡议坚持“以人为本、智能向善”,围绕人工智能发展、安全、治理三个方面阐述人工智能治理的中国方案,为人工智能的开发与安全提出建设性的解决思路。此外,习近平总书记多次发表关于全球人工智能治理的重要讲话,体现了中国为推动全球人工智能治理所做出的积极努力。表1习近平总书记关于全球人工智能治理系列讲话时间主旨讲话相关讲话内容举办世界智能大会,旨在为世界智能科技领域搭建一个交流合作、共赢共享的平台。希2019年习近平致第三届世界望大家围绕“智能新时代:进展、策略和机516日智能大会的贺信推动新一代人工智能健康发展,更好造福世界各国人民。时间主旨讲话时间主旨讲话相关讲话内容2020年1121日习近平在二十国集团领导人第十五次峰会第一阶段会议上的讲话我们愿以此为基础,同各方探讨并制定全球数字治理规则。中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展。2023年823日习近平在金砖国家领导人第十五次会晤上的讲话人工智能是人类发展新领域。金砖国家已经同意尽快启动人工智能研究组工作。要充分加强信息交流和技术合作共同做好风险防范形成具有广泛共识的人工智能治理框架和标准规范,不断提升人工智能技术的安全性、可靠性、可控性、公平性。2024年530日习近平在中阿合作论坛第十届部长级会议开幕式上的主旨讲话愿同阿方加强人工智能领域合作,共同促进人工智能赋能实体经济,推动形成具有广泛共识的全球人工智能治理体系。2024年612日习近平向联合国贸易60年庆祝活动开幕式发表视频致辞坚持以人为本、智能向善,在联合国框架内加强人工智能规则治理。积极推动人工智能治理双多边政策对话。2024年4月3互联网发展与合作论坛成功举行,中非双方就人工智能领域的合作进行深入交流,并发表了《2024非互联网发展与合作论坛关于中非人工智能合作的主席声明》,呼吁加强政策对话与沟通,推动技术研发与应用,促进产业合作与发展,开展人才交流与能力建设,筑牢网络和数据安全屏障。20245习近平总书记在对法国进行国事访问期间,中法双方共同发表《关于

人工智能和全球治理的联合声明》,就人工智能方面达成共识,包括深化人工智能国际治理模式、加强人工智能治理的国际合作以及各人工智能治理框架和倡议之间的互操作性等。倡议规范人工智能军事应用。2021年12月,我国首次就规范人工智能军事应用问题发布《中国关于规范人工智能军事应用的立场文件》,这份文件是《特定常规武器公约》框架下首份关于人工智能安全治理问题的立场文件。文件聚焦人工智能军事应用涉及的研发、部署、使用等重要环节,并就如何在军事领域负责任地开发和利用人工智能技术提出解决思路。该文件的发布有利于增进国家间互信、维护全球战略稳定、防止军备竞赛、缓解人道主义关切,也有助于打造包容性和建设性的全球安全伙伴关系,在人工智能领域推动构建人类命运共同体。四、人工智能治理难点、风险和挑战(一)各国立法步调不统一,全球监管框架难以落地由于不同国家的发展阶段、产业基础、价值观念等存在差异,各国在人工智能立法的目标、重点与进程上难以达成一致。例如,欧盟、美国等发达国家和地区在人工智能领域逐步建立健全人工智能立法和监管体系,而一些发展中国家甚至还未开始涉足该领域。这种立法步调的不统一,使得全球人工智能治理面临碎片化风险,全球共治步伐受阻。此外,人工智能技术的跨国界特性和广泛影响意味着没有任何单一国家、地区或企业能够独立应

对人工智能安全风险挑战。全球监管框架的建立需考虑各国法律和文化差异,以及执法和监管能力的不同,这些因素阻滞了全球监管框架的实际落地。(二)部分国家寻求规则主导权,在推动人工智能治理过程中存在政治化苗头在推进全球人工智能治理的过程中,一些大国如美国和欧盟等,在强化本国人工智能治理体系的同时,也在寻求在全球新一轮科技治理规则制定中占据主导位置,试图通过制定有利于自身利益和发展战略的规则,争夺在全球人工智能治理中的话语权和影响力。这种政治化的苗头不仅可能加剧国际合作中的信任危机,还可能阻碍全球人工智能治理共识的形成,使得全球治理体系难以公平、公正地反映各国的共同利益。此外,部分国家可能利用全球治理体系中的规则漏洞,通过政治手段对其他国家的人工智能产业进行限制和打压,进而损害全球人工智能技术的创新和发展。(三)全球智能鸿沟进一步放大数字鸿沟弊端,治理能力弥合难以追赶鸿沟扩大速度随着人工智能技术的快速发展,技术和资源的不均衡分布导致全球范围内的智能鸿沟日益加剧。智能鸿沟是数字鸿沟在人工智能技术快速发展背景下的进一步扩大,它不仅体现在国家间,也体现在社会不同群体之间。例如,对于个人而言,智能鸿沟的扩大造成技术接触机会愈发不平等,资源丰富的个人能更多、更迅速地提升数字素养,而资源匮乏者则因机会有限而难以提高。对于国家而言,智能鸿沟的扩大将进一步威胁国家安全。技术落后可能导致国防能力、信息安全、关键基础设施保护等方面的不足,从而增加国家安全的脆弱性。智能鸿沟因人工智能技术的自适应、进化性等特点,其扩大速度将远超数字鸿沟,使得弥合治理能力的挑战变得更加艰巨。(四)人工智能安全监管滞后,仍较大程度依靠企业自我约束人工智能技术的快速迭代和广泛应用导致监管措施滞后于实际应用,从而难以有效应对潜在的安全风险,使得当下监管与治理仍较大

程度依靠企业自我约束。但这种模式存在很大的局限性,难以形成统一、全面的安全保障。一是监管滞后使得人工智能技术的应用可能超出现有法律的约束,从而引发一系列的安全和伦理问题。二是企业在追求利润最大化的过程中可能忽视人工智能技术的潜在风险,从而增加安全问题和隐私泄露的风险。三是由于资源和技术实力的差异,不同企业在人工智能安全监管方面的能力和投入存在显著差异,使得整个行业面临安全风险。五、促进我国人工智能治理的对策建议(一)完善顶层设计针对供应链安全、数据安全、算法安全、应用安全、伦理安全五层人工智能安全架构,识别人工智能在不同层面上的安全风险,制定对应层级的治理目标与计划,完善我国人工智能治理顶层

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论