人工智能(AI):科技伦理治理走起2023_第1页
人工智能(AI):科技伦理治理走起2023_第2页
人工智能(AI):科技伦理治理走起2023_第3页
人工智能(AI):科技伦理治理走起2023_第4页
人工智能(AI):科技伦理治理走起2023_第5页
已阅读5页,还剩16页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

随着人工智能深度学习能力的不断强化,人工智能技术大幅发展,ChatGPT、Bard等大模型的陆续推出,人工智能技术开始被广泛地应用于人们日常生活的方方面面。不过,正如过去诸多科幻类作品所展示的那样,现实中,人工智能的发展带来的科技伦理问题也逐步显现。例如,当人工智能使用的训练数据本身存在虚假、错误信息时,或人工智能被用于炮制虚假、错误信息时,人工智能将助推虚假、错误信息的传播。再如,尽管人工智能技术研发的初衷是使得人们得以从一些简单重复的工作中脱离出来进而从事更具有创造性的工作,人工智能自动生成的绘画、诗句、文章展现出的出乎人们意料的创造力,引发了社会对于人工智能取代人类的忧虑以及对就业市场的巨大冲击。在近期的好莱坞编剧罢工事件中,为了避免被AI取代,好莱坞编剧们提出了AI生成的文学材料不得被视为人类撰写的文学材料、禁止利用编剧的劳动成果来训练AI等一系列诉求。再如,人工智能系统可能包含强化或固化歧视或偏见的应用程序和结果,这将加剧社会中已有的歧视、偏见与成见。此外,人类为使用人工智能提供的服务,也将涉及向人工智能提供生理信息、行为偏好、兴趣偏好等个人隐私信息,如前述信息被不当收集和利用,人工智能将极有可能成为窥探个人隐私、侵扰个人生活的工具。为了应对上述人工智能带来的伦理问题,联合国教育、科学及文化组织于2021年11月23日通过《人工智能伦理问题建议书》(RecommendationontheEthicsofArtificialIntelligence,“《建议书》”),提出了人工智能系统生命周期的所有行为者应尊重的价值观和原则以及落实前述价值观和原则的政策行动,建议会员国在自愿基础上适用《建议书》的各项规定,根据本国的宪法实践和治理结构并依照国际人权法在内的国际法采取适当步骤,包括进行必要的立法。目前,欧盟、美国和英国等国家和地区均已出台了一系列监管规则,与此同时,我国科学技术部会同教育部、工业和信息化部、国家卫生健康委等十部门联合印发的《科技伦理审查办法(试行)》正式明确了我国的科技伦理审查体系。本文重点内容包括:全球各地区的人工智能伦理治理体系的概述性介绍;我国最新出台的《科技伦理审查办法(试行)》的要点解读;结合我国的监管要求,对于大模型服务提供者的人工智能伦理治理责任的梳理;大模型服务提供者提供应对人工智能加速突破和应用所带来的伦理风险与挑战的可行路径探索。一、国外AI伦理治理监管体系概述目前欧盟、美国及英国均已出台了与人工智能相关的监管规则,科技伦理的治理是其中的重点。具体如下:《人工智能法案》(ArtificialIntelligenceAct)作为欧盟人工智能监管体系的核心,在经历了一系列修正之后,目前将进入欧盟委员会、议会和成员国三方谈判协商的程序从而确定最终版本。《人工智能法案》是欧盟首部有关人工智能的综合性立法,其以人工智能的概念作为体系原点,以人工智能的风险分级管理作为制度抓手,以人工智能产业链上的不同责任主体作为规范对象,以对人工智能的合格评估以及问责机制作为治理工具,从人工监管、隐私、透明度、安全、非歧视、环境友好等全方位监管人工智能的开发和使用,详细规定了人工智能市场中各参与者的义务。在伦理治理方面,《人工智能法案》强调,人工智能应该是一种以人为本的技术,不应该取代人类的自主性,也不应该导致个人自由的丧失,而应该主要服务于社会需求和共同利益,因此应提供保障措施,以确保开发和使用尊重欧盟价值观和《欧洲联盟基本权利宪章》(CharterofFundamentalRightsoftheEuropeanUnion)的道德嵌入式人工智能。对于AI系统的风险分级标准,《人工智能法案》将伦理风险作为考量因素,将下述类型的AI系统归为“存在不可接受风险的AI系统”,在欧盟成员国内将完全禁止该等AI系统投入市场或者采用潜意识技术或有目的的操纵或欺骗技术;利用个人或社会群体的弱点(例如已知的人格特征或社会经济状况、年龄、身体精神能力);利用人的社会行为或人格特征进行社会评分;在公众场所的“实时”(包括即时和短时延迟)远程生物识别系统。此外,在评估AI系统是否属于“高风险AI系统”时,《人工智能法案》要求考量AI系统对《欧洲欧盟基本权利宪章》所保护的基本权利造成的不利影响的程度,该等基本权利包括:人的尊严、尊重私人和家庭生活、保护个人数据、言论和信息自由、集会和结社自由以及不受歧视的权利、受教育权、消费者保护、工人权利、残疾人权利、性别平等、知识产权、获得有效补救和公平审判的权利、辩护权和无罪推定、良好管理的权利。“高风险AI系统”投放市场及交付使用均受到严格的管控并需履行评估及备案等一系列要求。美国在联邦层面尚未通过一部完整且专门的针对AI系统的法案,而是试图通过调整政府机构的权利,在现有的立法框架及监管规则内对人工智能进行规制。在伦理治理方面,目前联邦层面的合规重点主要涉及反歧视、保护数据隐私等要求。例如:(1)《2022年算法问责法案》(AlgorithmicAccountabilityActof2022)2022年2月,美国众议院颁布了《2022年算法问责法案》,要求使用自动化决策系统做出关键决策的企业研究并报告这些系统对消费者的影响,其内容包括是否会因为消费者的种族、性别、年龄等生成对消费者有偏见或歧视性的自动决策等。该法案形成了“评估报告—评估简报—公开信息”三层信息披露机制。此外,联邦贸易委员会还将建立可公开访问的信息存储库,公开发布关于自动化决策系统的有限信息。(2)《人工智能权利法案蓝图》(BlueprintforanAIBillofRight)2022年10月,美国白宫科技政策办公室(OSTP)颁布了《人工智能权利法案蓝图》,提出了指导人工智能的设计、使用和部署的五项原则:技术的安全性和有效性、防止算法歧视、保护数据隐私、告知及解释义务以及人类参与决策,并在技术指南部分针对五项原则中的每一项均解释了原则的重要性、原则所指引的期望以及各级政府到各种规模的公司等多种组织为维护原则可以采取的具体的实施步骤、原则的实践案例。(3)《美国数据隐私和保护法案》(theAmericanDataPrivacyandProtectionAct,“ADPPA”)2022年6月,美国参众两院共同发布了ADPPA,ADPPA规定,如人工智能所使用的数据集涵盖个人信息、数据与隐私,则构成“覆盖算法”;使用“覆盖算法”的大数据持有人,如果对个人或群体构成相应伤害风险,并单独或部分使用“覆盖算法”来收集、处理或传输覆盖数据,则应当根据ADPPA规定的评估标准进行隐私影响评估。另外,ADPPA还对隐私政策的告知与退出机制、反偏见等内容做出了规定。ADPPA规定,企业或代表企业的服务提供商需要告知个人有“选择退出”的权利,即拒绝企业对其个人数据的收集、处理或传输。(4)《关于通过联邦政府进一步促进种族平等和支持服务不足社区的行政命令》(ExecutiveOrderonFurtherAdvancingRacialEquityandSupportforUnderservedCommunitiesThroughtheFederal2023年2月,拜登签署了《关于通过联邦政府进一步促进种族平等和支持服务不足社区的行政命令》,规定人工智能大模型应避免由于大量输入训练数据中存在的对种族、性别、年龄、文化和残疾等的偏见而导致训练结果输出内容中存在偏见。联邦政府在设计、开发、获取和使用人工智能和自动化系统时,各机构应在符合适用法律的前提下,防止、纠正歧视和促进公平,包括保护公众免受算法歧视。2021年5月,英国中央数字与数据办公室、人工智能办公室与内阁办公室联合发布了《自动决策系统的伦理、透明度与责任框架》(Ethics,TransparencyandAccountabilityFrameworkforAutomatedDecision-Making,“ETAF”),对人工智能涉及的算法和自动化决策的伦理治理要求进行规定。ETAF强调,算法和自动化决策在上线之前应该进行严格的、受控的和分阶段的测试。在整个原型和测试过程中,需要人类的专业知识和监督来确保技术上的弹性和安全,以及准确和可靠的系统。测试时,需要考虑自动化决策系统的准确性、安全性、可靠性、公平性和可解释性。ETAF规定,企业必须对算法或自动决策系统做一个平等影响评估,使用高质量和多样化的数据集,发现和抵制所使用数据中明显的偏见和歧视。ETAF指出,算法或计算机系统应该被设计为完全可以负责和可被审计的,算法和自动化的责任和问责制度应该明确。二、我国与AI伦理治理相关的法律法规和行业规范概览在我国,2017年,国务院印发《新一代人工智能发展规划》并在该规划中提出了制定促进人工智能发展的法律法规和伦理规范的要求,之后《中华人民共和国科学技术进步法》、《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《网络安全标准实践指南—人工智能伦理安全风险防范指引》等一系列法律法规和相关规定相继对于AI伦理治理的要求予以规定。2022年中共中央办公厅、国务院办公厅发布了《关于加强科技伦理治理的意见》,该意见是我国首个国家层面的、专门针对科技伦理治理的指导性文件,提出了科技伦理治理原则以及基本要求。2023年10月新发布的《科技伦理审查办法(试行)》对于科技伦理审查的基本程序、标准、条件等提出统一要求,标志着我国AI伦理治理监管体系建设进入了新阶段。我们在下表中梳理了我国与AI伦理治理相关的法律法规及其主要内容:2.行业规范除前序法律法规和相关规定以外,在《新一代人工智能发展规划》等政策指引下,各机构、行业也积极响应,陆续发布了一系列AI伦理治理相关的行业规范,包括国家新一代人工智能治理专业委员会制定的《新一代人工智能治理原则——发展负责任的人工智能》、《新一代人工智能伦理规范》、国家人工智能标准化总体组等制定的《人工智能伦理治理标准化指南》、同济大学上海市人工智能社会治理协同创新中心研究团队编制的《人工智能大模型伦理规范操作指引》、中国社会科学院国庆调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组编制的《人工智能法示范法1.0(专家建议稿)》,提供了相关行业的AI伦理治理建议。下表梳理了我国与AI伦理治理相关的行业规范及其主要内容:三、《科技伦理审查办法(试行)》要点2023年10月8日,科学技术部、教育部、工业和信息化部等多部门联合发布《科技伦理审查办法(试行)》(“《科技伦理审查办法》”),该办法将于2023年12月1日起正式实施。该办法对于涉及以人为研究参与者的科技活动,包括利用人类生物样本、个人信息数据等的科技活动,或不直接涉及人或实验动物,但可能在生命健康、生态环境、公共秩序、可持续发展等方面带来伦理风险挑战的科技活动进行的科技伦理审查和监管做出了明确的规定,由此可见,该办法的适用范围几乎涵盖所有科技活动,包括人工智能相关的科技活动。在审查主体方面,《科技伦理审查办法》明确要求从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。其他有伦理审查需求的单位可根据实际情况设立科技伦理(审查)委员会。单位应在设立科技伦理(审查)委员会后30日内,通过国家科技伦理管理信息登记平台进行登记,登记内容包括科技伦理(审查)委员会组成、章程、工作制度等,相关内容发生变化时应及时更新,并在每年3月31日前,向国家科技伦理管理信息登记平台提交上一年度科技伦理(审查)委员会工作报告。科技伦理(审查)委员会的主要职责包括:制定完善科技伦理(审查)委员会的管理制度和工作规范;提供科技伦理咨询,指导科技人员对科技活动开展科技伦理风险评估;开展科技伦理审查,按要求跟踪监督相关科技活动全过程;对拟开展的科技活动是否属于《需要开展伦理审查复核的科技活动清单》范围作出判断;组织开展对委员的科技伦理审查业务培训和科技人员的科技伦理知识培训;受理并协助调查相关科技活动中涉及科技伦理问题的投诉举报;按照主管部门要求进行登记、报告,配合地方、相关行业主管部门开展涉及科技伦理审查的相关工作。在科技伦理(审查)委员会的人员组成方面,科技伦理(审查)委员会人数应不少于7人,设主任委员1人,副主任委员若干;委员任期不超过5年,可以连任。委员会成员应由具备相关科学技术背景的同行专家以及伦理、法律等相应专业背景的专家组成,并应当有不同性别和非本单位的委员,民族自治地方应有熟悉当地情况的委员。由此可见,科技伦理(审查)委员会的设立具备一定门槛,根据《科技伦理审查办法》,如单位或个人涉及开展需进行科技伦理审查的科技活动,但单位未设立科技伦理(审查)委员会或个人无单位的,应书面委托其他单位的科技伦理(审查)委员会开展伦理审查工作。根据《科技伦理审查办法》,科技伦理(审查)委员会开展科技伦理审查的流程如下:根据《科技伦理审查办法》,针对纳入科技部发布的《需要开展伦理审查复核的科技活动清单》的科技活动,通过科技伦理(审查)委员会的科技审查后,除非国家实行行政审批等监管措施且将符合伦理要求作为审批条件、监管内容的,还需由科技活动承担单位(即开展科技活动的单位)报请所在地方或相关行业主管部门组织成立复核专家组[1]开展专家复核,并由负责该等科技活动的科技审查的科技伦理(审查)委员会根据专家复核意见作出科技伦理审查决定;前序科技伦理(审查)委员会应在纳入清单管理的科技活动获得伦理审查批准后30日内,通过国家科技伦理管理信息登记平台进行登记,登记内容包括科技活动实施方案、伦理审查与复核情况等,相关内容发生变化时应及时更新,并在每年3月31日前向国家科技伦理管理信息登记平台提交上一年度纳入清单管理的科技活动实施情况报告。根据科技部于2023年10月8日附随《科技伦理审查办法》发布的《需要开展伦理审查复核的科技活动清单》,“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”、“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”均属于需要开展伦理审查复核的科技活动。因此,人工智能相关科技活动除通过科技伦理(审查)委员会的科技审查以外,极有可能还需在复核专家组进行伦理审查复核。4.审查内容根据《科技伦理审查办法》,针对所有需要依法进行科技伦理审查的科技活动,科技伦理审查的具体内容包拟开展的科技活动应符合增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明的科技伦理原则,参与科技活动的科技人员资质、研究基础及设施条件等符合相关要求;拟开展的科技活动具有科学价值和社会价值,其研究目标的实现对增进人类福祉、实现社会可持续发展等具有积极作用。科技活动的风险受益合理,伦理风险控制方案及应急预案科学恰当、具有可操作性;所制定的利益冲突申明和管理方案合理。针对利用人类生物样本、个人信息数据等的科技活动在内的涉及以人作为研究参与者的科技活动,还需审查下所制定的招募方案公平合理,生物样本的收集、储存、使用及处置合法合规,个人隐私数据、生物特征信息等信息处理符合个人信息保护的有关规定,对研究参与者的补偿、损伤治疗或赔偿等合法权益的保障方案合理,对脆弱人群给予特殊保护;所提供的知情同意书内容完整、风险告知客观充分、表述清晰易懂,获取个人知情同意的方式和过程合规恰针对涉及数据和算法的科技活动,还需审查下述内容:数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案得当;算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当。四、国内大模型服务提供者的AI伦理治理责任如我们在《大模型合规之现实初探》一文中所述,向境内公众提供大模型服务的大模型服务提供者,包括平台运营方和技术支持方,均属于生成式人工智能服务提供者,从而均应当承担相应

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论