版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2024年5月21日,欧盟《人工智能法案》(ArtificialIntelligence(AI)Act)(以下简称“AI法案”)由欧盟理事会正式批准通过,并将于当地时间8月1日正式生效。[1]至此,全球首部针对人工智能(AI)的专门性法律正式出台。该法案于2021年4月首次提议后历经三年的多轮审议,最终形成了一部人工智能系统监管的统一规则,对全球人工智能的监管框架产生了借鉴意义。对于我们此前对欧盟AI法案审议草案及欧盟人工智能监管框架的解读,可参考《全球人工智能治理大变局之欧盟人工智能治理监管框架评述及启示》及《路未央,花已遍芳——欧盟《人工智能法案》主要监管及激励措施评述》。本文将进一步以图示及合规要点解读的形式,帮助中国企业了解并梳理如何适用AI法案下的合规义务,同时也将结合我国当前对人工智能监管的规则要点,总结人工智能合规治理的要点,供读者参阅。一、AI法案的合规义务路径图解根据AI法案,中国企业如涉及面向欧洲提供相关AI系统或技术服务的,一方面宜判断自身提供的AI系统是否构成AI法案所提出的“受规制的AI系统”,进而根据相应的系统风险等级判断所需履行的合规义务;另一方面,也需判断企业自身是否构成AI法案下的“AI系统提供者”,进而适用AI法案对提供者所提出的相关合规要求(进口者、部署者、分销者也需承担相应的合规义务)。具体而言,可参考的判断步骤如下:概览Q1.何为“AI系统”?AI系统:是一种基于机器的系统,设计为以不同程度的自主性运行,在部署后可能表现出适应性,并且为了明确或隐含的目标,从其接收的输入中推断如何生成可影响物理或虚拟环境的输出,如预测、内容、建议或决Q2.是否提供“受规制的AI系统”?AI系统分类:不可接受的风险(Unacceptablerisk)的AI系统;高风险(Highrisk)的AI系统;特定风险/有限风险(Limitedrisk)的AI系统;最小风险(Minimalrisk)的AI系统。Q3.是否构成AI系统的“提供者”?在欧盟市场内投放或投入使用其AI系统——无论是否收费,无论实体是否在欧盟境内,都适用AI法案。例如:在欧盟应用商店内作为提供者投放AI系统;运营面向欧盟公众访问的网站,并在网站上提供AI系统的下载渠道,供欧盟公众自行下载AI系统。不在欧盟市场内投放或投入使用其AI系统,但AI系统产生的结果被用于欧盟境内。例如:在欧盟境内的运营商将特定服务外包至欧盟外的主体,欧盟外的主体使用AI系统处理在欧盟境内收集的数据并向欧盟境内的运营商提供经AI系统处理后的输出结果。Q4.是否构成“不可接受风险的AI系统”?1.采用潜意识、操纵或欺骗技术,来扭曲行为,并损害知情决策,从而造成严重损害;例如:虚拟现实AI系统的作用如是为了以明显有害的方式扭曲个人的行为,则应当受到禁止。2.利用与年龄、残疾或社会经济状况相关的弱点,来扭曲行为,造成严重伤害。在医疗方面的合法使用除外,例如对心理精神疾病进行治疗;3.社会评分,根据社会行为或个人特征,对个人或群体进行评估或分类,从而对这些人造成有害或不利待遇;4.仅根据个人的性格特征来评估个人犯罪的风险(用于增强基于与犯罪活动直接相关的客观、可验证的事实的人类评估除外);5.通过从互联网或闭路电视录像中无针对性地抓取面部图像,来编制面部识别数据库;6.在工作场所和教育机构领域推断自然人的情绪,除非出于医疗或安全原因;7.推断敏感属性(种族、政治观点、工会会员身份、宗教或哲学信仰、性生活或性取向)的生物分类系统(对合法获取的生物数据集进行标记或过滤,或执法部门对生物特征数据进行分类时除外);8.在公共场所为执法目的使用“实时”远程生物识别系统,特定情形除外。例如:执法人员佩戴执法记录仪等工具实时进行远程生物识别的,只有在不使用该工具将造成严重伤害的情况下才允许使用,且必须兼顾受影响个人的权利和自由。Q5.如果不涉及第4步上述情形,则公司需考虑作为AI系统提供者,应当履行哪些合规义务?通用AI模型:通用AI模型具有显著的通用性,能够胜任各种不同的任务,并可集成到各种下游系统或应用中。但是在投放市场前用于研究、开发或原型设计的人工智能模型除外。例如:使用大量数据进行大规模自我监督训练的人工智能模型。高风险AI系统:1)未禁用的生物识别技术:远程生物识别系统。根据敏感或受保护的属性或特征的生物识别分类系统。情感识2)关键基础设施:关键数字基础设施。道路交通以及水、气、暖和电供应的管理和运行的安全组件。3)教育和职业培训:确定各级教育和职业培训机构的入学、录取或分配的AI系统。评估学习成果的AI系统。评估个人适当的教育水平的AI系统。监控和检测考试期间学生的违纪行为的AI系统。4)就业、工人管理和自营职业:用于招聘或选拔的AI系统(特别是用于发布有针对性的招聘广告、分析和筛选求职申请以及评估候选人的AI系统)。晋升和终止合同、根据性格特征和行为分配任务以及监测和评估绩效的5)获得和享受基本私人服务以及基本公共服务:由公共机关使用AI系统评估福利和服务的资格。评估信用(发现金融欺诈除外)。评估和分类紧急呼叫,包括调度警察、消防员、医疗救助和紧急患者分诊服务。健康和人寿保险的风险评估和定价。6)执法:用于评估个人成为犯罪受害者风险的AI系统。测谎仪。在刑事调查或起诉期间评估证据可靠性。评估个人犯罪或再次犯罪的风险,而不仅仅是基于分析或评估个性特征或过去的犯罪行为。在刑事侦查、调查或起诉期间进行分析。7)移民、庇护和边境管制管理:测谎仪。非正常移民或健康风险评估。审查庇护、签证和居留许可申请,以及与资格相关的投诉。检测、识别或确定个人身份,但核实旅行证件除外。8)司法和民主进程:用于研究和解释事实,并将法律应用于具体事实或用于替代性争议解决。影响选举和公投结果或投票行为,不包括不直接与人互动的输出,如用于组织、优化和构建政治运动的工具。视为高风险AI系统——作为产品安全组件或作为产品本身:AI系统属于欧盟立法所涵盖的产品,或此类产品的安全组件,并且根据欧盟相关统一立法需要进行第三方合格评定的AI系统,视为高风险AI系统。其中,欧盟立法所涵盖的产品,参见AI法案附件1,主要包括机械、玩具、电梯、无线电设备、医疗器械和体外诊断医疗器械等。不构成高风险AI系统的例外:1)AI系统执行狭窄的程序任务;例如:将收到的文件进行分离。2)AI系统旨在改进先前完成的人类活动的结果;例如:相关AI系统执行的任务是优化既有文本所使用的语言。3)AI系统旨在检测决策模式或先前决策模式的偏差,而不是在未经适当人工审查的情况下取代或影响先前完成例如:在经自然人打分后,通过AI系统检测打分标准是否与评分规则发生偏移。有限/特定风险AI系统的提供者:1)与自然人直接互动的AI系统;例如:虚拟现实AI系统。2)生成音频、图像、视频或文本等内容的通用AI系统。例如:经用户输入关键词即可生成发言稿的文字生成式AI系统。有限/特定风险AI系统的部署者:1)情绪识别AI系统或生物特征分类AI系统;例如:根据个人的生物识别数据判断个人是否快乐或悲伤的AI系统。2)为了向公众提供有关公共利益问题的信息而使用的AI系统,即对于AI系统生成的内容,如果发布的目的是为了向公众提供有关公共利益问题的信息,也需履行相应的披露义务。最小风险AI系统:未归入上述不可接受风险、高风险、有限风险的AI系统,可被视为最小风险AI系统。例如,垃圾邮件过滤器、人工智能视频游戏等应用程序。二、中欧人工智能治理框架下的合规要点启示1.AI大模型训练数据合规以高风险AI系统提供者的合规义务为例,AI法案主要就高风险AI系统提出涵盖全生命周期的监管机制。例如,在将高风险AI系统投放市场前,提供者应当开展数据治理活动,数据治理应涵盖数据的选择、收集、预处理例如标记、清洗等多方面。同时,数据治理还包括对数据集可能存在的偏见进行审查;如存在可能影响自然人基本权利的偏见,应当采取合理措施以减少相关偏见。在选择数据集时,尤其应当注意有关训练数据的数据权益争议问题,当使用涉及他人版权或知识产权的数据以及可能涉及个人信息的数据作为数据源时,如何保证训练数据的真实性与准确性是出海企业需要考量的问题之一。对此,《生成式人工智能服务管理暂行办法》(以下简称“《AIGC暂行办法》”)及配套的《生成式人工智能预训练和优化训练数据安全规范》标准文件对数据治理同样提出了一系列义务,包括使用具有合法来源的数据和基础模型,涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形等。然而,在实践训练数据过程中,可能仍然会产生违规侵权的后果,其主要原因来自权利人认为大模型厂商在未获得其授权的前提下,将其受版权法保护的内容作为训练数据的内容以进行大模型训练,构成侵权。无论是国内还是国外,均已发生数起版权人就训练数据使用起诉大模型厂商或AI服务提供者的案件。对此,大模型厂商多以版权的合理使用作为抗辩理由,即便是将大模型应用于商业用途。例如,北京互联网法院于2024年6月在线审理的画师起诉AI绘画软件开发运营者的著作权侵权案件中,被告即表示使用原告受著作权保护的作品进行大模型训练构成合理使用。不过,由此延伸的问题即是在大模型不断地模型训练当中,训练数据已更迭数代,且大模型的性能也已获得了提高,在此过程中,如仅一批训练数据集(例如仅占大模型整体训练数据规模的10%)涉及侵权问题,且对应的权利人要求删除侵权训练数据及对应的大模型时,相应的主张能否得到支持以及能够在多大程度上得到支持。例如,在大模型厂商未经授权利用相关受版权保护的内容进行训练数据的动作结束后,仅销毁训练数据集可能已不具有实质意义上的停止侵权效果;而如果全量响应权利人的需求例如销毁基于侵权数据训练而成的大模型,不仅可能违背了比例原则,也可能造成资源浪费。尽管在广州互联网法院(2024)粤0192民初113号一案当中,原告要求被告将涉案受到版权保护的奥特曼物料从被告的训练数据集中删除,但由于被告仅为AI服务的提供者,不涉及开展实际的模型训练行为,因此该主张未得到法院的支持。因此,如何解答这一疑问,实践暂未提供任一方向的解答。2.个人信息保护无论是AI法案还是《AIGC暂行办法》,其均规定了个人信息的处理需遵循相应的法律要求,采取适当的技术和管理措施从而保障训练数据涉及的个人信息的安全性等要求,这也与《通用数据保护条例》和《个人信息保护法》确立的个人信息保护原则相一致。但在实践中不难发现,企业在利用涉及个人信息的训练数据时,逐一落实个人信息主体同意的要求已无法实现,而主张无需基于个人信息主体同意而处理个人信息的其他合法性基础,亦存在较大局限性。以“在合理范围内处理已公开个人信息”的合法性基础为例,主张大模型训练属于合理范围的难度可能较大,并且如何定义“已公开个人信息”,目前尚未有进一步实践指引。同时,一方面而言,《AIGC暂行办法》、欧盟EDPS发布的生成式人工智能数据合规指南等均要求保护个人信息主体权利。在另一方面,在前述事实背景下,行使相关权利本身就存在一定障碍。因此,如何在不影响生成式AI系统有效性的前提下履行相关主体权利请求则成为需后续明确关注的事项之一。AI法案与《AIGC暂行办法》均提出了有关提示用户辨别AI服务的相关义务:AI法案规定生成合成音频、图像、视频或文本内容的AI系统提供者应确保AI系统的输出以机器可读的格式进行标注,并且可检测相关输出为人工生成的;《AIGC暂行办法》规定生成式服务提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。值得一提的是,在广州互联网法院(2024)粤0192民初113号一案,法院认定被告存在过错、未尽合理注意义务的理由之一即在于,被告作为AI服务提供者,并未显著标识涉案图片,从而确保相关主体能够明确认识到产生的图片系由AI生成。两者提出的标识义务的底层逻辑存在相似的部分,即其本质意义是确保用户及公众能够明确地了解与意识相关服务或内容由AI提供或生成,然而,技术实施细节及履行程度可能存在差异,例如AI法案明确提出了机器可读的要求。因此,企业如计划产品出海,应当尤为关注此类差异性要求,在大模型服务布局初期可能即需开展相关工作的部署,以保证AI服务全生命周期的整体合规性。在境内外可能就类似监管要求提出存在差异的执行细则的前提下,前述议题对企业界构成了多层次的挑战,尤其是当本土企业计划将其现有模型或(AI)系统推向国际市场时,如何有效调和来自不同司法管辖区间的差异化合规标准,设计出既能保护数据主体权益、增进社会福利,又兼顾商业价值的AI服务与产品,已成为企业合规策略中的核心议题之一。结语进一步观察发现,无论是欧盟AI法案还是我国的《AIGC暂行办法》等规范性文件,均普遍遵循了共通的AI治理原则,即在确保公共利益与个人基本权利得到充分尊重与保护的基础上,积极促进AI技术的创新步伐与应用广度。具体而言,这些治理原则的实现依赖于监管机制的构建与AI技术发展的动态平衡策略,一方面,要求建立健全的监管体系,以引导并规范AI技术的健康发展轨迹;另一方面,需灵活调整监管策略,以适应技术进步的
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
评论
0/150
提交评论