人工智能、数据治理和隐私(中文版)_第1页
人工智能、数据治理和隐私(中文版)_第2页
人工智能、数据治理和隐私(中文版)_第3页
人工智能、数据治理和隐私(中文版)_第4页
人工智能、数据治理和隐私(中文版)_第5页
已阅读5页,还剩114页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

OECPubll·shl·ng人工智能、数据2024年6月第22》ECDBETTERPOLICESFORBETTERLIVES报告报告强调了关键的调查结果和建议,以加强人工智能,数据治理和隐私方面的协同作用和国际合作领域本文件于2024年6月20日由经合组织数字政策委员会(DPC)通过书面程序批准和解密,并由经合组织秘书处准备出版。本文参考了经合组织人工智能专家网络的人工智能、数据和隐私问题专家组(以下简称“专家组”)的贡献它是在经合组织人工智能治理工作组(AIGO)和经合组织数据治理和隐私工作组的主持下编写的,这两个工作组都是在发布时,专家组由IsraeliPrivacyProtectionAuthority(以色列隐私保护局),DeniseWong(新加坡信息技术媒体发展局(IMDA和ClaraNeppel(IEEE欧洲业务运营)共同主持专家组还受益于由YordankaIvanova(欧盟委员会),KariLaumann(挪威数据保护局),WinstonMaxwell(巴黎电信-巴黎综合理工学院)和MarcRotenberg(人工智能和数字政策中心)组成的指导小组的投入和指导报告的编写和起草工作由经合组织秘书处成员领导,并与该报告的主要贡献者WinstonMaxwell(巴黎电信-巴黎理工学院)合作:数据治理和隐私部门负责人ClarisseGirot和人工智能部门负责人KarinePerset认可了两个工作组和相关政策社区共同努力的价值,并提供了资源,投入和监督。数字经济政策司的GalliaDaor和科学、技术和创新司副司长AudreyPlonk提供了建议和监督。作者感谢那些抽出时间参加向专家组介绍情况的个人和机构所作的贡献。最后,作者感谢AndreiaFurtado、MarionBarclay和ShelliePhillips提供的行政和沟通支持,报告的整体质量得益于他们的参与。各代表团注意本文件也可在O.N.E上查阅,参考代码为:DSTI/CDEP/AIGO/DGP(2023)1/FINAL本文件以及其中所载的任何数据和地图不妨碍任何领土的地位或对任何领土的主权,不妨碍国际边界和界线的划定,也不妨碍任何领土、城市或地区的名称。2024年经济合作与发展组织本作品的使用,无论是数字版还是印刷版,均受上的条款和条件/termsandconditions。生成式人工智能在隐私方面的机遇和风险从生成AI中出现的隐私问题:隐私执法机构介入生成式人工智能增强了研究人工智能与隐私法规经合组织人工智能建议书中的五项价值观原则映射AI和隐私原则的关键政策考虑AI和隐私原则可能的共性和差异概述隐私权执法机构的国际反应隐私执法机构就隐私法对人工智能的应用提供的指导人工智能领域的PEA执法行动,包括生成式人工智能267892224272729424244表3.AI和隐私政策社区之间具有不同含义的关键概念28插文1.1.与AI系统相关的真实和潜在风险22 AI人工智能数据保护机构数字政策委员会GPU图形处理单元高性能计算信通技术信息和通信技术政府间组织机器学习非政府组织自然语言处理经合组织经济合作与发展组织一个al经合组织人工智能专家网络豌豆隐私执行机构研发研发SDG可持续发展目标中小企业中小企业中小企业VC风险投资WPAIGO人工智能治理工作组 WPDGP数据治理和隐私工作组最近的人工智能技术进步,特别是生成人工理和隐私问题。然而,人工智能和隐私政策社区法因司法管辖区和法律制度而异。这些孤岛可能和执行的复杂性,并阻止利用国家框架之间的共工智能发展带来它将经合组织隐私准则中规定的则相结合,评估国家和区域举措,并提出潜在的组织隐私准则以及经合组织人工智能原则的实施关于捐助者管理和保护私人生活的问题。然而,国际胎者隐私的政策也需要采取各种独立的做法,采用不度。这些国家的主要障碍是遵守和执行规则的复杂性的共同点上实行资本主义。该报告集中讨论了保护国生活所面临的风险和机会。通过比较《保护隐私权法原则,可以看出国家和区域的倡议以及合作领域的潜力。Lerappor最近的人工智能技术进步-特别是生成人工智能的兴起-增加了与数据保护和隐私相关的机会和风险作为一种通用技术,人工智能正在广泛应用并迅速渗透到全球的产品、行业和商业模式中。生成式人工智能的最新进展在很大程度上归功于存储在世界各地的大量训练数据的可用性和使用。与数据一样,人工智能生命周期中的参与者分布在不同的司法管辖区,这强调了全球同步、明确指导和合作努力的必要性,以应对人工智能对隐私的影响所带来的挑战然而,人工智能和隐私政策社区目前倾向于单独解决挑战,没有太多的合作,因此他们的方法因司法管辖区和法律制度而异。例如,抓取个人数据以训练生成式人工智能的做法引发了重大的隐私问题,并因此引起了越来越多的监管关注。然而,关于使数据抓取实践与隐私准则保持一致的实际解决方案的讨论有限。同样,在生成人工智能的发展中,个人数据保护和隐私权的实际实施还没有成为集体深入反思的主题。随着越来越多的国家开始监管人工智能,这些社区之间缺乏合作可能会导致对数据保护和隐私法的实际范围的误解,以及相互冲突和/或重复的要求,这可能会导致监管合规和执法的额外复杂性。随着两个社区考虑对人工智能的机遇和风险的可能应对措施,他们可以通过加强合作,调整政策反应,提高人工智能政策框架与数据保护和隐私框架之间的互补性和一致性,从彼此的知识,经验和优先事项中受益由于他们在历史,个人资料和方法上的差异,人工智能和隐私政策社区可以相互学习近年来,人工智能社区,包括来自学术界、民间社会以及公共和私营部门的人工智能研究人员和开发人员,已经形成了充满活力和强大的网络。人工智能社区中的许多人采取了创新驱动的方法,而隐私社区则普遍采取了更为谨慎的方法,其标志是数十年来实施了长期的隐私和数据保护法。由于长期存在的隐私和数据保护法律,隐私社区通常也具有更成熟的特点,并随着时间的推移而发展,包括各种利益相关者,如监管机构,隐私和数据保护官员,技术专家,律师,公共政策专业人员,民间社会团体和监管技术提供商等。该社区专注于建立隐私保护措施,并在通常复杂和牢固的监管框架内评估风险。尽管存在这些差异,但协同作用仍然存在,合作至关重要。本报告确定了可从进一步协同增效和互补中受益的领域,包括两个政策界之间的关键术语差异它将现有的隐私和数据保护考虑因素映射到经合组织2019年关于人工智能的建议中规定的基于人工智能价值观的原则,以确定需要更密切协调的相关领域。这种映射说明了对隐私和人工智能社区围绕关键概念-包括公平性,透明度和可了解这些差异对于建立可持续的合作行动至关重要。人工智能和隐私社区的参与者已经在国家、区域和全球层面实施了措施,以应对人工智能带来的机遇和风险。该报告概述了国家和地区在人工智能和隐私方面的发展,包括隐私监管机构就隐私法对人工智能的应用以及相关执法行动提供的指导,特别是关于生成人工智能的指导。它发现,虽然已经采取了许多行动,包括隐私执法机构的政策举措和执法行动,但随着全球范围内出现专门针对人工智能的法律,它们可以从进一步的协调中受益凭借其在人工智能、数据保护和隐私方面的国际影响力和实质性专业知识,经合组织似乎是加强该领域协同作用和国际合作领域的关键论坛它可以借鉴这两个领域的既定政策工作,包括1980年经合组织隐私指南(2013年更新)和2019年经合组织人工智能建议(2024年更新)此外,经合组织在2024年成立了一个独特的人工智能、数据和隐私专家组尽管面临挑战,但这项政策工作和专家组内正在进行的活动都表明,广泛而持久的合作以及相互理解是可以实现的。为了为这些合作机会提供一个共同的参考框架,并突出经合组织的独特作用,该报告将经合组织人工智能原则(第一个关于人工智能的政府间标准)与完善的经合组织隐私指南(作为全球数据保护法律的基础)进行了协调。该报告评估了与人工智能和隐私相关的国家和地区举措,并确定了合作,例如在隐私增强技术(PET)领域,这有助于解决隐私问题,特别是关于人工智能算法的人工智能、数据和隐私联合专家组国际审计领域的先进技术-特别是国际审计一般性的经验-关注机会和风险,保护捐赠者和私人生活在多价值技术方面,l'IA是一个在整个世界迅速发展产品、服务和企业模式的门户和门户。一般保险业的进步主要体现在保险业的可供使用性和保险业的利用率上同样,在国际协定的生命周期中,所涉及的法律问题也涉及不同的司法问题,因此需要全球同步,明确方向,努力合作,以消除国际协定对私人生命的影响。总之,国际法共同体和保护个人生命的政策倾向于在没有合作的情况下,在某种程度上,它们对其他国家的司法管辖权和其他国家的司法制度采取了不同的做法。此外,为使保护个人生活方面的重要问题普遍得到重视,并使人们对规则计划产生了广泛的关注,对个人身份进行“刮擦”的做法是一致的然而,关于保护隐私权原则的实践性解决方案的讨论存在局限性此外,在遗传学发展中保护个体受教育者和个人生活权利的实际措施并没有实现集体反思的目标此外,各国对《国际法》的重视程度更高,这些共同体之间的合作也更有利于保护受保护者和个人生活的法律的有效性,这是因为需要克服遵守和适用《国际法》的复杂性尽管两个共同体都设想对国际安全局的机会和风险作出可能的反应,但它们都希望通过相互了解、经验丰富和优先考虑,加强合作,协调政治反应,并改善一方的国际安全局政治干部与另一方的保护捐赠者和私人生活干部之间的互补性和一致性从不同的历史、概况和方法、国际法的共同体和保护私人生活的政策等方面,我们可以学到更多的东西这是一种活力和团结的网络。对于IA社区的众多成员来说,创新是一种进步,但保护隐私生活的社区必须被视为长期存在的理由,以保护隐私和受保护的生活保护私人生活的共同体在时间上取得了进展,以使参与方多样化,其中包括监管者、保护私人生活的责任人和捐助者、技术人员、律师、公共政治专业人员、民间社会团体和监管技术的四人组。Cettecommunautéseconcentresurladamagenplacedeguarantiesenmatièredeprotectiondelavieprivéeetsurl'atténuation为了评估那些有智慧和团结的干部所面临的风险,总的来说,我们应该更加谨慎地考虑到他们可能会在国际法共同体中出现的问题存在差异,存在协同作用,合作至关重要。这种关系确定了协同和互补的领域,并包括两个政治共同体之间主要的不同术语。Ilcomparelesconsiderationsexistantesenmatièredeprotectiondelavieprivéeetdesdonnéesaveclesprincipesfounddéssurlesvaleursdel'IAénoncésdanslaRecommandationde2019del'OCDEsurl'IA,afind'identifierlesdomainesconcernentspourunecoordinationplusétroite.这幅地图说明了保护隐私和国际法概念的不同解释-即公平、公正和可解释性Ilestessentieldecomprendrecesdiffévestrepourmettreenplacedesactionsdecooperationdurables.加强国际审计署的工作和该报告是国家和区域在保护国际法和保护私人生活方面的一次革命,包括保护私人生活规则的主管部门对保护国际法适用的四项指导方针,以及与国际法有关的执行措施。他指出,如果这些措施是在企业中实施的,则应注意负责实施保护个人生活法的主管当局采取的政治举措和实施措施,这些举措和措施将有助于加强对国际法具体规定的措施的协调,使国际法在整个世界中发挥作用由于它具有国际性,并具有国际协定、保护受保护者和保护私人生活领域的专门知识,因此,该组织成为加强该领域的协同作用和国际合作领域的一个重要论坛它可以支持在两个领域进行良好的政治工作,特别是在1980年保护私人生活、2013年生效和2019年生效的OCDE建议、2024年生效的OCDE法律指导原则中此外,到2024年,该组织将组建一个关于国际法、捐助者和保护私人生活的独特专家组,负责审查国际法与保护捐助者和保护私人生活交叉点的问题和政治解决办法,并对两个社区的首要计划人员进行重新安排专家组在这方面的努力、公共政策工作和活动是切实可行的,因为这是一个大规模和持久的合作,也是一个相互理解的合作Afindefourniruncadrederéférencecommunpourcesopportunitésdecoopérationetdesoulignerlerôledistintifdel'OCDE,lerapportalignelesPrincipesdel'OCDErelatifsàl'IA-lapremièrenormeintergouvernementalesurl'IA-surlesLignesdirectricesdel'OCDErelativesàlaprotectiondelavieprivée,whiserventdefondementauxloissurlaprotectiondesdonnéesàl'échellemondiale.报告评价了国家和区域关于保护隐私和确定合作领域的倡议,指出保护关于国际保障、受保护人员和私人生活的联合专家组发挥着至关重要的作用,在尊重私人生活和保护受保护人员的规则的范围内,明确并简化国际保障的创新、技术和规则的具体可能性最近的人工智能进步,包括2022年底生成人工智能的兴起,带来了数据治理和隐私挑战。围绕输入和输出数据的使用、数据质量和数据可用性来训练人工智能模型,困难的问题已经浮出水面即如何保护所有相关方的权益,包括这些模型和系统收集、使用和产生的数据所涉及的个人与以前的人工智能系统相比,神经网络和深度学习的最新进展导致了更大,更先进和计算密集型的人工智能模型和系统。2017年,一组研究人员引入了一种名为“transformers”的神经网络架构,这是一项关键的概念突破,支撑了人工智能语言模型和生成人工智能的重大进展。这些进步集中在“基础模型”上人工智能计算基础设施的进步-例如图形处理单元(GPU)-以及数据的可用性和质量,也是推动机器学习技术飞跃的基础,因为它们形成了基本的人工智能生产函数:算法,数据和计算资源(OECD,2024[1])。随着新的机器学习技术的兴起,特别是生成式人工智能应用的兴起,人们迫切需要考虑与人工智能系统的培训和使用相关的隐私影响,并呼吁该领域的不同政策社区-包括政策制定者,研究人员,民间社会,行业以及监督和执法机构-通过交叉施肥来神经网络通常被称为“黑匣子”。“黑匣子”一词反映了理解人工智能系统如何做出决策的巨大挑战,这一挑战在基于神经网络的方法中尤为明显。经合组织正在帮助建立和加强人工智能和隐私社区之间的协同作用,借鉴这两个领域的既定政策工作该分析得出的结论是,尽管面临挑战,但人工智能的创新、技术和监管发展主要与隐私和个人数据保护规则相兼容,甚至可以加强这些规则。通过识别风险和机遇,将现有的经合组织隐私准则映射到人工智能原则,评估国家和区域倡议,并为未来的发展提供关键的政策考虑这些努力有助于在经合组织及其他组织开展国际合作,促进共同理解,帮助制定在全球成功实施人工智能和隐私规则的路线。为了应对最近先进的机器学习系统和生成式人工智能的兴起,人工智能以及隐私和数据保护社区的许多人围绕应用于高风险领域的人工智能系统的政策行动和规则也出现在越来越多的司法管辖区。最著名的例子可能是欧盟的《人工智能法案》(“欧盟人工智能法案”)概述了基于风险的人工智能系统使用监管方法,包括高风险领域,例如对欧洲价值观的威胁,如隐私和数据保护(欧洲议会,2024[2])。G7数字和技术部长也通过G7广岛生成人工智能进程(经合组织,2023[3])将人工智能置于其议程的重要位置,强调保护人权的必要性,包括隐私权。个别国家也采取了行动。例如,2023年美国关于安全,可靠和值得信赖的人工智能开发和使用的行政命令指示公共部门实体建立人工智能安全和保障,隐私保护,公平和公民权利,消费者和工人权利以及创新和竞争的新标准(白宫,2023[4])。在制定人工智能特定法律、法规和标准的同时,越来越多司法管辖区的监管机构已开始应用现有的隐私和数据保护法律(以下简称“隐私法”以解决处理用于训练人工智能系统的个人数据所多个隐私执法机构(PEAs)1宣布推出人工智能行动计划,包括成立专门的人工智能单位。这些国家举措得到国际隐私监管机构的支持,例如七国集团数据保护和隐私监管机构圆桌会议于2023年6月发表的公开声明,以及然而,由于司法管辖区和法律制度之间的差异,人工智能和隐私政策社区在很大程度上仍然独立地应对人工智能和隐私挑战。随着越来越多的国家开始监管人工智能,这可能会导致对数据保护和隐私法的实际范围的误解,以及相互冲突和/或重复的要求,这可能会导致遵守和执行负责任的政策和法规的额外复杂性。当两个社区考虑对人工智能机遇和风险的可能应对措施时,他们可以通过加强合作,调整政策反应,提高人工智能政策框架与数据保护和隐私框架之间的互补性和一致性,从彼此的知识,经验和优先事项中受益存在涉及两个不同政策群体的平行工作流并不罕见,也不一定有问题。每个社区都带来了独特的视角,可以导致更丰富的政策辩论和解决办法。然而,人工智能作为一种技术的快速发展及其在各部门的扩散,给不同的政策界带来了压力,要求他们迅速制定解决方案,而孤岛的存在增加了政策反应不一致的风险,甚至由于术语和方法的差异而产生误解。就语言达成共识往往是有效合作的先决条件。在这方面,经合组织在促进人工智能和隐私领域关键术语的标准化方面发挥了重要作用也就是说,2019年经合组织关于人工智能的建议包括一个被广泛引用的人工智能系统定义,该定义于2023年底进行了修订,以确保它反映和解决重要的技术和政策发展,特别是在生成人工智能方面,以及对安全,信息完整性和环境可持续性的高度关注。该建议影响了世界各地的人工智能政策和法律框架,包括欧盟人工智能法案,欧洲委员会以及美国国家标准与技术研究所(NIST)等美国贸易和技术委员会(TTC)也在积极合作,并于2023年5月31日发布了欧盟-美国人工智能通用术语和分类的初稿,其中包括与人工智能和隐私社区相关的术语(欧盟委员会和美国TTC,2023[5])。经合组织人工智能治理工作组(WPAIGO)和经合组织数据治理和隐私工作组(WPDGP)有能力支持现有的国际合作努力。作为经合组织人工智能专家网络(ONEAI)的一部分,经合组织人工智能、数据和隐私专家组(以下简称“专家组”)成立于2024年,也有助于将两个社区聚集在一起,促进协同效应和互补性。这些经合组织工作组代表和专家组成员为本报告和更广泛的工作贡献了分析和见解经合组织的隐私和数据保护社区已经建立,拥有强大的“工具箱”,与人工智能对个人权利和自由带来的风险相关。该工具箱包括各种法律文书,特别是1980年通过并于2013年修订的经合组织理事会关于保护隐私和个人数据跨界流动指导方针的建议(下称这个工具箱的元素已经在几个司法管辖区使用,为负责任地使用人工智能的框架提供信息。虽然与值得信赖的人工智能相关的框架相对较新,但它们在全球范围内引起了为了跟上技术进步的速度,人工智能政策界正在快速开发和实施框架,包括人工智能风险管理和问责制,减轻偏见,促进人工智能系统输出的可解释性,以及提高人工智能系统生命周期的鲁棒性等。例如,经合组织快速发展的人工智能、数据治理和隐私政策格局要求这些政策社区之间加强协作合作不仅致力于解决人工智能的隐私风险,还致力于优化和增强人工智能对社会的集体利益,包括释放人工智能的创新潜力,同时保护隐私和个人数据。人工智能和隐私方面的国际合作需要确保适用于人工智能和隐私的法律、技术和运营框架的长期互操作性。这将使政策制定者和决策者能够在各自的政策框架中利用共同点、互补性和趋同因素,或者相反,找出可能阻碍共同立场或合作发展的绊脚石。这些合作努力可以帮助评估人工智能和隐私建议是否需要更新,以反映人工智能和隐私社区之间的协同作用。在隐私方面,OECD隐私指南于1980年通过,并于2013年修订[OECD/LEGAL/0188]。它们是经合组织隐私工作的基石经合组织隐私准则得到了其他与隐私和人工智能问题合作相关的经合组织旗舰法律文书的补充,包括《关于实施保护隐私法律的跨境合作的建议》(经合组织,2007年[6])、《关于加强数据获取和共享的建议》(经合组织,2021年[7])以及随后在WPDGP主持《政府查阅个人资料声明》私营部门实体[OECD/LEGAL/0487]在出于国家安全和执法目的访问存储在人工智能系统中的个人数据时也是相关的。近年来,WPDGP对隐私和人工智能进行了分析,特别是关于隐私增强技术(PET)(OECD,2023[8])。国际合作是经合组织隐私准则(第六部分)的核心原则,也是WPDGP议程中日益增长的工作领域,包括需要澄清基线隐私框架与包括人工智能和新技术在内的经合组织隐私准则是技术中立的,没有明确涵盖人工智能或其他特定数字技术带来的隐私挑战。与此同时,2021年对该建议的审查强调了需要解决个人数据处理可能产生的偏见和其他有害后果,同时又不阻碍创新并阻止这些技术的有益使用(经合组织,2021[9])。其中一个主要主题是人工智能算法的“可解释性”对于确保准确性,公平性和问责制的重要性。专家们还指出,人工智能增加了对大型数据集的需求,这对于构建能够产生更准确输出的人工智能系统至关重要,但也增加了与隐私相关的风险。此外,专家们强调,大多数人工智能原则都笼统地提到了隐私,但没有在人工智能的能力与人工智能特有的隐私挑战的性质之间建立明确的联系,这可能会使人工智能的重点从隐私转移到人工智能。他们的总体建议是,额外的指导可能有助于确保当前的AI原则充分解决与隐私相关的问题。经合组织隐私准则的遵守者当时同意这些观点。他们指出,经合组织隐私准则的技术中立语言是其适应性的关键,并决定不修改基本原则以考虑人工智能(经合组织,2021[9])。相反,坚持者决定,这些与人工智能具体相关的重要事项可以在与2019年刚刚通过的经合组织人工智能建议相关的机制和指南中解决。本报告中进行的分析以及专家组的工作也展示了如何满足与人工智能社区进一步合作的要求。自2016年以来,经合组织通过其人工智能治理工作组(AIGOOECDAI,2023[10])在人工智能政策和治理方面开展了大量工作,包括于2019年5月通过了经合组织人工智能理事会的建议,并于2024年更新经合组织人工智能原则包括适用于所有利益相关者的五项原则AI原则有46个成员,强调国际合作,包括隐私和问责制领域。经合组织人工智能原则的全球意义怎么强调都不过分。自通过以来,世界各国已采取行动,通过国家人工智能战略以及软法律和硬法律将这些原则编入法典。其中包括几项人工智能倡议,包括建立人工智能办公室或人工智能专员,以指导国家或地区法律、法规和标准的实施,例如欧盟人工智能法案和加拿大美国关于安全、可靠和值得信赖的人工智能开发和使用的行政命令还强调了联邦贸易委员会在确保人工智能市场公平竞争并确保消费者和工人免受人工智能伤害方面的作用一些司法管辖区也在探索现有国家PEA在实施人工智能相关法律和法规方面的作用。探索现有数据保护参与者在实施人工智能框架中的作用可能并不令人惊讶,考虑到经合组织人工智能原则等基于价值观的原则补充了隐私等领域的现有经合组织标准,隐私和数据保护是该建议书的核心组成部分经合组织人工智能原则(OECD,2019[11])中特别提到了三项原则.原则1.2在整个人工智能系统生命周期中尊重法治、人权和民主价值观,包括公平和隐私。.原则1.4.稳健性、安全性和安全性要求人工智能参与者确保人工智能系统的可追溯性,包括与人工智能系统生命周期中的数据集、流程和决策相关的可追溯性,并且人工智能参与者应在人工智能系统生命周期阶段应用系统性风险管理方法,以解决隐私、数字安全、安全和偏见等风险。.原则2.1.投资人工智能研究和开发需要政府考虑公共投资,并鼓励私人投资具有代表性并尊重隐私和数据保护的开放数据集。在AIGO和ONEAI的工作中,许多工具也提到了隐私例如,经合组织的人工智能系统分类框架已被应用于隐私和数据保护至关重要的情况,包括评估英国和澳大利亚的医疗技术应用。AI和隐私社区本报告提到“人工智能社区”,包括人工智能研究人员和开发人员,以及来自学术界、民间社会、公共和私营部门的成员,近年来已经发展成为一个充满活力和强大的网络,专注于推进人工智能的高技术方面以及全球人工智能治理,以促进其负责任的这一群体受到既定或新兴规则的约束,包括人工智能法律、监管框架和标准,这些规则在世界许多地方仍在不断发展。人工智能社区中的许多人都采取了创新驱动的方法,包括随着技术飞跃和新应用的发现,探索基本上未知的领域相比之下,“隐私社区”的特点可能是更加成熟,尽管其概况随着时间的推移发生了巨大变化,包括各种各样的利益攸关方,这一广泛的全球社区在很大程度上是由全球几十年来发展起来的越来越多的监管框架所塑造的因为它在这种成熟的环境中运作,隐私社区采用的方法通常可以被描述为比创新驱动的方法更谨慎,而创新驱动的方法往往会影响人工智能社区。这些社区对人工智能和隐私问题的不同处理方式具有影响。虽然人工智能社区可能受益于其敏捷性和创新精神,但它可能缺乏对技术进步、监管实施和人工智能特定规则执行的监管影响的经验和深入理解。与此同时,隐私社区,凭借其丰富的监管经验,可能缺乏必要的技术知识,以充分理解个人数据用于设计、开发和部署AI系统。这种技术差距可能导致过于保守的方法,可能会阻碍创新,因为人们担心使用个人数据来训练和测试人工智能系统所带来的隐私风险在这些社区之间建立桥梁不仅有助于遵守新兴的人工智能法律,还可以确保人工智能的发展在现有的数据保护和隐私框架内继续蓬勃发展。在制定保护社会价值观而不阻碍技术进步的法规方面,合作方法至关重要。AI演员根据OECDAI原则,“AI参与者”一词人工智能系统的生命周期通常涉及几个阶段,包括:规划和设计;收集和处理数据;构建模型和/或使现有模型适应特定任务;测试,评估,验证和验证;可供使用/部署;操作和监控;以及退休/退役。这些阶段通常以迭代的方式发生,不一定是连续的。AI系统退出操作的决定可能发生在操作和监控阶段的任何时候。生成式人工智能(GenerativeArtificialIntelligence,AI)系统基于模型训练过的数据,根据提示创建新的内容(例如文本、图像、音频或视频)。生成式AI基于机器学习(MachineLearning,ML),自20世纪50年代以来逐渐发展起来ML模型利用深度神经网络来模拟人类智能(即通过模仿人脑中神经元的信息处理方法是暴露于数据(训练)并找到模式,然后用于处理以前看不见的数据。这允许模型基于概率推断来概括(即,而不是因果关系的理解。与人类不同,人类只从几个例子中学习,深度神经网络需要数十万,数百万甚至数十亿,这意味着机器学习需要大量的数据(Lorenz,Perset和Berryhill,2023[12])。“隐私”和“数据保护”这两个术语在人工智能政策和隐私政策社区中可能有不同的含义,这也是因为“数据保护”的概念,作为“在处理个人数据方面保护个人”的缩写,本身就经常被误解。人工智能政策界的一些成员可能特别认为然而,正如隐私当局在人工智能系统上的工作所表明的那样,隐私和数据保护超出了安全问题,正如经合组织报告(OECD,2023[14])和全球隐私大会决议(GPA,2023[15])中所解释的那样。然而,人工智能社区将隐私和数据保护视为一个定义明确的“盒子”来“勾选”的风险(经合组织,2023[16]可能会导致低估隐私在解决人工智能造成的许多人权影响方面的作用。有效的协调需要对每个领域的术语有共同的理解。因此,政策制定者,特别是监管机构在隐私领域使用的基本概念、测试和规则更重要的是,这个社区本身正在走向一个人工智能监管正在实践中实施的时代,并且可能与现有的隐私和数据保护规则重叠和补充。人工智能和隐私社区之间需要更密切的协调已经有一段时间了。但是,随着包括语言模型在内的生成式人工智能系统的出现,这种需求变得更加明显和紧迫,这些系统基于大量训练数据中发现的模式生成各种形式的内容(例如文本)。虽然生成式人工智能在各个行业和部门创造了新的机会,包括代码开发,创意产业和艺术,教育,医疗保健等(经合组织,2023[13]但这项技术也带来了新的风险,并放大了现有的风险,包括歧视,两极分化,不透明的决策或潜在的社会控制。经合组织通过其关于“推进人工智能的问责制:在整个生命周期中治理和管理风险以实现可信赖的人工智能”(经合组织,2023[14])及其“人工智能系统分类框架”(经合组织,2022[17])的论文,为分析工作做出了贡献,并提高了人们对人工智能系统在隐私和数据保护方面所带来的机遇和风险的认识,包括生成人工智能所带来的机遇和风险。人工智能系统生命周期和人工智能系统的分类都可以为讨论提供有用的结构,因为隐私挑战的性质将根据生命周期的阶段和所涉及的人工智能系统的类型而有所不同。下文探讨了其中一些机会和风险。虽然人工智能对隐私可能造成的威胁存在许多问题,但新兴技术应用也为加强隐私保护带来了新的机会(经合组织,2024[1])。这些加强了经合组织最近和正在进行的关于新兴隐私增强技术(PET)的工作(经合组织,2023[8])。PET是指一系列数字技术和技术,这些技术和技术可以收集、处理、分析和共享信息,同时保护数据的机密性和隐私。尽管许多新兴的PET仍处于发展的早期阶段,但其中一些具有巨大的潜力,可以推动人工智能中的隐私设计原则并促进信任,包括在跨组织的数据共享和重用方面。例如,研究人员正在开发不同的加密数据处理工具,这些工具允许数据在使用时保持加密,从而有助于在整个人工智能系统生命周期的各个阶段增强隐私(OECD,2023[18])。这些技术包括同态加密和可信执行环境(TEE),其中AI生命周期中的参与者在未经许可的情况下无法查看底层数据(O'Brien,2020[19];Mulligan等人,2021[20])。其他技术允许对那些执行任务的人不可见或不可访问的数据执行分析任务(联合和分布式分析)。例如,联邦学习使开发人员能够使用自己网络中的数据训练模型,然后将其传输到中央服务器将数据组合成一个改进的模型,与所有用户共享(MIT,2022[21])。联邦学习解决方案开始在医疗保健领域实施,并取得了积极的成果。尽管如此,确保主要和次要用途的健康数据的可访问性对于人工智能在医疗保健中的发展和有效使用仍然其他技术通过改变数据、添加“噪音”或删除识别细节,在训练和使用阶段都增加了隐私保护在这些“数据混淆技术”中,“差分隐私”算法确保当从训练数据集中添加或检索关于个人的单点数据时,AI系统的输出变化最小(哈佛,2024[22])。合成数据技术作为PET方法也引起了极大的兴趣。合成数据是通过计算机模拟、机器学习算法和统计或基于规则的方法生成的当数据稀缺或包含机密或个人身份信息时,它们可用于训练AI。其中包括少数民族语言的数据集;训练计算机视觉模型以识别训练数据集中很少发现的物体;或自动驾驶系统中不同类型的可能事故的数据(经合组织,2023[23])。然而,挑战依然存在。与匿名化和匿名化类似,合成数据可能容易受到重新识别攻击(Stadler,Oprisanu和Troncoso,2020[24]),并且“如果源数据中的记录出现在合成数据中,则仍然可以进行重新识别”(OPC,2022[25])。此外,一些研究表明,在大量合成数据上训练的模型可能会随着时间的推移而崩溃(Shumailov,2023[26])。换句话说,虽然合成数据可以帮助填补一些空白并改善知识,但不能指望它完全取代真实世界的数据。机器非学习是机器学习的另一个新兴子领域,它将赋予个人对个人数据的控制权,即使在数据被共享之后。事实上,最近的研究表明,在某些情况下,即使个人的数据已从数据库中删除,也可以高精度地推断出个人的数据是否用于训练模型。机器非学习旨在应对这一挑战,并使个人有可能撤回对收集和处理其数据的同意,并要求删除数据,即使在数据被共享之后(Tarun,2023[27])考虑到PETs在实现数据共享和下一代数据经济模型方面的许多承诺重点关注公共和私营部门(包括卫生和金融)中已建立和新兴的人工智能相关用例。未来的工作还将探讨政府和监管机构如何最好地激励PET中的创新,并讨论如何衡量和比较不同技术的有效性和影响。技术突破推动了人工智能生成系统的发展,这些系统非常先进,用户可能无法区分人类和人工智能生成的内容。虽然这些发展在技术层面上令人印象深刻,但训练大型人工智能模型所需的大量数据,包括通过各种手段获取的越来越多的个人数据,引发了有关隐私和数据保护风险的严重问题。生成式AI在其开发和部署阶段都存在隐私风险。许多开发人员依赖于可公开访问的来源来获取训练数据,其中通常包括在线共享的个人数据然而,仅仅因为数据是可访问的,并不意味着它可以被免费收集并用于训练AI模型。与任何数据处理活动一样,为训练人工智能系统而收集个人数据也要遵守经合组织隐私准则和全球数据保护法中规定的隐私原则这些原则规定,个人数据必须在数据当事人知情的情况下,以合法和公平的方式取得,而数据的任何进一步使用不得与原来的目的相抵触。虽然个人可能已经同意分享他们的数据,其他用途,这些不一定包括训练人工智能模型(GPA合作工作组,2023年[28])。最近的研究表明,生成式人工智能模型实际上能够从大量非结构化文本(例如,公共论坛或社交网络帖子)具有高准确性,但成本较低(RobinStaab,2023[29])。这可能导致基于性别、种族或年龄数据的推断,加剧有害偏见和歧视的风险。此外,一些早于生成式人工智能模型的研究已经表明(AhmedSalem,2018[30]),去身份化在历史上被用来在使用数据和保护人们在某些情况下,可以通过分析包含原始训练数据的模型的行为来重建和去匿名化原始训练数据除此之外,数据处理本身缺乏透明度,可能违反经合组织《隐私准则》中的因此,鉴于人工智能模型能够“记忆”大量训练数据,基于文本的生成人工智能工具背后的大型语言模型会在相关人员不知情的情况下收集,使用和重新使用个人数据(HannahBrown,2022[31])。人工智能系统,特别是生成式人工智能,也可能与个人访问、更正和在必要时删除其个人数据的权利(也称为“个人参与原则”)存在冲突在使用个人数据来训练机器学习模型的情况下,删除或纠正这些数据可能会很复杂,例如,因为它们需要额外的资源来重新训练模型。此外,当训练数据包括来自互联网的非结构化信息时,在生成人工智能模型的背景下确保这些权利可能很困难。在非结构化数据集中识别与个体相关联的数据点可能具有挑战性并且需要大量资源。与用户的交互和自主自学习模型的反馈回路可能会导致模型隐私问题源于这样一个事实,即通过推断产生的这些新数据可能会泄露个人尚未披露或不准确地归因于个人的个人信息。这些各种形式的误导性内容也可能导致安全漏洞(Solove,2024[32]),特别是当人工智能系统部署在特定环境中时,例如执法,医疗,教育或就业。由此产生的一个问题是,个人的隐私权是否经过适当调整,以解决事后的这些关切。例如,如果“幻觉”包括不准确的信息,包括人工智能生成的个人数据,个人是否有权更正和/或删除他们的如果从人工智能模型中识别和删除特定数据集在技术和逻辑上都非常复杂,以至于在实践中无法行使纠正权,那么是否应该删除整个人工智能模型,包括有关的个人数据?正如这个例子所示,在目前的技术水平下,仍然很难完全理解隐私风险和将隐私法应用于AI模型的后果。..大规模和大范围地放大错误信息和虚假信息,特别是通过创造人为内容,使人们误认为是真实内容;.人工智能模型生成非法图像,如伪造的儿童性剥削材料(例如,.有害的偏见和歧视日益严重;.隐私和数据治理的风险,在训练数据层面,在模型层面,在数据和模型层面的交叉点,或在人机交互层面;.由于大型模型的不透明性和复杂性,透明度和可解释性面临挑战.无法质疑模型的结果;以及,.通过泄露或推断私人信息等方式侵犯隐私。经合组织一直致力于识别与人工智能系统相关的真实和潜在风险,包括其工作流程中的生成性人工智能。以下列出了一些风险:人工智能生成的一些风险知之甚少,但如果它们成为现实,将是非常有害的,例如,导致系统性的,延迟的伤害,如嵌入式和永久性的偏见和劳动力中断等,以及集体剥夺权力(Lorenz,Perset和Berryhill,2023[12])。例子包括对社会群体表现出负面情绪的模型,将职业与性别联系起来(Weidinger,2022[33])或表达对特定宗教的偏见(Abid,2021[34])。虽然有些风险被确定为与隐私明确相关,但有些风险涉及隐私社区已经解决的主题,而这些风险不一定被人工智能社区确定为涉及“隐私”(例如可解释性,透明度,自决,挑战自动决策过程的输出等)。在深入研究这些问题之前,重要的是要承认,虽然人工智能和隐私社区的措施和工具可以帮助减轻使用人工智能系统造成的已知伤害,但它们在解决故意恶意使用该技术方面可能存在局限性。这凸显了两个社区之间更广泛合作的必要性,以调查,预防和减轻人工智能的潜在滥用。生成式AI提出的隐私和数据保护问题已迅速成为许多PEA关注的核心领域PEAs在国家一级或在区域或全球合作网络的范围内解决这些问题,这些合作网络在此必须特别指出隐私监管机构网络最近采取的三项举措,下文将概述国家和区域举措(第四节)。2023年6月,G7数据保护和隐私当局圆桌会议(“G7DPA圆桌会议”)发布了一份关于生成式人工智能的声明(G7,2023[35]),从隐私和数据保护的.处理与火车模型相关的个人信息(特别是未成年人和儿童的个人信息)的法律权力.·安全保障措施,以防止可能泄露最初在用于训练模型的数据库中处理的个人信息的威胁和攻击;.缓解和监控措施,以确保生成式人工智能工具生成的个人信息是准确和非歧视的;.透明度措施,以促进生成人工智能工具操作的开放性和.采取技术和组织措施,确保受这些系统影响或与这些系统互动的个人能够行使其权利,例如删除或不受自动决定的影响;.问责措施,以确保人工智能供应链中的参与者承担适当的责任;.将个人数据的收集限制在完成指定任务所必需的范围内。G7DPAs敦促科技公司在意大利开发使用生成式AI的AI系统和服务时,密切关注DPAs的法律要求和指导。七国集团民主党人还强调,设计、开发和部署人工智能产品和服务(包括生成式人工智能)的人必须承认和保护隐私和其他人权。不久之后,在2024年1月29日,经过事实调查,意大利PEA正式通知该公司存在GDPR违规行为(Garanteperlaprotezionedeidatipersonali,2024[36])。加拿大隐私专员办公室(OPC)、不列颠哥伦比亚省信息和隐私专员办公室、魁北克信息委员会和艾伯塔信息和隐私专员办公室也联合对OpenAI的ChatGPT(加拿大隐私专员办公室,2023[37])进行调查。2023年8月24日,全球隐私大会(GPA)国际执法合作工作组(IEWG)成员的12个国际PEA通过了一项联合声明,以解决社交媒体平台和其他可公开访问的网站上的数据抓取问题(GPA国际执法合作工作组,2023[28])。该组织指出,网络抓取引起了严重的隐私问题,因为这些技术可以被利用,包括通过将数据转售给第三方网站(包括恶意行为者)、私人分析或情报收集来赚钱。联合声明:i)概述了与数据抓取相关的主要隐私风险;ii)规定了社交媒体公司(SMC)和其他网站应如何保护个人的个人信息免受非法数据抓取,以满足监管期望;iii)规定了个人可以采取的措施,以最大限度地全球隐私大会GPA第45届会议于2023年10月20日在关于生成式人工智能系统的决议(GPA,2023[15])中重申了这些担忧。在这一具有里程碑意义的决议中,GPA认可了一系列数据保护和隐私原则,作为生成式人工智能系统开发、运营和部署的核心要素,包括:.处理的法律依据.用途说明和使用限制;.数据最小化;.准确性;.透明度;.安全;.设计和默认隐私.数据主体的权利.问责在其他调查结果中,GPA强调了协调数据最小化和目的限制原则的困难如上所述,PEAs社区在应对生成AI中的隐私风险方面一直很活跃,强调迫切需要反思隐私框架与一般可信赖AI规则之间的相互作用。一方面,隐私和数据保护社区采取了行动,另一方面,人工智能的拟议法规(如欧盟人工智能法案)的兴起,这些框架将如何结合在一起,即拟议的人工智能立法将在完善的隐私和数据保护规则以及监管机构的执法行动中进入可酌情设想共同监管办法,以避免不同监管框架下的要求重复和重叠。特别是在欧盟,《欧盟人工智能法案》强调了明确法规与《通用数据保护条例》(GDPR)相互作用的必要性。例如,GDPR保护个人免受自动决策(ADM)和分析形式的影响已经被法院和监管机构应用了几年,从详细的透明度义务到应用公平原则以避免歧视情况和ADM案件中有效同意的严格条件(BarrosVale,2022[38])。其他研究说明了一些PEA如何在其决策中考虑基本权利,这是目前正在讨论的许多AI法规中概述的评估义务的相关方面(Grazia,2017[39])虽然这些先例提供了通过ADM判例来加强或澄清《人工智能法》规定的义务的机会,但重叠也可能成为政策制定者和立法者混淆的根源,并在遵守方面产生一些不明确性。对于中小企业等资源有限的参与者来说,这一点尤其如此,他们无法理解人工智能与数据保护和隐私规则在实践中的相互作用。全球范围内,PEAs在人工智能领域已经采取了许多执法行动,这表明大部分人工智能实践已经受到严格的监管审查,因此迫切需要将两个社区结合起来,以确保不同立法背后的政策目标都得到满足。与此同时,为了充分释放生成式人工智能的潜力,大量、多样和相关的数据对于有效地训练模型更好地访问数据使AI模型能够更好地执行,因为它们能够在迭代过程中从示例中同时,具有多样性和高-高质量的数据(例如准确性、完整性、一致性、可靠性、有效性、及时性)是构建值得信赖的算法和增强AI模型性能的关键。在这个周期中,流畅和高效的数据流对于优化人工智能模型的功能至关重要,确保持续交换信息,以持续学习和改进这些模型。此外,来自各种来源的训练数据的可用性在这方面,越来越多的人表示担心的是,全球范围内正在采取更多的跨境数据流动壁垒,包括个人和非个人数据,这增加了数据可能变得更难获得(或可能限于特定区域或国家)的风险,以开发人工智能驱动的工具。这些障碍从根本上说并不是新的,并且已经在经合组织的工作背景下进行了部分分析,以推动国际政策讨论,以充分利用跨境数据流的潜力,在数据自由流动的旗帜下,信任(DFFT经合组织,2023[40])。为此,必须优先开展国际合作,调整政策应对措施,以促进信任和数据交换。通过利用共性和融合领域,隐私和人工智能社区可以解决可能阻碍人工智能广泛、合法和成功部署的障碍与此相关的是,为了使数据能够获得并产生最有效的影响,数据必须能够适当地获取。这意味着鼓励公共部门和私营部门的组织之间更好地协调、获取和共享数据这些方面已在导致通过经合组织关于加强数据获取和共享的建议(经合组织,2021[7])的工作背景下得到解决。在这方面,越来越多的举措正在出现,以确保数据的可用性,同时保护隐私,这是值得探讨的。例如,这些措施包括监管沙箱和/或数据中介机构(如数据信托或数据合作社)的参与,以促进人工智能经济中负责任的数据共享,这在越来越多的隐私立法(如新加坡的PEA)中提供2019年关于人工智能的建议中设定的经合组织人工智能原则,并于2024年更新,可用作分析网格,与2013年修订的具有里程碑意义的1980年隐私指南中设定的隐私原则进行比较。经合组织的人工智能原则分为两类:1)五项基于价值的原则,作为政府制定人工智能战略和政策的指导,以实现可信赖的人工智能,这些原则也可供公司和人工智能开发人员使用;2)对政府的国家政策提出五项建议,使人工智能生态系统造福社会(经合组织,2019[11])。这一映射旨在确定人工智能与隐私和数据保护社区之间的优先合作领域,并首先分析经合组织人工智能建议中五项基于价值观的原则中使用的关键术语围绕向政府提出的五项建议进行的分析,其中包括促进充满活力的人工智能生态系统的行动,可以在随后的分析中涵盖这一摸底工作有助于查明:.两个群体在经合组织内外开展联合工作的政策领域可产生巨大的互利;.协同增效作用低或不存在的政策领域;.两个政策群体之间可能妨碍互操作性和协调的术语差异。这一摸底工作参考了从经合组织隐私准则中产生的既定隐私和数据保护原则。其中一些既定原则,例如数据最小化以及与自动决策有关的权利,在经合组织隐私准则中似乎没有明确提及,但通过实施经合组织隐私准则,事实上已成为隐私政策中最先进的原则。将隐私考虑因素映射到经合组织人工智能原则的方法选择绝不会将一个框架纳入另一个框架由于这项分析侧重于人工智能系统背景下的隐私,经合组织人工智能原则似乎是比较分析的适当起点此外,越来越多的数据保护法律现在包括与人工智能相关的额外条款(例如,自动化决策的限制、通过设计/默认原则明确纳入隐私),在分析国家一级不同框架的交叉点时必须加以考虑。经合组织人工智能建议书促进使用创新和值得信赖的人工智能,并尊重人权和民主价值观,包括隐私和数据保护。《关于人工智能的建议书》包括人工智能系统的定义,目前该系统已被用于世界各地的人工智能框架,如《欧盟人工智能法案》和欧洲委员会的《人工智能、人权、民主和法治框架公约》根据这一定义,人工智能系统是“一种基于机器的系统,对于显式或隐式目标,它从接收到的输入中推断出如何生成输出,如预测,内容,建议或可能影响物理或虚拟环境的决策。不同的人工智能系统在部署后的自主性和适应性水平各不相同”(经合组织,2023年更新[41])。经合组织在隐私方面,隐私社区有先进的方法来评估人工智能在特定情况下对隐私权的影响,以及如何以尊重隐私原则和法治的方式平衡不同的权利和集体利益,包括人工智能系统对社会的效用对于某些生成人工智能风险,特别是那些与系统性的、对社会的延迟危害有关的风险,或者自主生成人工智能代理的风险(Lorenz,Perset和Berryhill,2023[12]),隐私和人工智能社区在如何解决这些问题方面存在一定程度的不确定性,因此随着具体情况、风险和政策解决方案的出现,他们对合作有很高的兴趣。表2概述了人工智能和隐私政策社区之间协调可能带来的好处和相关性的.........两个政策界在术语上的差异可能妨碍相互理解和进一步协调。表3列出了人工智能和隐私政策社区之间通常具有不同含义的关键概念,以提高对这些可能变化的认识,从而提高社区之间的相互理解并优化合作行动。性护集中包含的个人信息,以及与人工智能模型/系统泄漏或推断导致的个人数据丢失相关的风险。这一类别有时被称为“人类与地球”,涵盖广泛的利益和风险,包括对环境的危害、对就业的影响以及对弱势群体的危害。除了风险之外,原则1.1还关注人工智能对社会的积极影响,包括改善医疗保健和应对气候变化。虽然隐私和人工智能社区之间的合作可以带来积极的环境成果,例如交通优化或废物管理等智能城市举措,但在保护环境方面,隐私和人工智能政策社区环境保护虽然至关重要,但在很大程度上不属于隐私和数据保护法规的范围,除非将人口数据与环境数据进行交叉引用,以了解气候变化对各个群体的影响。关于数据保护,自由和环境之间的重叠的讨论似乎正在进行中,目前以更具前瞻性而不是规范性的方式(CNIL,2023[42])。此外,例如,全球隐私大会提到了违反数据最小化原则(GPA,2023[15])不分青红皂白地收集训练数据所造成的环境危害。人工智能对经济福祉的积极影响,例如通过特定任务的自动化降低产品和服务的成本,或改善与健康相关的结果,也不是数据保护监管的直接重点。然而,要实现这些好处,可能需要在保护隐私和其他人权之间取得平衡例如,人工智能系统的准确性提高但是,更高的准确性可能会与隐私数据保护权利的权衡相结合,因为需要更大量和更高质量的训练多年来,公共行政机构和法院一直在处理这些权衡问题,运用宪法机制解决具体案件中相互竞争的权利和利益之间的冲突,例如,在一些经合组织成员国使用这一平衡工作也在某些立法中得到承认。例如,GDPR(第1条第3款)指出,“个人数据的自由流动不应因与保护自然人有关的个人数据处理的原因而受到限制或禁止”(欧盟,2016[43])。在讨论如何平衡不同的集体利益(例如人工智能带来的更好的公共卫生或安全)与人工智能系统对某些人权的日益干涉时,隐私和人工智能社区之间的协同作用似乎很高这一途径的一个主要例子是在抗击COVID-19疫情的同时,在尊重数据保护和隐私原则的情况下,集体努力利用数据驱动工具,包括人工智能。原则1.1还包括对弱势群体的伤害。经济位移不是数据保护法的直接焦点,人工智能对就业的影响不在数据保护法规的直接范围内然而,常见的隐私工具,如隐私管理计划(PMP要求数据控制者根据隐私风险评估制定适当的保护措施,“风险”是一个广泛的概念,考虑到对个人的广泛可能伤害(经合组织,2023[44])。同样,保护弱势群体的个人信息,特别是儿童,是WPDGP的核心重点(OECD,2021[45]OECD,2021[46]OECD,2021[47]OECD,2022[48])。此外,预计数字脆弱性的概念将得到进一步讨论,并具有前瞻性。这是老年人,残疾人或患者的监测情况,例如脑计算机接口(BCI)被用于调节大脑活动以进行认知障碍管理,或者与智能可穿戴设备的使用增加有关,以监测和检测工作场所员工的职业身体疲劳。原则1.1所涵盖的大多数利益和风险并不是隐私和数据保护法的核心焦点。然而,在适用隐私和数据保护法时,法院和当局在评估其对隐私和数据保护权的干预是否相称时,往往会考虑人工智能应用的社会效益,包括改善公共健康或安全。两个社区之间的合作可以集中在如何提供关于平衡人工智能社会效益和风险的指导,包括隐私权风险。原则1.2分为三个子类别:偏见和歧视,隐私和数据治理,人权和民主价值观(OECD,2023[14])。偏见和歧视是与人工智能相关的重要风险,人工智能社区和隐私社区都对此进行了研究。目前在没有护栏的情况下开发、部署和使用的生成式人工智能,由于这些系统的应用规模和范围巨大,以及它们在开发阶段的输入训练数据,放大了这些风险虽然AI社区和隐私政策社区的目标是一致的,但两个社区研究偏见和歧视的方式不同。偏见和歧视在人工智能政策圈中得到了大量研究,并被认为是生成人工智能的主要问题,这是由于基础模型及其使用的大量训练数据导致的潜在算法偏见的规模和范围增加(OECD,2023[13];Lorenz,Perset和Berryhill,2023[12])。人工智能社区的工作揭示了算法偏差的许多来源(经合组织,2023[14]),包括:历史偏差,陈述偏差,测量偏差,方法和评估偏差,监测偏差和倾斜样本,反馈回路和流行偏差(经合组织,2023[14])。人工智能学者还确定了不同形式的公平或非歧视之间的特征和不相容性,包括机会平等,结果平等或统计平等,以及反事实正义(经合组织,2023[14]由于这些不相容性,创建“无偏见”的人工智能系统极具挑战性。PEAs将非法歧视视为可能导致个人数据处理不公平的负面影响之一,因此是非法的。处理个人数据的合法性是根据可能发生的歧视风险等因素进行在应对新兴技术带来的执法挑战时,对歧视的关注被认为是PEAs最重要的问题之一(OECD,2021,第48页[9])。为了防止基于个人数据使用的歧视,在许多国家,某些类型的个人数据已被指定为敏感数据,因此,其允许的使用可能会受到更多限制,甚至严禁就业决定中的年龄歧视、信贷决定中的性别歧视或政府服务和津贴分配中的政治派别可能就是这种情况可信的AI需要可信的数据。所使用的数据集的质量对于AI系统的最佳性能至关重要。在整个数据收集过程中,可能会包含社会构建的偏见、不准确、错误、代表性过度或不足以及错误。因此,人工智能参与者和隐私倡导者都有很高的动机去寻求高质量的数据集:人工智能参与者热衷于使用最准确的数据来保持结果的可信度和高模型性能,而个人则努力确保人工智能模型不会基于不正确、不完整或不充分的数据产生负面结果。在《经合组织隐私准则》中,数据质量原则是指个人数据与其使用目的的相关性数据越相关,其质量就越高。数据相关性对于生成式人工智能工具至关重要,特别是关于数据中可能包含外源性虚假或误导性信息的问题(OECD,2023[49])。准确性、完整性和及时性也是数据质量概念的重要内容。完整和最新的信息不仅提高了数据的质量,而且提高了数据的准确性,减少了有害偏见的风险。隐私管理计划(PMP)包括风险评估,评估歧视的可能性和潜在影响(OECD,2023[44])。在司法管辖区,如美国,通过消费者保护来解决隐私和数据保护问题,人工智能系统的歧视性影响可能导致发现该系统是法律禁止的“不公平做法”(FTC,2022[50])。其他非隐私法律也解决了歧视问题,包括就业法、教育法和银行法,这些法律补充了法律数据保护领域。然而,大多数数据保护执法机构将其作用解释为至少部分防止歧视,包括处理个人数据的人工智能系统所产生的结果。由于人工智能社区和隐私政策社区围绕歧视的关注点不同但互补,因此两个社区之间就人工智能系统的歧视性影响进行协调隐私政策社区可以学习人工智能专家正在研究的许多微妙的非歧视方法,例如公平考虑,而人工智能政策社区可以从数据保护社区在评估和制裁系统产生歧视性结果的数据控制者方面的经验中受益。因此,将人工智能社区在偏见方法方面的专业知识与隐私社区在评估人工智能系统在具体案件中的歧视性影响方面的经验相结合,协同作用的可能性隐私和人工智能方法对非歧视的最佳协调可能会受到定义和术语问题的阻碍。AI话语中的公平性对于人工智能社区,公平通常被理解为是指基于算法和数据集并考虑偏见的人工智能应用(如预测,建议或决策)的结果,例如,通过消除特定群体的算法或数据集偏见(例如按类别,性别,种族或性取向分类的偏差是一种系统性(而不是随机性)错误,与某些类别的数据输入相关。例如,面部识别算法可能会对戴眼镜的人比不戴眼镜的人产生更多的错误。戴眼镜的人与不戴眼镜的人之间的错误率差异从技术和操作角度来看可能是有问题的,可能会造成歧视或不平等待遇,但通常不会引起法律或道德问题,因为眼镜不是受保护的属性。相比之下,男性和女性之间,或者浅色皮肤和深色皮肤的人之间的错误率差异将被考虑这是不公平的,因为偏见(系统性错误)与一种属性有关,而这种属性在特定的法律和文化背景下与历史上处于不利地位的人口群体有关。受保护的属性可能不存在于输入数据中,但从其他明显中性的属性中推断出来。例如,如果邮政编码对应于许多居民具有相同种族血统的社区,则邮政编码可能成为种族血统的代理。人工智能社区中关于公平的工作已经产生了多种确定的偏见来源(系统性,计算和统计,人类认知)(Tabassi,2023[51]以及认识到偏见几乎永远无法完全消除。数据科学家试图将公平转化为更多的数学属性,这有助于法律学者就非歧视法展开辩论,特别是关于如何衡量歧视以及什么应该被视为非法歧视(Wachter,2022[52])。因此,人工智能“公平”与关于不歧视法律的法律辩论之间存在联系当AI环境中的公平被翻译成不同的语言时,会出现进一步的混乱。在人工智能社区中,公平的法语术语是“équité”,在英语中也是“公平”的意思。然而,英语中的平等并不仅仅意味着没有歧视。它还意味着行为要尊重法律的诚意英文中的Equity也指处境不利群体的平等机会,在某些情况下允许采取补偿措施来纠正结构性不利。公平允许采取补偿措施,它往往与平等形成对比,后者指的是严格平等对待每个人,因此没有补偿措施。从人工智能的在隐私政策社区中,公平是与合理期望一致的行为通常,公平最好由它不是什么来定义,即根据消费者保护法、竞争法、隐私法和非歧视法,不公平做法通常是非法的不公平的做法可能涉及欺骗和缺乏透明度(Malgieri,2020[53])。对于隐私政策社区来说,透明度是公平的必要因素。禁止不公平做法也可以针对经济力量的不平衡这是因为隐私的公平性不仅仅涉及资源或结果的数学分配,还考虑了背景(包括人类决策)和其他定性方面,例如个人和处理其数据的人之间的权力不平衡(ICO,2023[54])。因此,公平性可能需要对更强大的行为者施加额外的责任,以确保他们与较弱的行为者的交易反映出更多的平衡(Clifford和Ausloos,2018[55])。与权力不平衡有关的是经合组织隐私准则的个人参与原则,该原则授权个人对与他们有关的数据提出质疑。在某些国家,“程序公正”,有时称为“正当程序”,也可能对政府行动施加程序性限制。(Mulligan等人,这可能意味着有权与另一方的人类代表讨论或质疑数据处理的特定方面,并最终将此事上诉给独立和公正的决策者。(Mulligan等人,2019[56])在这方面,公平与尊重人权有关,如人的尊严,个人自主权,选择权和补救措施。在隐私和数据保护方面,公平有时等同于与数据主体的合理期望一致的处理,即不会使数据主体“惊讶”的处理(Malgieri,2020[53])。它要求数据控制者以符合个人合理期望的方式处理个人数据,并避免以任何可能对他们产生不利影响的方式使用它(Datatilsynet,2018[57])。导致非法歧视的做法也将被视为不公平(CNIL,2017[58])。公平还与“善意”(Malgieri,2020[53])和法语中的“loyauté”(忠诚)概念有关。忠诚和诚信要求避免违反道德规范的行为,并尊重法律的精神,而不仅仅是文字(Mulligan等人,2019[56];Malgieri,2020[53])。为了促进相互理解,人工智能和隐私社区应该意识到,“公平”在他们之间是不同的。人工智能和隐私社区之间就人工智能原则中的“隐私和数据治理”概念进行协调是以人为本的价值观和公平性的这一要素针对核心数据保护和隐私问题(经合组织,2023[14])。经合组织此前的分析强调了“人工智能系统可能导致或加剧权力和信息获取不对称的影响,例如雇主和雇员之间,企业和消费者之间,或政府和公民之间”的风险(经合组织,2023[14])。这种获取信息的机会和不对称的相关影响与尊重隐私权有关。一些最重要的人工智能风险来自对社会的系统性影响,例如产生不准确的合成内容,可能会影响个人的偏好,态度和行为(Lorenz,Perset和Berryhill,2023[12])。虽然隐私社区传统上专注于对个人的伤害,但隐私社区越来越多的关注正在转向“使用新兴技术处理的大量个人数据的集体社会影响”(经合组织,2021[9])。人工智能和隐私政策社区之间的协调将有助于澄清数据保护和隐私法以及隐私执法机构在解决生成式人工智能造成的个人和集体伤害方面的作用今天,隐私和数据保护做法反映了经合组织隐私准则中的原则,也反映了准则中作为经合组织成员国隐私考虑方面最佳做法而产生的原则。这些原则特别包括:处理的法律依据;目的说明和使用限制;数据最小化;准确性;透明度;安全性;设计和默认隐私;数据主体的权利,包括与自动决策有关的权利;以及问责制。构建值得信赖的人工智能需要在数据使用的不同方面建立信任,例如获取可靠的数据,合法地处理数据,负责任地使用数据,保持数据安全,以及对数据的使用保持透明。关键一步是确保人工智能系统在其生命周期的每个阶段都是合法的。在这方面,大多数隐私和个人数据保护框架要求收集和处理数据都有“合法依据”。虽然大多数法律通常规定了一系列此类法律依据,但在实践中,被称为“合法利益”的法律依据这要求人工智能开发者、提供者或用户追求的利益(例如开发或实施模型)是合法的,所涉及的数据处理是满足这一合法利益的有效需要,并且不会对数据主体的利益和权利造成不成比例的干扰。如前所述,在目前的技术水平下,在这些不同的利益之间取得适当的平衡可能是复杂的,需要加强人工智能和隐私社区之间的合作。隐私法还规定,仅应处理达到预期目的所需的最低量的个人数据这种所谓的数据最小化原则隐含在经合组织隐私指南中,并在各种隐私法中明确规定,如GDPR或加利福尼亚隐私权法案。人工智能的商业模式,特别是在生成式人工智能之后,都遵循这样一个假设,即收集大量数据对于人工智能系统的有效运行至关重要,特别是在训练阶段。这种方法可能与数据最小化原则相冲突,因为可能无法提前映射人工智能系统需要的个人数据。然而,数据最小化的概念并不意味着完全避免处理个人数据或将数据量限制在特定数量(ICO,2023[59])。这一原则的应用应该考虑具体的人工智能系统及其目标。为了适当的情境化,对于在数据收集之前确定数据的使用目的至关重要,并且在任何情况下,不得迟于数据收集时(OECD,2023[60])。这不仅涉及遵守监管要求,例如向数据主体说明目的,而且还涉及考虑如何以较少的数据实现相同的目的。有时,在人工智能的背景下,通过优先考虑数据质量而不是数量,可以更有效地实现例如,通过利用现有的公共数据源,确定人工智能模型是否可以在不使用敏感个人数据的情况下进行训练这是因为训练数据的质量比训练数据的数量对模型准确性的影响更大还有几种技术可以用来开发人工智能系统,这些系统只处理必要的数据,同时仍然实现性能目标(经合组织,2023[61])。还有人建议将用于训练人工智能模型的数据开放访问(不仅仅是模型的代码或架构允许对模型的数据进行科学评估,以促进数据密集度较低的模型的开发(Widde

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论