版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
反思人工智能时代),致谢JeaninaCasusi、JoeHinman、Nanc和MichiTurner准备出版物。免责声明2作者作者2致谢2执行摘要.4第一章:导言5第2章:数据保护和隐私:关键概念和监管环境7数据保护和隐私背后的框架9数据保护的第三章挑衅与预言17社会隐私需要对条例采取新办法将对人工智能发展产生隐含但有限的影响22现有法律不足以解决隐私风险25第4章:减轻AI隐私危害的建议31改善隐私和数据保护36第五章:结论45尾注464采集竞赛以及由此产生的个人和系统性隐私伤害。1.默认情况下,通过从选择退出数据收集转变为选择加入数据收集,使数据收集非规范化数据收集者必须何解决数据隐私问题的监管体系的重点。),5对人工智能的监管。2能至少部分地受到隐私和数据保护法规的约束。处,整个数据供应管道和生命周期更普遍。3我们继续研究人工智能),方向。风险察质量与数量的权衡6拟议中的隐私和数据保护法将对人工智能产生影响,但它们不会进行充分的监管。随着人工智能的发展而保护其数据隐私所需的工具;范围,以解决这些弱点,并在人工智能日益占主导地位的世界中加强数据隐私。简而言之,随着我们走向人工智能发展继续增加对数据需求的未来,最多维持现状的数据保护法规并不能激本文件重点讨论我们认为应对这一事态需要最多关注的核7境生成式人工智能工具变得广泛可用,激励和警告了世界各地数百万人大型语言模型(LLM),如GPT-4、PaLM和Llama,以及以惊人的速度发展6例如,我们考感识别工具,内容作为其输出。现行法律,如公民权利和消费者保护法规。9美国的几个州和市也解决了人工智能系统的一般消费者监管问题108们将在本文后面到下一章。数据隐私和数据保护有时在日常对话中互换使用虽然这些术语是相关的,上不同。帖子)或可以揭示生物联系和种族身份的数据(例如,基因数据)继续增长。9的。),限制,即使这种处理被认为不侵犯隐私。12护和隐私背后的框架),人了解所收集的关于他们的信息,防止这些信息被用于其他用途,并纠正这些信息。15正如政策专家马克·麦卡锡(MarkMacCarthy)所描述的,16联合国《世界人权宣言》和《世界人权宣言》都没有将信息隐私作为一项基本人权,国际社会就如何处理尽管在商业互联网出现之前很久就已经构想出来了,的核心组件,如数据最小化和目的限制,通过可以在多大程度上在隐私控制方面的应用进一步揭示了隐私监管对人工智能的影响。b.《通用数据保护条例》:数据保护的《通用数据保护条例》于2016年通过,并于2018年生效,欧盟试图更新1995年的《数据保护指令》,并协调欧盟成员国之前零散的22GDPR的核心是以个人数据为欧盟第24章供奉个人有权不受行政决定的约束,因为这些决定可能对他使用,因为它涉及到健康,贷款审批,工作申请,执法的关键数据保护原则(见表)。最值得注意的是,目的个人数据收集(或数据挖掘)。尽管人们普遍认为,更至可取的。25最后,它介绍了数据保护影响评估(DPIA施,要求收集组织在进行数据处理活动之前评估数据处理能造成社会层面的危害)27c.美国州隐私法:填补联邦隐私真空和保护法案(ADPPA),该法案已在众议院提出很常见的。在缺乏针对消费者的联邦立法的情况下,几十年来,一些部门法律已经制定了一系列隐私保护措施,例如[30]因此,我们将集中讨论CCPA。广泛的消费者隐私保护的最重要的州一级努力。虽然一些学者认为,CCPA有意识地为加州创造了一个与GDPR),者行使这些权利。并且可以通过发布的指南进行主动执法,并解决人工智能和个人数据交叉点的复杂和紧急问题。超越欧盟和美国:中国的数据保护35赞3738d.预测AI与生成AI:数据保护监管的转折点在要涉及算法审计39和影响评估40,透明度的情况一样,将是一项半成品。44到底是什么数据以及谁的数据在驱动这些系统。45这些面部识别软件公司ClearviewAI已经引起了隐私用于执法机构)和有针对性的影响(用于识别犯罪嫌疑人尽管《纽约时报》的克什米尔山对该公司进行了广泛报道,但他们的数据使用并未得到广泛讨论。46Clearview与此同时,随着人工智能系统的曝光率越来越高,世界各处理个人信息(特别是与儿童有关的信息)方面可能具有的法律权威;生成系统被用于攻击以提取个人信息的可能性;以及需要制作有关生命周期的合规文件。司认为(尽管在这种情况下没有成功),他们不需要对公意大利审查意大利审查ChatGPT5657在整个4月份,OpenAI实施了一些变化来满足Garante不准确的个人信息。然而,OpenAI表示,58在美国,关于用于构建生成人工智能的数据所需许可的讨论往往转向版权,因为在没有联邦消费者隐私法的情况下,版权为内容创作者提供了最清晰的路径。要求公司从训练数据集中删除他们的数据。52这种方法对系统训练数据中存在的特定内容项进行逆向工程是一项挑战。2023年7月,联邦贸易委员会(FTC)向OpenAI发出因为用于训练它的数据是不正确获取的。54联邦贸易委员会主席LinaKhan在《纽约时报》的一篇专栏文章中指出,“剥削性收集或使用个人数据”属于该机构禁止“不公平或欺骗性贸易行为”的权限范围55其对算法系统的监督,并可能扩大其范围,专注于人工智能特定的问题,如训练数据。些挑衅和预测突出了我们在继续监管隐私和人工智能时必须面对的关键问题。个人数据单独处理。在此,我们认为,现有的和拟议的义地监管人工智能系统中使用的数据所需的数据治理措施。a.数据是人工智能系统的基础,这将需要越来越多的数据扩张到群体和社会层面,增加从消费者收集的数据的数量和类型,并激励公司在追求更多数据时违反数据最小化和目的限制无论是数据的嵌入式传感器,智能家电和公共空间中的生物识别摄像头,都将继续扩大。发的更强大的计算机、处理能力和云存储,过去十年取得的人工智能进步就不会发生。正如马克61性化的服务,一个任务,需要数据收集用于分析目的,即可能是输入和输出之间然而,越来越多的研究越来越多地挑战数据越多越好的假设,因为它们表明,当以更大的意图和具体性选择数据时,可以使用相对较少的数据来实现类似的性能水平63部分原因是他们可以随时访问这些巨大的数据集。像其他数据源来获取数据来构建和训练他们的系统。64高度个性化的服务。),统,如StableDiffusion或Midjourney,以其实用和目前没有透明度要求要求公司详细说明他们在欧盟人工多地被迫在美国和欧盟以及其他遵循GDPR模式的国家之间解决领土问题。b.人工智能系统对个人和社会隐私构成独特的风险,需要新的监管术变革和对我们个人数据隐私日益增长的威胁的回顾性外,除了记录在案的对个人的伤害外,人工智能系统还术发展有关。用户的人。当训练数据集中包含个人数据时,研究表明给其他用户。虽然大多数生成式人工智能系统建议个人不要在提示或其他输入中包含个人数据,但许多人仍然练,或将其作为系统输出的一部分上购物的最初范围今天,如果不是不可能的话,生活中大多数方面的个人数据的收集不仅发生在个人选择直接与应用程序或服务互动的情况下;在许多情况下,为了扩大范围的上下文,而不仅仅是提供广过去的五年里,新兴的人工智能系统也越来越多地被部署在这些环境中,因为由于人工智能的计算能力,它们自动化系统的运作方式也缺乏透明度,这使得个人难以改变或限制其影响。AI系统可以自动化许多形式的决策和分类,加剧了我们仅以精细的精确度为您量身定制广告,但在某些情况下,地使用FIP来保护自己免受这种形式的数据收集,特别是数据,例如从社交媒体或照片共享网站)。77随着我们生活的几乎所有方面都越来越多地通过技术进危害的监管或透明度措施的情况下。我们与直接收集我们数据的公司(第一方)和间接收集我们数据的公司(第三方)的“数据关系”的范围和规模已经根据现有或拟议中的隐私法,公司收集尽可能多的数据的动机不太可能减少。随着人工智能系统的不断发展,或删除权利来解决这些隐私风险。过其他方式实现的联系和预测。这种能力可能导致根据群体归属对决策结果进行分类并将其应用于大部分人口,荣所必需的自主权的发展。79相有助于广泛侵蚀隐私规范和期望。期望你的数据会在每该有权在公共场所存在的感觉,无论是数字媒介空间还是物理空间,都有任何程度的隐私或匿名。c.现有隐私法中的数据保护原则将对人工智能发展产生求生成系统创造奇妙输出的这些原则足以应对人工智能带来的隐私风险和危害在美国,立法者越来越多地认为,通过类似于GDPR的联邦界定和执行,应该限制收集多少个人信息以及如何使用和重复使用人工智能 90取或处理个人数据,或根据收集到的数据对个人进行预充分考虑了个人面临的风险91数据最小化和目的限制理论上,数据最小化和目的限制原隐私自我管理的局限性竞争因素隐私法专家DanielSolove将个人管理和行使其数字产品和服务的使用增加,隐私自我管理未能给个人提供他们需要的工具,如果他们想要阻止,或至少减少收集的关于他们的数据量94个人被假定拥有一定程度的控制权,默认数据收集:选择加入还是选择退出?1970年代初,金融基础设施项目从最初的政府数据收集应用扩展到私营部门,加强了默认允许数据收集的做法有正95GDPR在总是要求同意和允98办公室建议,合法利益可能是适当的,当处理提供了一个明确要求Facebook和Instagram用户提交一份在线表格,登记他们对使用其行为产品用途进行定位的反对;除非他们反对,在数据收集之后可以行使的权利,将管理个人隐私的负d.现有法律中明确的算法和基于人工智能的规定不足以解决隐私风险包括对其客户的风险,而不仅仅是对我们将在第4章讨论。追溯到20世纪70年代初FIP的起源,105尽管FIP本身并决策的过程。这些决定可以基于事实数据,也可以基于107处将对个人的关注而108于规则的算法以及AI形式(如预测AI)来完成的过程。109 ),ProtectionAgency)管理企业 据保护影响评估(DPIA)120中(或者在初创企业的情况下,迫使他们采用此类流),这些明确的规定是如何不足的?么以及为什么他们可能希望选择退出。何在食品上贴上转基因成分标签的做法;在没有明确的科学负担。做出可能对他们有利或有害的不知情的选择这并不是说标记或提供ADM的使用通知没有好处;当然,在某种为了行使不受ADM约束的权利,这种选择退出的权利至否可以以消费者可能不知道AI正在被使用但不受通知要求的方式实现。止组织由于其识别的风险而选择推出产品或服务。但事实上,这些工具目前并没有指导组织在产品创建之前制(我们将在第4章中更深入地讨论这些措施125§7154规定,处理个人信息以训练ADM系统或AI的企业有披露义务,要求他们向下游用户披露胁,监管机构需要不断完善和扩展这些条款,等等。工智能系统或生成式人工智能等变体的增长。尽管大数的,因此不会成功地保护个人隐私。也不能解决人口问题或社会层面的风险和对隐私的伤害正如法律理论家系统带来的个人隐私挑战或系统性风险。即使美国通过有解决社会层面的隐私伤害。而且它们也没有提供一个框架来解决人工智能训练所引发的隐私问题数据,无论它们来自专有数据集、开源或公共数据集,如果-只有当-人工智能系统被设计为以人类需求中心。好吗?何生活在一个利用一些人质疑政府是否应该采取明确的规则,完全禁止人工智能的特定应用129我们建议,在评估这些问题时,政正如我们在引言中所指出的那样,在我们的问题框架中有一个重要的假设,特别是在美国,但也在欧),人们还必须有资源来支付管理和标记数据的费用,将其转化为训练人工智能系统的优质资源。虽然倡导数据质高质量数据在这些辩论中,我们也在反对一种技术决定论。就像那不考虑数据所在的社会技术背景。正如我们在第3章中方式是唯一有用的,句名言:136任何关于人工智能影响的问题解决方案注重社会影响和人权。建议1:默认情况下如前所述,FIP为我们收集的数据提供了一个关键的权2000年代出现的数字网络和移动设备使数据收集成为守原则的做法。个主要例子。随着欧盟2002年《电子隐私指令》的通过,欧洲监管机构将网站收集数据的同意置于首位和中心,存在问题:这种方法在消费者与许多不同的在线提供商随其所愿,随其所愿。联邦贸易委员会最近加强了对不),快的度的数据收集,而不增加过多的同意请求的摩擦。数字是我们需要实施数据最小化原则,以防止收集过多数据。?)行使其选择不出售其个人信息的权利时不得使用暗模式,147置提供,但iOS14.5更新将该选项直接放在用户面前。托是由iOS管理的我们需要通过让消费者可以委托他们的数据偏好来扩展这种方法施,使消费者能够参与数字产品和服务,至少在有限的基础上,而不放弃他们的数据或依赖于迫使他们做出持续的一次性,逐案决定的同意范式。人机交互领域有大量的研究说明了为什么这种方法是无效和繁琐的。151), 我们将在下面讨论。览器,并非所有浏览器都支持它们。155《消费者保护法》费者身上考虑到这样做的负担,很少有人可能这样做如今,当对数据收集和使用没有限制时,公司将使用任何可能的手段这是美国的教训。这是数据经济自我监且不提供拒绝或减少数据收集的权利,特别是第三方收集者,我们就有可能在隐私和任何其他方面失去更多的基础。在人工智能需求不断增长的情况下,对我们个人数据的控有些人会回应这种观点,即采取这些措施将对数据经出了异议,并对安全性提出了相当大的担忧。虽然数据建议二:关注AI数据供应链,人工智能的出现,特别是生成式人工智能,对基于FIPs太明确。当公司从其他企业采购AI“模型即服务”时,理解数据开和模型之间的关系是一个步骤。但作为美国。美国联邦贸程序权利?培训数据为何重要质量和大小不一定有直接的关系,这意味着大型数据集并不能保证更高或更低的输出质量。然而,考虑到创建高质量数据集所需的时间和费用,特别是使用大型数据集的生成系统可能存在更多的质量问题。167对于非常大的模型,数据集管道的隐私问题Khan和Hanna在他们的论道其数据被包括在内?培训数据集为监管机构提出了新的挑战。基于FIP的权利处理者同意收集数据的原始目的,但不同意收集数据的目的。可以提供欧盟数据,担。其隐私所需的大量劳动。数据开发供应链,创建和授权数据集文档和聚焦数据供应链治理而争论,而是在处理构建用于训练人工智能的数据集的过程。第177章必须强调的是,仍然不成熟,政策制定者不应该在没有更多研究和实178明确答案的阶段当然,通过要求数据集创建者采取控制措施和负责任的收集实践来创建有意义的数据合规措施是有价值的。个领域,监管沙箱是一种适当的方法,可以帮助确定将道德来源的数据比收集的数据更便宜,风险更低,质量进行投资,以支持合乎道德的数据来源。这意味着为的方式共享或访问数据。经济发展和人类繁荣的宝贵资源,就像我们的自然资源一样;因此,对数据资源的公共投资可以带来社会效益,并为数据的道德使用创造条件建议三:改变个人资料管理的模式有研究人员和更有影响力的私人公司在过去十年中获得的迅速和明显。验已经造成并可能继续造成重大伤害。即使这些担忧这是不确定的。如果你已经失去了人工智能自动化的生计,免费的人工智能服务可能没有什么价值。正如我们究和开发,我们就不太可能看到公共的、非营利的人工应是透过受规管的数据中介人,为个人184下面,我们将详细介绍有助于实现这一目标的两个组件消费者数据空间的一个关键目标是创建一个中介,可以),许个人保护其数据隐私和知识产权数据集的价值就不仅仅掌握在私人行为者手中数据权利解决的数据隐私问题。我们的目标是为政策制定者和其他利益相关者提供足够全解决这些问题,并为保护和维护隐私的短期和长期行动提供建议,同时确保人工智能数据开发生命周期中更大的透明度和问责制。理由,说明如果我们要让隐私和人工智能都向前发展,为什么必须解决这些问题。461放大图片作者:ChristieM.作者:LindseyA.Gailmard,CarolineMeinhardt等人,“/news/decoding-white-house-ai-executive-orders-解码白宫AI行政命令的成就”,斯坦福大学以人为中心的人工智能研究所,2023年11月2日,成就。2参见LinaM.Khan,/legal-library/browse/cases-proceedings/public-statements/joint-statement-enforcement-efforts-against-/faces/billTextClient。xhtml?bill_id=201920200AB730,第493章;/LegislationDetail。aspx?ID=4344524&=B051915D-A9AC-451E-81F8-6596032FA3F9&选项=高级&搜索,子章节25。3当我们使用“出处”一词这与ContentCredentials(/)等组的用途不同,后者旨在确保创建值得信赖的数据像这样的努力最终可能会包含更广泛的出处概念,包括元数据,以便跟踪为供应目的创建的数据的来源。/internet/2023/10/18/how-americans-view-data-privacy/5JenniferKing,/uc/item/5hw5w5c16美国国家标准与技术研究所,/“人工智能风险管理框架(AIRMF1.0)ℽ,2023年1月26日,nistpubs/ai/NIST.AI.100-1.pdf。7信息专员.uk/for-organisations/uk-gdpr-guidance-and-resources/individual-rights/automated-decision-making-and-profiling/what-is-automated-individual-decision-making-and-profiling/.8NingyMaslej,LoredanaFattorini,ErikBrynjolfsson,JohnEtchemendyetal.,“/report/人工智能指数2023年度报告”,斯坦福大学以10KatrinaZhu,/the-state-of-state-ai-laws-2023/./10.1016/j.clsr.2013.07.005,522-530。13有关一般背景,请参见RobertGellman,/10.2139/“FairInformationPractices:ABasicHistory-Version2.22”,SSRN,2022年4月,ssrn.2415020。14ChrisJayHoofnagle,/10.2139/ssrn.2466418。/reports/records-computers-rights-citizens最初的FIP是:AB)必须有一种方法让个人了解记录中有哪些关于他的信息以及这些信息是如何使用的;C)必须有一种方法让个人防止为一个目的而获得的关于他的信息在未经他同意的情况下被用于或提供给其他目的;D)必须有一种方法让个人纠正或修改关于他自己的可识别信息的记录;E)任何创建、维护、使用或传播可识别保数据的可靠性,并必须采取合理的预防措施防止数据的滥用18私人行为者在开发金融信息平台时基本上被忽视,部分原因是在20/en/instruments/OECD-LEGAL-0188https://eur-lex.europa.eu/eli/reg/2016/679/oj,第5(1)(b)条。22ChrisJayHoofnagle,BartvanderSloot和FrederikZuiderveenBorgesius,&/doi/full/10.1080/13600834.2019.1573501“欧盟求意见的回应”,斯坦福大学以人为中心的人工智能研究所,2022年11月21日,files/2022-12/HAI%20-%20FTC%20ANPR%20Comments.pdf。26Barros和GabrielaZanfir-Bara,/blog/fpf-report-automated-decision-making-under-the-gdpr-a-comprehensive-case-l29卡梅隆F.Kerry,https://www.brookin31GeorgeP.Slefo,/article/digital/california-“营销人员和科技公司面对加州版本的GDPR”,passed-version-gdpr/314079。33加州隐私保护局,/announcements/2023/20231127.htm“消费者控制其个人信息的新里程碑:CPPA提出自动决策技术的监管框架”,2023年11月27日,l。republic-of-china-”斯坦福数字中国项目,2021年8月20日,effective-nov-1-2021/.35李明莉,施明丽,陈启恒,杰米P.霍斯利等人,《/work/seven-major-changes-in-cprotection-law/。36在2021年8月的IPO申请中,人工智能巨头商汤科技将参见JaneLi,/2053040/chinas-new-data-laws-are-a-risk-factor-in-sensetimes-ipo-37GrahamWebster,/work/translation-chinese-authorities-announce-2b-fine-in-didi-case-describe-despicable-data-abuses/.July22,2022,work/forum-unpacking-the-didi-decision/.41BrentMittelstadt,http据隐私和保护法案,第207(c)条。44GopalRatnam,/2023/09/26/data-privacy-law-“DataprivacylawseenasneededprecursortoAIregulation”,RollCall,2023年9月26日,seen-as-neededed-precursor-to-ai-regulation/。/blog/how-data-protection-authorities-are-de-facto-regulating-generative-ai/.括个人信息的准确性),微调在多大程度上用于解决这些问题,以及系统如何摄取个人信息。见人工智能和数字政策中心,https:/54TonyaRiley,迫使公司删除他们的算法,/ftc-”Cyberscoop,2023年7月5日,algorithm-disgorgement-ai-regulation/。55LinaM.莉娜·Here/2023/05/03/opinion/ai-lina-khan-ftc-technology.html.56LucaBertuzzi,/section/artificial-“意大利数据保护机构以侵犯隐私为由禁止ChatGPT”,Euractiv,2023年3月31日,intelligence/news/italian-data-protection-authority-bans-chatgpt-citing-privacy-violations/。display/“Artificialintelligence:stoptoChatGPTbytheItalianSA,Personaldataiscollectedunlawfully,noageverificationsystemisinplaceforchildren,”March31,2023,docweb/9870847#english.59Garante,https://garanteprivacy.it/home/docweb/-/docweb-display/“ChatGPT:ItalianDPAnoticesviolationsofprivacylawtoOpenAI,”January29,2024,docweb/9978020#english.60数字策展中心,三边研究,信息学院,爱丁堡大学,https://gpai.ai/projects/data-governance/role-of-data-in-ai.pdf。64根据OpenAI的技术报告,GPT-4是“EvaluationsforClaudeModels,”July8,2023,https:///paper/model-card-and-evaluations-for-claude-models.65克里斯汀·EBusch,/“生成式人工智能和数据隐私:入门”,国会研究服务,2023年5月23日,product/pdf/R/R47569。“/abs/2310.12941/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/.MartinVechev,/“BeyondQuesti73隐私论坛的未来,/blog/unfairness-by-“harms-of-automated-decision-making/。world,”Brookings,February10,2020,ai-driven-world/;OfficeoftheVictoriaInformationCommissioner,“ArtificialIntelligenceandPrivacy-IssuesandChallenges,”August2018,privacy/resources-for-organizations/artificial-intelligence-and-privacy-issues-and-challenges/./sol3/papers.cfm?abstract_id=4431048。77KateCrawford和JasonSchultz,/abstract=232578410月10日,us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-83AndrewLeePark,/injustice-ex-machina-predictive-algorithms-in-criminal-sentencing.88ReubenBinns和ValeriaGallo,.uk/about-the-ico/media-centre/ai-blog-data-minimisation-and-privacy-preserving-techniques-in-ai-systems/。89Biega等人,90Shanmugam等人,data/grounds-processing/what-does-grounds-legitimate-interest-mean_en.98自Brexit以来,英国已经观察到了自己的(尽管几乎相同的)GDPR版本参见信息专员。uk/for-organizations/data-pdetail/the-uk-gdpr/.99信息专员.uk/for-organisations/uk-gdpr-guidance-and-resources/lawful-basis/legitimate-interests/when-can-we-relieve-on-legitimate-interests/.100SamSchechner和JeffHorwitz,/articles/meta-to-let-users-opt-out-of-some-targeted-ads-but-only-in-europe-44b20b6d。101Noyb,https://noyb.eu/en/meta-facebook-instagram-switching-“Meta(Facebook,Instagram)switchingto“LegitimateInterest”forAds,”March30,2023,legitimate-interest-ads.102MetaNewsroom,/news/2023/10/facebook-“Facebook和Instagram将在欧洲提供无广告订阅服务”,2023年10月30日,和-instagram-to-offer-subscription-for-no-ads-in-europe。107欧洲议会和欧洲理事会,GDPR,第22条,第1节。叙文71对特征分析和自动化处理作了定义:“数据主体应有权不受决定的约束,该决定可能包括一项措施,评估与他或她有关的个人方面,该措施完全基于自动化处理,并对他或她产生法律效力或类似地对他或她产生重大影响,例如自动拒绝在线信贷申请或在没有任何人为干预的情况下和透明度会议记录,2023年6月,https:///10.1145/3593013.3594030,626.google-“TheUnlikelyActiviststhatTookOnSiliconValley-AndWon,”TheNewYorkTimesMagazine,August14,2018,privacy-data.html.112NatashaSinger,https://www.nytimes。com/2019/09/24/technology/group-behind-california-privacy-law-aims-to-strengen-it.html./meetings/materials/20231208_item2_addendum.pdf。118欧盟委员会,https://commission.europa.eu/law/law-topic/data-protection/reform/rules-business-and-organizations/obligations/when-data-protection-impact-assessment-dpia-required_en./meetings/materials/20231208_item2_draft_clean.pdf。/2023/12/05/technology/ai-chatgpt-google-meta.htm”TheNewYorkTimes,December5,2023,l./sol3/papers.cfm?abstract_id=4217148。128SaloméViljoen,/feature/a-relational-“数据治理的关系理论”,耶鲁法学杂志131(2),202theory-of-data-governance。134IveyDyson,/“人工智能如何威胁公民权利和经济机会”,布伦南司法中心,2023年11月16日,our-work/analysis-opinion/how-ai-profitens-civil-rights-and-economic-opportunities。work/subjects/eprivacy-directive_en。在没有合理保障的情况下部署技术后,RiteAid被禁止使用AI面部识别”,2023年12月19日,ftc-says-retailer-deployed-technology-without。regulation-rule-on-commercial-surveillance-and-data-security。https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-jd-e-privacy-reform。143欧盟委员会,https://commission.europa.eu/law/law-topic/data-pr
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 文化公司编剧聘用合同
- 互联网安全服务合同管理流程
- 旅行用品租赁合同
- 酒吧租赁合同:美食节
- 2025授信协议及售房合同
- 2025写字楼买卖合同书样本
- 2025户外灯箱广告代理合同
- 2025年天津市体育科学研究所事业单位招聘10人历年管理单位笔试遴选500模拟题附带答案详解
- 2025润滑油购销合同范本
- 2025年国网湖南省电力限公司招聘175人(第二批)管理单位笔试遴选500模拟题附带答案详解
- 风电场电力安全信息管理制度
- DB51T 5058-2020 四川省抗震设防超限高层民用建筑工程界定标准
- 梅溪湖给排水计算书(施工图)
- 合作共赢商务合作PPT模板(基础教育)
- 白酒厂污水处理设计(共35页)
- 《雾化吸入疗法在呼吸疾病中的应用专家共识2016年版》
- 胎元、命宫、身宫的推算
- 高速公路改扩建中的保通设计分析
- 美人蕉锈病病情调查报告
- 手工钨极氩弧焊焊接工艺指导书
- 分级护理细化标准[资料]
评论
0/150
提交评论