AI时代的算法治理报告_第1页
AI时代的算法治理报告_第2页
AI时代的算法治理报告_第3页
AI时代的算法治理报告_第4页
AI时代的算法治理报告_第5页
已阅读5页,还剩99页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

一一一一人工智能时代的算法治理报告2022局引言01智能化发展040405I07072.1算法为产业数字化转型“增智提效”07产业创新的基础设施0809势三、国外算法监管与法律治理趋势18理和公共服务算法应用的监管20224、算法自动化决策应用成为立法规制重点235、欧美推进监管数字零工经济中的算法应用以保障劳动者权益2426AI27283、业界探索AI伦理委员会的建设落地,践行负责任的研究与创新理念30AI32I的众包改进模式36护5、算法伦理服务市场兴起,弥合伦理要求与技术实现之间的鸿沟941434445展望:理实践47在提升社会生产效率和国民生活水平上发挥了重要作用,成为推动企业数字化转型和国家治理2021年伊始,算法进入各国政府的监管视野,各国加强了算法监管立法以及具体的治理举措。企业、研究机构以及社会组织也纷纷基于各自不同的视角去探索有效的算法治理模式。本报告尝试从法律治理、伦理治理和技术治理三个层面,梳理总结过去算法治理领域的有益实图1:算法治理“三维—体”在法律治理层面,中国、欧盟、美英等主要人工智能发展国家和地区基于各自的实际情况而采用了不同的路线方针。比如欧盟提出了统—规则、行政干预的监管方案,美国和英国则强调促进创新的灵活监管,我国以安全为核心建立了—套算法治理体系。在具体的算法治理问题或领域中,各国对算法中的—些共性问题的具体治理举措存在相同之处,比如算法损害劳动者化决策的监管。AI等有益的落地实践举措。在技术治理层面,业界以可信AI作为实践方向。可信AI的核心原则是让AI应用满足可靠、安技术创新和实践。可信AI是落实算法治理的重要技术实践,所遵循的可信特征与AI伦理和相关。人工智能时代的算法治理报告20221人工智能时代的算法治理报告2022为人工智能等新—代信息技术的核心,在提升社会生产效率和国民生活水平上发挥了重要作用。算法不仅在技术创新发展方面突飞猛进,而且也在社会经济、文化、生活等方面得到先参与到大模型竞赛中,大模型迎来了大爆发,人工智能机器学习进入了大模型时代。01大模的速度扩展。比如,从GPT-3模型的1750亿参数到智源悟道2.0的1.75万亿参数,仅仅1年时。在多模态技术、transformer网络的支撑下,大模型具备了更强的通用性。与很多针对某—种—类问题而设计的特定算法相比,大模型不需要针对不同场景建构不同的场景模型,不需比如OpenAI的GPT-3提供了强大的通用语言理解和生成基础,可以轻松适应许多场景和功能有多模态、多任务、多具身(embodiment)特点。Gato的训练数据集包含广泛,如图像、文本、本体感觉(proprioception)、关节力矩、按钮按压以及其他离散和连续的观察行动等不应用场景。征,能够大规模地在产业中落地应用。大模型正是AI标准化、模块化、自动化的具体实现路径,并且大模型形成的成本边际效应,极大地节约了AI应用成本。当前很多研究机构和科技企业发展的重要工具,寻求其大模型的落地实践。01SevillaJ,HeimL,HoA,etal.ComputetrendsacrossthreeerasofmachinelearningJ.arXivpreprintarXiv:2202.05924,2022.称、代码生成成成多模态多模态多模态推理等多模态推理表1:国外主要的AI大模型—览表利用生成对抗性网络(GAN)等AI深度合成技术自动生产的合成数据,为算法技术创新及其在数据源。由于合成数据是通过深度合成技术自动生产的数据,相较于基于真实世界采集的数据更易获取。企业可以用合成数据来增强其训练数据,节省数据人工智能时代的算法治理报告2022发展方向。人们已经关注到合成数据给算法技术创新带来的巨大推动作用。2021年Forrester能够提高模型的准确性、鲁棒性和通用性。领域中的模型验证、模型训练、新产品测试等环节中应用。在自动驾驶领域,为了满足安全需求,所有自动驾驶系统都需要适应不断变化的环境,甚至包括等联合发布了目前最大的自动SHIFT测、对象跟踪等12种主流的足天气状况、车流和人流密度等24种不同类型的驾驶环境变化。03在医疗领域,由于数据的敏感性而导致算法训练数据存在较大的获取难度,并且容易引起隐私数据合规问题,因此合成数据成为了医疗人工智能领域的首选。比如,以色列健康IT供应商MDClone提供的合成数据被特拉维夫的舍巴(Sheba)医疗中心用作COVID-19的研究,预测同时,合成数据蕴藏的商业机会也逐渐获得大型科技企业和创业公司的关注,产业侧开始加部分是合成数据,没有合成数据将无法建构高质量、高价值的人工智能模型。05合成数据初创DatagenOfirZuk示:“合成数据的总目标市场和数据的总目标市场将会融合。”06除了越来越多的创业公司以合成数据业务作为突破点,科技巨头们也开始在该领域布作。02/report/the-top-trends-and-technologies-to-watch-q3-2021/RES17625103https://www.vis.xyz/shift/04/searchdatamanagement/news/252483300/How-a-synthetic-data-approach-is-helping-COVID-19-research05/document/400291206/html/2022-06/13_391537.html生成性AI作为人工智能的最新发展方向,可以自主生成文本、图像、音频、视频、虚拟场景等字内容业态带来巨大影响。就目前而言,生成性AI几乎不需要人类参与就可以生成高质量的创造性内容,人类只需设置好景,生成性AI就会自主输出想要的结果,实现图片风格转化、文本转图像、图片转表情包、D。例2.1算法为产业数字化转型“增智提效”的农产品生产加工环境模拟仿真和病虫害监测预警系统,农田建设综合监测监管平台,育种、过程利用虚拟模型可以尽可能优化生产工艺,在生产线落地的调试过程中可以实现德国方面的07/meta-is-working-on-an-ai-builder-bot-for-the-metaverse-181034157.html?guccounter=1&guce_referrer=aHR0cHM6Ly08/en/newsroom/press-releases/2022-05-24-gartner-identifies-three-technology-trends-gaining-tr人工智能时代的算法治理报告2022提升了工厂生产效率。尾或边缘场景。因此,在道路测试之外,自动驾驶厂商更多依靠模拟仿真技术训练算法。谷歌旗下自动驾驶公司Waymo实际道路测试仅3200万公里,而虚拟仿真测试则达到了240亿公里;通用旗下自动驾驶公司Cruise实际道路测试160万公里,虚拟仿真测试80亿公里,实际路条例》明确鼓励通过仿真模拟平台对自动驾驶算法进行仿真测试和技术验证。10在这方面,腾业可在—天之内完成1000万公里的测试,而同样的测试如果在真实环境中进行的话则需要花了算法为新兴产业的发展带来的价值。发对数字内容传播、数字内容新业态(如短视频)发展起到了重要推动作用。算法推荐技术能、短视频等新业态的快速岖起,与算法推荐技术的应用息息相关。其次,算法已经逐渐渗透进了内容生产的各个环节,被认为是数字时代文化产业的“新流水线”,大大提升了数字内容生产的效率和规模。以游戏工业化为例,算法对于游戏制作流程和研发效能提升有非常大的促进作用。现在游戏制作从程序化生成(PGC)到部分内容由AI算法辅助,还有的可以实现根据已有生产标准和规则包装流程让算法驱动量产。AI生成内容(AIcontentAIGC体积极开展智能化的新闻采编,机器自动生成的新闻成为传统新闻报道的有力补充。腾讯多媒体实验室打造的智能内容生产平台(SmartContentPlatform)可以将视频、音乐、文字、图的整合和转化,高效的生产各种类型的内容。09/gsc_news/en/20210712-waymo-simulation-city-autonomous-vehicles10/rdlv/chwgg/content/post_826149.html在国家信息化战略以及治理现代化的指导下,算法进—步推动智慧政务“服务下沉”。政务信级政府改革的刚需。首先,算法极大地优化了社会公共服务效率,成果最为显著的就是数字政府、数字政务。近些法创尔计划将经济、文化、旅游、教育、信访等市政府所有业务领域打造元宇宙行政服务生态,其终极目标是要成为—个元宇宙城市。11这将赋能城市管理部门,实现对城市的实时化、精细中也体现了强大优势。比如借助算法来预测疫情发展趋势,月,为配合各级政府尤其是基层政府的春节防疫工作,腾讯的企业微信政务版推出“春节防疫将防疫措施精准高效落实。11/article/7174994.html2人工智能时代的算法治理报告2022局推荐算法对互联网行业的发展是—把“双刃剑”,它在重塑信息分发模式和信息内容生态的同时,也引发信息茧房、大数据杀熟、算法歧视、诱导沉迷等—系列问题。国家针对这些问题采2021年12月,国家互联网信息办公室等四部门联合发布的《互联网信息服务算法推荐管理规定》(以下简称《规定》),标志着推荐算法成为重点监管对象。首先,《规定》明确了推荐算法监管的价值导向。算法推荐服务提供者应当坚持主流价值导向,优化算法推荐服务机制,积极传播正能量,促进算法应用向上向善。其次,针对推荐算法应用,《规定》提出了—系列监管举措,包括算法安全风险监测、算法安全评估、算法备案管理等。《规定》要求算法推荐服务提供者依靠自评估、第三方评估等,深入分析算法机制机理、模型、数据和应用结果等,评估算法设计、部署和使用等应用环节的缺陷和漏洞,避免算法应用产生的社会公平、道德伦理、内容管理等安全问题。再次,《规定》强化了平台企业的算法安全责任。平台需要建立算法安全责任制度,设置算法安全管理组织机构,对算法的数据使用、应用场景、影响效果等开展日常监测工作,感知算法应用带来的网络传播趋势,预警算法应用可能产生的安全问题。最后,围绕信息茧房、算法歧视、诱导沉迷等问题造成的对用户权益的损害,《规定》明确了算法推荐服务提供者的用户权益保护要求。其中包括保障算法知情权,要求平台告知用户提供的算法推荐服务情况,并公示算法的基本原理、目的意图和主要运行机制等;保障算法选择权,平台应当向用户提供不针对其个人特征的选项,或者便捷的关闭算法推荐服务的选项;针对诱导沉迷问题,《规定》要求平台不得利用算法推荐服务诱导未成年人沉迷网络,应当便利荐服务。为落实《规定》的相关要求,中央网信办于2022年4月8日发布通知,提出将牵头开展“清朗·2022年算法综合治理”专项行动。专项行动深入排查整改互联网企业平台算法安全问题,评估算法安全能力,重点检查具有较强舆论属性或社会动员能力的大型网站、平台及产品,推动算法综合治理工作常态化和规范化,营造风清气正的网络空间。益骑手的劳动时间数据,不断缩短骑手配送每—单的劳动时间,使得骑手不能有丝毫懈怠12;其二,算法对骑手设置严苛的考核指标并以此决定劳动报酬。平台通过算法对配送单数、配送时间、用户评价等设置严格的考核指标,从而降低劳动用工成本,达到提高平台自身收益的目的;其三,算法由平台单方设定,而骑手缺乏话语权。法有异议时难以获得救济。13例如,在外卖配送过程中,骑手发现顾客端显示的送达时间与骑要企业着重行业生态家相关部门督促制定修订平台算法,加强新就业形态劳动者权益保障。首先,为了改善劳动展改革委、最高人民法院等八个部门发布《关于维护新就业形态劳动者劳动保障权益指导意见》,明确要求企业在制定修订平台进入退出、订单分配、计件单价、抽成比例、报酬构成及支付、工作时间、奖惩等直接涉及劳动者权益的制度规则和平台算法时充分听取工会和劳动者14参考《外卖骑手,困在系统里》,/p/225120404。人工智能时代的算法治理报告2022局为了纠正平台方不断增加劳动者工作强度的行为,《互联网信息服务算法推荐管理规定》明确小程序在服务协议与平台规则中公布派单规则,以可视化的方式,向用户和网约车服务者展示给乘客派单的算法逻辑。外卖平台美团在2021年向外界首次公布外卖配送中“预估到达时间”算法规则,展示了送达时间算法的计算逻辑,而从配送时间点到弹性时间段的优化不仅让用户获得了更合理的预期,也减轻了骑手在特殊场景下的配送压力。数据显示,新算法机制下算法应用中的数据竞争秩序需要被积极规范。算法培育高度依赖海量数据输入,算法运用有效协助筛选高价值数据,数据规模扩大和更新加快转而又可以促进算法优化,算法质量提升助力术优争夺和利用的数据不正当竞争纠纷不断涌现,以数据抓取、撞库攻击、侵入系统、复制摘取等使用的不正当竞争、数据质量缎疲的不正当竞争等多种类型纠纷。17商业主体间数据竞争的规项“算法取中”举措,/tech/article/GJIKBGVM00097U7R.html。16陈兵、林思宇:“互联网平台垄断治理机制研究——基于平台双轮垄断发生机理的考察”,载《中国流通经济》2021年第6期,第43页。17胡迎春、摩怀学:“论数据不正当竞争的演进与规制”,载《竞争政策研究》,2021年第2期,第90-93页。人工智能时代的算法治理报告2022局则如何确定、数据竞争的边界如何划定,直接影响人工智能算法的质量,并决定数据+算法双险,预防数据竞争失范风险,实现人工智能算法的源头规制。“享有竞争性权益是数据不正当竞争认定的前提,未经和国反不正当竞争法〉若干问题的解释(征求意见稿)》中得到确认。但是,数据竞争规则的核心考量因素并不仅仅着眼于平台企业因产品逻辑被扰乱、流量优势被挤占、健康生态被破坏用户隐私保护为限,以社会整体福利为宗旨。户基本意愿相符,是否经由用户自主选择。数据获取后使用行为所带来的创新增益及其对社会福扯的效用是探索数据竞争规则的关键话题。如何在平台利益保护与创新激励中实现平衡,如何在数据控制与数据共享中合理配置资源,是维护数字经济的关键。在智联招聘诉逸橙科技不正当竞争纠纷案19中,法院更多行深度再加工,进而向其客户提供算法推测服务,促进和创新了服务供给。即使是企图构建单—数据市场而倡导数据共享的欧盟,也强调“接受用户数据的第三方不得使用其接收到的数据来开发和访问与数据来源的产品相竞争的产品,或出于此目的与其他第三方共享数据”20,明线边界。19上海市杨浦区人民法院(2019)沪0110民初16688号民事判决书。20DataAct:ProposalforaRegulationonharmonisedrulesonfairaccesstoanduseofdata,https://digital-strategy.ec.europa.eu/en/library/data-act-pro-posalregulationharmonisedrulesfairaccessandusedata.4、应对算法推荐版权治理挑战,加强平台版权治理责任分发技术,给版权保护工作带来了诸多挑战。客观上来看,为应加强算法推荐平台的版权治理主体责任,以此来应对算法推荐对网络版权治理的挑战。这首先,算法推荐模式下的平台版权注意义务规则体系正在逐步完善,平台应承担事前和事后的版权侵权过滤、屏蔽义务。在立法层面,2021年颁布的《民法典》将网络侵权责任认定领域上还需要进—步完善算法推荐模式下的平台版权注意义务。正如海淀法院在“全国首例算椿攻略》案”中所指出的,算法推荐既是更加先进和其次,算法推荐模式下平台应承担版权保护主体责任,不断完善算法推荐模型中的版权保护权重与机制。算法推荐模式下应该将相关的版权侵权责任配置给作为技术使用人的平台承担。算当由平台这—工具的使用人或服务的提供人承担,司法实践对此予以高度认可。例如在“腾讯诉上海盈讯网贷之家侵害Dreamwriter智能写作案”中,深训南山区法院便明确利用人工能力获得普遍增强,那么侵权识别、过滤等方面的版权保护义务也要相应提升。从近期司法实务,这验证了当下版权领域相关保护技术的成熟。2021年6月4日,重庆市人工智能时代的算法治理报告2022局P传风暴》的侵权内容,抖音、西瓜平台向北京知识产权法院承诺,履行高于信息存储空间服务提供者必须承担的通知删除义务,涵盖了主动审查过滤、阻拦遏制侵权行为等内容。法对于网络版权侵权问题的治理成效十分显著。国家版权局等四部门于2021年6月联合启动打击网络侵权盗版“剑网2021”专项行动,重点强化短视频、网络直播、体育赛事和在线教育领域版权监管,重点打击未经授权对视听作品删减切条、集中批量上传大型体育赛事节目、盗版电子教材和课件视频等侵权行为。专项行动期间,共删除侵权盗版链接119.7万条,关闭侵APP1066个,查办网络侵权盗版案件1031件,其中刑事案件135件,涉案金额5、规范深度合成技术应用,平衡创新与安全越来越低,实现了技术的“平民化”,深度合成内容负面风险持续加剧且产生实质危害。有专针对深度合成技术滥用所带来的问题,我国正积极探寻建设有效治理机制。自2019年11月起,我国先后出台《网络音视频信息服务管理规定》、《网络信息内容生态治理规定》、《互联网信息服务算法推荐管理规定》等文件,均对生成合成类内容提出不同程度的治理要求。2022年1月,国家网信办发布《互联网信息服务深度合成管理规定(征求意见稿)》(以下简称《规定(征求意见稿)》),全面系统地对深度合成内容的用途、标记、使用范围以及滥用处罚作出规定。22该《规定(征求意见稿)》具有如下举措:21/jwb/html/2022-07/01/content_15361_6391244.htm22/xinwen/2022-01/28/content_5671053.htm造内容的传播。《规定(征求意见稿)》要求深度合成服务提供者对使用其服务所制作的深度合成信息内容,通过有效技术措施添加不影响用户使用的标识,依法保存日志信息,使深度合应当提供进行显著标识的功能,并提示使用者可以自行标识。发现应该进行显著标识而未显著输该信息,按规定作出显著标识后,方可继续传输。他人权益的信息内容传播。《规定(征求意见稿)》要求深度合成服务提供者开发上线具有舆产品、新应用、新功能,应当按照国家有关规定开展安全评估;应当建立健全辟谣机制,发现深度合成信息服务使用者利用深度合成技术制作、复制、发布、保障措施。最后,明确了监管和处罚要求。《规定(征求意见稿)》明确了在我国境内应用深度合成技术门对深度合成信息服务提供者履行深度合成信息内容管理主体责任情况开展监督检查,对存在问题的深度合成信息服务提供者及时提出整改意见并限期整改。深度合成服务提供者对网信部门依法实施的监督检查,应当予以配合,并提供必要的技术、数据等支持和协助。如有违反法限。33人工智能时代的算法治理报告2022局体领域开展了大量的立法实践和监管举措,比如精准广告、社会治理和公共服务、劳动权益保等领域。此外,算法应用中的个人数据保护依然被监管方重视。欧盟在算法监管上采取以统—监管规则、行政治理干预为主的路径,从“软性”伦理规范原则走向“硬性”法律监管规则,不断抢占全球算法治理规则的主导权。早在2018年,欧盟发布《欧盟人工智能战略》和《欧盟人工智能协同计划》,提出了要加强对算法风险应对策略出了人工智能伦理治理的顶层框架,确定了以占据伦理高地作为其发展人工智能和争取国际规则制定权的突破口和优势手能政策将走向监管。2021年4月,欧盟提出《关于人工智能的统—规则(人工智能法案)》,首先,该法案涵盖所有领域(军事除外)以及所有类型的人工智能,适用于在欧盟境内将人工智能系统投放市场或投入使用的实体(无论该实体是在欧盟境内还是在第三国)、在欧盟境内使用人工智能系统的实体以及在第三国使用人工智能系统但系统的输出用于欧盟境内或对欧盟境内人员产生影响的实体。这意味着开发和部署人工智能系统的组织将不得不遵守欧盟人工智其次,该法案采取了基于风险的监管思路,基于对功能和用途等要素的综合风险分析,将AI系统的风险等级分为不可接受风险、高风险、有限风险和低风险等四类,等级越高的应用场景的;第二,高风险的AI系统应用场景主要包括关键基础设施、影响个人教育或职业成就的教育23ProposalforaRegulationoftheEuropeanParliamentandoftheCouncillayingdownharmonizedrulesonartificialintelligence(ArtificialIntelligenceAct)andamendingcertainUnionlegislativeActs,EuropeanCommission,p3.人工智能时代的算法治理报告2022或职业培训、产品的安全组件、就业和员工管理、基本的私人和公共服务、执法用例、移民和边防管理、公正和民主程序、监控系统等,在部署和使用前,需履行风险评估、数据质量管理、运行记录可追溯、必要的人类监督等严格义务和责任;第三,有限风险的AI系统主要是聊—定的自主权;第四,最低风险的AI系统,包括电子游戏、垃圾邮件识别等多数AI应用,不做利实施。在成员国层面,要求各成员国指定—个或多个相应机构来监督规则的实施。监管机构重点关注高风险AI系统的监管,要求高风险AI系统必须在满足对应的强制性要求以及事前评估合格的前提下才能在欧洲上市。监管机构对违反法案规定的行为提出了原则性的处罚规相较而言,美国和英国为了促进人工智能技术的创新与发展,都采取了与欧盟不同的监管模式。美国采取的是较为灵活、分散和多元的监管模式。强调尽量少地采用“硬性”监管,鼓励域性治理实践。相对应的美国政府治理主体也较为多元。不同监管机构在自己的业务管辖范围22年7月,英国提出建立促进信任,最终推动整个人工智能产业经济的发展。25首先,该模式主要根据人工智能应用及其在能问题,避免为技术创新设置不必要的障碍。欧美国家都很重视监管社会治理和公共服务中的算法应用。因为政府部门在社会治理和公共服https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021PC0206&from=EN25.uk/government/publications/establishing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement#a-new-pro-innovation-approach务中应用算法,是把对人的价值判断委托给算法,通常会引发资源分配的公平问题、公共权力运行的透明问题以及社会决策和隐私侵犯等问题。政府应用算法应更加透明和负责,确保不滥外后果等。这些对于保护公民权利至关重要。为了使公民能够更加信任政府以及政府在社会治理和公共服务中应用的算法,欧美各国针对该、算法审计等治理监管举措。首先是在算法的透明度要求、影响评估方面。早在2017年,美国纽约市便已通过了算法透明法案,并设立了“算法问责特别工作组”(AlgorithmicAccountabilityTaskFore)。该工作组专门负责监督市政府使用算法的情况,其监督场景包括刑事调查、教师评估、消防、公共住房等。2019年,欧盟发布《算法责任与透明治理框架》,提出算法透明治理的框架,并且tion关法律框架,并正在建立公共算法登记册等。26通过这些工作,法国公民可以开始了解政府如何使用算法以及如何做出可能影响他们的决策,从而为加强算法问责制奠定基础。2021年2月,Etalab发布了—份建立登记册的指导文件,确定了算法需要登记的四类信息:负责机构;在决策过程中所起的作用;算法决策影响;算法技术原理及运行情况。其次,针对政府在社会治理和公共服务中应用算法开展的算法审计工作,这里以荷兰为代表。荷兰审计法院2021年1月26日发布了《理解算法》(Understandingalgorithms)审计报告。27荷兰审计法院开发了算法审计框架的工具,该算法审计框架包含治理和问责制、模型和府各部门在行政工作中应用的预测性算法(PredictiveAlgorithm)和规范性算法(PrescriptiveAlgorithm),审计对象共有86个算法。荷兰审计法院的算法审计结果是:第—,政府在社会治理和公共服务中应用的算法是以政府利26/algorithm-accountability-what-government-can-do-right-now/27https://english.rekenkamer.nl/publications/reports/2021/01/26/understanding-algorithms人工智能时代的算法治理报告2022止破坏活动、间谍活动和犯罪活动等发生。在AI时代,加强对作为算法哺育原料和优化动力的数据的治理,强化算法应用中的个人数据保护,降低数据输入阶段的隐私风险,是算法治理的源头。在治理算法的数据输入隐私风险方增加透明度和保障用户选择权方面,既要求让用户知情个人数据如何被处理,又需保证用户的退出权利。如2021年《数据法案》(该法案又被称为《数据和算法透明度协议法案》)要求使用算法操纵内容展示且拥有3000万以上用户的互联网平台在收集、共享、转让用户习惯、户的撤回同意或要求删除数据的权利。28《算法正义和在线平台透明度法案》则禁止在线平台在露算法处理收集或创建的个人信息种类、收集或创建方式、处理方式、对不同种类个人信息优先排序或分配权重的方法。29而《过滤气泡透明度法案》则对平台的算法推荐进行规制,要求大型互联网平台在使用非用户主动提供的用户网络搜索和測览记录、地理位置、身体活动数据、设备交互等特定数据进行个性化内容推荐时,显著告知用户并需提供切换非个性化推荐算Algorithms)和《你的公司运用人工智能:以真实、公正、平等为目标》(AimingforTruth,28DataandAlgorithmTransparencyAgreementAct,/bill/117th-congress/senate-bill/1477/text?r=2&s=4.29AlgorithmicJusticeandOnlinePlatformTransparencyAct,/bill/117th-congress/senate-bill/1896/text.30FilterBubbleTransparencyAct,/bill/117th-congress/house-bill/5921?q=%7B%22search%22%3A%5B%22%5Cu00a0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5Cu00a0Act%22%2C%22%5Cu00a0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5C-u00a0Act%22%5D%7D&s=4&r=1.”,《华东政法大学学报》,2022年第1期。保护法GDPR通过赋予用户被遗忘权、可携权等新型权利加强用户对个人数据的控制,以减轻自动化决策等算法应用带来的负面影响。《数字市场法案》则对处于优势地位的“守门人”(gatekeeper)的数据获取与利用进行进—步限制,要求未经用户同意不得将从核心平台服务获得的个人数据同从自身其他服务获得的数据合并,防止侵害消费者隐私。同时,其要求未经用户明确同意不得出于商业目的合并个人数据以供定向广告和微定向广告使用,未成年人个人数据不得用于直接营销、用户画像和定向广告等商业用途,对算法应用的数到黑箱下大规模数据处理所引发的用户隐私焦虑,并且不能以此否认数据保护对促进市场竞争的正向作用。英国竞争和市场管理局、信息专员办公室在《数字市场中的数据竞争和个人数据保护:CMA和ICO联合声明》中指出,数据保护和竞争具有强大的协同作用,强化用户隐私和外在算法自动化决策应用领域的治理和监管上,呈现出密集立法的趋势。这是由于历史数据的偏差、设计者嵌入的偏见、或者技术的不完善等原因,算法经常做出错误的、歧视性的决策。同时,算法不公开、不接受质询、不提供解释、不进行救济、决策不透明等原因使得错误美国和英国等出台了—系列立法要求提升算法的透明度、开展自动化决策影响评估。32https://www.europarl.europa.eu/news/en/press-room/20211118IPR17636/digital-markets-act-ending-unfair-practices-of-big-online-platforms。33Competitionanddataprotectionindigitalmarkets:ajointstatementbetweentheCMAandtheICO,.uk/government/publications/cma-ico-joint-statement-on-competition-and-data-protection-law.首先,以上这些算法自动化决策立法主要回应和解决算法偏见、算法错误等问题。如AEDTLaw并提供公开摘要,在业在开发和使用算法自动化决策系统中有持续的偏误测试流程。英国框架要求进行算法测试以后果,为所有公民提供公平的服务。以及适用的数据保留政策应当予以公开。英国框架要求帮助用户和公民了解算法如何影响他最后,算法自动化决策立法对问责、算法影响评估等做出要求。加州《自动化决策系统问责法》要求相关企业每年都需要向加州商业监督部提交报告,报告需要总结其使用算法自动化决则要求明确责任人,并且建构面向未来的持续性监督。权益欧美在劳动权益保护中强调对算法的监管,主要分为两个层面的问题:—方面是零工经济中,2021年2月欧盟委员会就改善零工经济工人权益向社会开展公众硅商,硅商的7个可能改善方向之—就是加强平台企业的算法治理。Uber随后表态将与政策制定者和社会团体就该议题进34/new-york-city-enacts-law-restricting-use-of-artificial-intelligence-in-employment-decisions/35/2021-artificial-intelligence-and-automated-systems-annual-legal-review/#_ftn12136.uk/government/publications/ethics-transparency-and-accountability-framework-for-automated-decision-人工智能时代的算法治理报告2022局性和控制权、透明和公平的收入、获得福利和保护的机会,以及有意义的代表权。”372021、260欧元的罚款,因为它们使用算法对骑手进行自动化决策、分析和分配订单时存在透明性和公平性问题,违反了GDPR第5、22条的相关规定。意大利数据保护机构认为:“水平则被排除在工作机会之外,这是歧视性的。而且平台没有向骑手充分告知算法的运作情况,也无法保证算法评估骑手的结果正确性,也没有提供人工干预审查、个人质疑和申诉的机会,这些都有违GDPR的相关规tionsinplatformwork),要求平台增加使用算法的透明度,确保平台工人对其工作情况的监此外,欧美针对公司应用算法进行人力资源决策进行监管。欧盟在实施“透明和可预测的工作策结果的义务、负有监督和审查影响员工的自动决策或监控算法的义务。同时,欧盟在《人工智能法案》中将用于就业和人力资源领域的算法系统认定为是高风险的,企业在使用该类算法AB案,该法案针对亚马逊等大型仓储企业而制定的。此类仓储企业受到坪击的主要原因是其广泛使用自动化软件和37/technology/eu-seeks-views-gig-workers-rights-ahead-possible-law-2021-02-24/38https://www.bankinfosecurity.eu/food-delivery-services-face-gdpr-fines-over-ai-algorithms-a-1721239https://ec.europa.eu/commission/presscorner/detail/en/ip_21_660540/california-cracks-down-on-quotas-for-warehouse-employees-going-into-202244人工智能时代的算法治理报告2022局业在算法伦理治理上进行了长期的探索,从过去积极探索算法伦理治理的落地实践并取得阶段性成效。从2016年开始,人工智能伦理治理经历了原则大爆炸、共识寻求和迈向实践这三个阶段。412019年,欧盟人工智能高级别专家组发布《可信人工智能伦理准则》引发广泛关注。OECD比亚、哥斯达黎加、秘鲁和罗马尼亚在内的非成员国都签署了该原则。该原则在2019年6月的20国集团(G20)会议上得到全球性协议--《人工智能伦理问题建议书》(以下简称“《建议书》”)。《建议书》历经3年多的时间,由来自世界各地的数百名《建议书》的出台标志着全球算法伦理治理已经达成伦理共识,正在走向伦理治理实践。联合国教科文组织总干事阿祖莱认为:“世界需要为人工智能制定规则以造福人类。《人工智能伦规范人工智能发展和应用提供实践指导和工具基础。《建议书》的核心是价值观、伦理原则及相关的政策建议、监测与评估。在价值观方面,《建多样性和包容性,以及在和平、公正与互联的社会中共生等4部分进行了阐述。伦理原则方面,《建议书》明确了相称性和不损害、安全和安保、公平和非歧视、可持续性、隐私权和数据保护、人类的监督和决定、透明度和可解释性、责任和问责、认识和素养等9大原则。42https://en./artificial-intelligence/ethics人工智能时代的算法治理报告2022伦理影响评估意在帮助开发和部署人工智能系统的国家和公司评估这些系统对个人、社会及环的影响;准备程度评估方法则帮助成员国评估本国在法律和技术基础设施方面的情况。这—工具将有助于提高各国的机构能力,并建议采取适当措施,以确保伦理规范在实践中得到遵仅需要多元主体的共同合作、协商,还需借助相应的制度建设、伦理工具、伦理认证培训等多目前,我国政策和立法持续提出明确的算法伦理治理要求,算法伦理治理呈现出由伦理规范原二,算法伦理问题可能会发酵演变成社会问题或法律问题,这就需要政府部门在获得广泛价值府工作机构或行业机构。如2019年英国建立数据伦理与创新中心,对算法应用进行管理,就算法伦理治理隶属于科技伦理治理范畴内,相应的配套政策、法律法规等也在逐步建立完善之中,这将使国家科技伦理治理体系的建立有了政策保障,使科技伦理治理工作有法可依。人工智能伦理规范》于2021年9月被正式推出。该规范旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和非法人组织等提供伦理指引,不仅提出了增进人类福扯、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求,还提出覆盖人工智能管理、研发、供应、使用等生命周期的18项具体伦理要求。2021年12月通过修订的《科学技术进步法》规定了企业、事业单位等主体需要“履行2022年3月中共中央办公厅、国务院办公厅发布的《关于加强科技伦理治理的意见》(以下简件,该《意见》的发布是我国科南,要求“研究内容涉及科技伦理敏感领域”的人工智能科技企业必须设立科技伦理(审查)委员会。按照《意见》要求,人工智能科技企业需要以科技伦理(审查)委员会为机构依托,对人工智能研发和应用中的伦理风险和伦理问题,通过培训教育等途径培养和提升研发人员的做到企业和行业自律。第二、算法伦理治理的法治化方面,2022年1月《互联网信息服务算法推荐管理规定》(以下简称《规定》)的正式出台具有标志性的意义。43这不仅是中国第—部聚焦算法治理的部门规章,也是全球第—部系统性规制算法的法律文件。业内人士也以此为标志将2022年称为中国《规定》具有丰富的伦理意蕴,它有7大基本原则:遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则。《规定》从三个主要维度进行算法治理:(1)树立正确的算法导向,逃扬社会主义核心价值观,坚持主流价43国家互联网信息办公室.互联网信息服务算法推荐管理规定EB/OL.2022-01-04/2022-03-05./2022-01/04/c_1642894606364259.htm.人工智能时代的算法治理报告2022监管机构和监管模式,配套相应的监管手段和违规惩罚机制。人工智能伦理委员会机制不仅是企业自律的重要体现,也是落实算法伦理治理的重要制度保理治理的实践创新。名称介1)负责任AI办公室负责制定内部的AI伦理准则、审查敏感应用案例等;2)AI伦理委员会下七个工作组,对特定AI伦理问题进行研究、反思、建议、主动制定内部政策。队旨在落实其AI原则的三层治理架构,包括AI原则审查委员会,对谷歌的AI产品和AI交易等进行伦理评估,以落实其AI原则。负责伦理原则的落地实施,建设企业负责任、可信任的AI伦理文化,支持企业伦理咨询决策和产品的伦理审查。组在公司层面推进负责任AI,研究机器学习决策的影响、完善Twitter信机器学习方案等。其独立顾问小组包含多名不同背景与学科的外国专家,就AI伦理问题提供反债与指导。Salesforce技术伦理办公室下设伦理咨询委员会,致力于建立合乎伦理的产品政策、框每个人的基本权益。推进人工智能伦理研究,提供高效、可扩展和透明智能的解会落实伦理原则,开展人工智能伦理风险控制、人工智能伦理研究和人工智能伦理培训等三个方面工作。企业伦理原则、指导纲领等制度性建设,建立员工道德行为规范、人工智能应用准则等。智能研发的规则规范巴巴人工智能治理与可持续发展实验室、科技伦理研究算法公平性与可解释性、可信可靠AI等技术性解决方实验室格灵深瞳人工智能伦理审核能技术的伦理规范审查表2:国内外科技企业AI伦理委员会建设情况人工智能时代的算法治理报告2022企业AI伦理委员会具有较高级别,统筹企业的AI治理工作。伦理委员会的成员构成具有多元化、跨学科、跨领域的特点,主要由伦理专家、技术专家、法律专家以及特定主题领域专家构成,积极吸纳外部专家参与。企业AI伦理委员会的职能主要有三个方面: (2)伦理评估与审查。伦理委员会依据现有伦理原则、政策法规,对技术研发和产品应用进行teelutions (3)伦理教育与文化建设。这是伦理委员会的重要职能,谷歌AI伦理治理的—大特色是专为员AI风险管理是算法伦理治理理念和技术的前沿性探索,旨在帮助AI的设计者、开发者、使用者以及评估者更好地管理AI生命周期中可能出现的风险。2021年12月,美国国家标准与技术研究院(NIST)发布《人工智能风险管理框架概念文件》(AIRiskManagementFrameworkAII工智能全生命周期的角色和责任的共同理解打好基础,旨在成为映射、测量和管理与人工智能责设计或开发人工智能系统的人群、负责使用或部署人工智能系统的人群、负责人工智能系统评估或治理的人群、受到人工智能系统产生或放大的风险影响(伤害)的人们。其次,在识别和管理与AI系统相关风险的综合方法中,NIST使用了三类特征分类法:技术特征、社会技术特征和指导原则:1)技术特性是指AI系统设计人员和开发人员直接控制的因素,可以使用评估标准来衡量,例如准确性、可靠性和弹性;2)社会技术特征是指人工智能见;3)指导原则是指更广泛的社会规范和价值观,表明社会优先事项,例如公平、问责制和最后,人工智能风险管理框架包含核心层(Core)、概况层(Profiles)以及实施层 (Implementation)等三个层级:1)“核心层”负责提供—个活动和结果的集合来管理人工智能风险的组织级对话;2)概况层是管理特定应用场景中人工智能风险的技术或非技术指人工智能相关的活动,产出最满足组织价值、使命、商业需求和风险的结果;3)实施层负责长的工程师等。44AIRiskManagementFrameworkConceptPaper./news-events/news/2021/12/nist-seeks-comments-concept-paper-ai-risk-man-nagement-framework人工智能时代的算法治理报告2022预设计测试与评估设计与开发预设计测试与评估2分析、量化和追踪4推行风险管理文化移或接受确定应用场景,列出与该场景相关的开发图2:AI系统生命周期风险管理对符合标准的人工智能产品、服务或系统进行鉴定认证,作为确保AI合乎伦理的有效尝试已经获得了越来越多的认可。同时,目前国内外也有越来越多的AI伦理认证实践。ECertifAIEd从透明度、问责制、算法偏差和隐私等四个方面建立认证标准,确保通过认证的产品、服务或系统是符合相关的伦理标准的。这样积极的做法,能有效地获得社会公众对AI系统的信任。其中:1)透明度标准,涉及系统设计中嵌入的价值,以及开发和运营选择的公开性和披露举措;2)问责制标准,表明虽然AI系统具有自主性和学习能力是人或企业设计的算法和计算过程的结果,但是人或企业仍然对其结果负有责任;3)算法偏差标准,防止AI系统产生不公平结果的系统错误和可重复的不良行为;4)隐私标准,旨在尊重个人、群体或社区的私人生活领域和公共身份,从而维护其尊严45。2021年11月,维也纳市智慧城市公共其次,各国也在不断探索推进AI伦理标准认证工作。2021年12月英国数据伦理与创新中心发布的《建立有效的人工智能保障生态系统的路线图》也明确了AI伦理认证服务,以满足人们对人工智能系统的信任需求。英国AI伦理认证体系借鉴会计认证业务的体系和流程,包含了5个指定要素:1)包含责任方、用户和第三方认证方的三方关系;2)认证主题和范围;3)合理证标准;4)充分和适当的认证凭据;5)认证意见。英国AI伦理认证从AI系统的鲁棒性、准确性、偏见和公平性、社会和人权影响、数据质量、预期用途、管理流程和控制等多个维度我国的AI伦理认证也在持续探索中。中国信息通信研究院在2021年研发推出了产品服务评、应用成熟度评测和可信风险评估三位—体的“可信AI评测”体系,测评认证分为产品服务测试、应用成熟度评测和可信风险评估三类,累计为73家企业提供了178次测试服务。中国人在AI应用的具体行业中也有—些AI伦理认证的创新探索。2022年3月,北京国家金融科技认证中心认证启动“人工智能金融应用伦理影响评估”试点工作。47该AI伦理认证贯彻“以人为IEEECertifAIEdTheMarkofAIEthicsEBOL8./ieeecertifaied.html.46/news/home/20211115005200/en/City-of-Vienna-Earns-IEEE-AI-Ethics-Certification-Mark-Reinforcing-Commitment-to-Digital-Humanism-Strategy47/s?id=1727348997933531659&wfr=spider&for=pc人工智能时代的算法治理报告2022本,科技向善、权益保护、责任担当”的伦理理念,聚焦“算法滥用、数据鸿沟、隐私保护”等挑战,研制人工智能金融应用伦理影响评估模型与指标体系,形成包含“伦理管理能力、相称性和不损害、数据安全和个人隐私保护、安全保障、可持续、公平和非歧视、透明可解释、人类监督与决定、责任与问责”九类评估领域的框架,探索推出人工智能金融应用伦理影响评估服务。同时,人工智能金融应用伦理影响评估划分了“基础级、可控级、可信级”三个等级,这是对机构人工智能道德伦理治理能力取得金融消费者以及社会信任的评级。算法伦理赏金机制开创了算法歧视问题的众包改进模式。过去国外科技企业举办“Bug赏金挑战赛”,以吸引黑客们来帮助企业发现软件或技术基础设施中的Bug。现在这种成熟的做法被延用来寻找算法伦理的歧视“Bug”,继而开创了算法伦理赏金机制。2021年7月,推特效仿漏洞赏金机制推出了—项算法偏见赏金挑战,这—主动性的、集体性地寻找算法偏见举措为业内首创。推特希望借助挑战赛来发现他们自己无法发现或识别的算法偏见等潜在伦理问题。Twitter机器学习伦理、透明度与责任小组的主管拉曼·乔杜里(RummanChowdhury)认为:“发现机器学习模型中的歧视是很困难的。但是歧视—旦触及用户,就会产生不可预估的道德伤害。”48推特在比赛中提供基于机器学习开发的自动图像裁剪算法的代码,参赛者去探索并清晰地说明该算法中可能存在的偏见,最后提交改进方案。参赛者需要提交—份描述性文本来解释发现的算法偏见及其危害性、重要性等,还需基于机器学习开发的在这次赏金竞赛中,瑞士联邦理工学院的学生博格丹·库利尼奇(BogdanKulynych)获得了最高00美金。他从Twitter发布赏金到提交方案被评为获胜者,仅用了八天时间。博格丹·库利尼奇使用人脸生成工具生成具有不同特征的人脸,然后使用推特的图片裁剪算法进行自动裁剪并观察统计结果。他使用的人脸生成工具可以生成几乎相同但年龄、性别和肤色不同的人脸照48/engineering/en_us/topics/insights/2021/algorithmic-bias-bounty-challenge。卡萨特(PeterCassat)的观点来说,现在企业通过数字化转型,将以前的传统流程和系统转方法都是有价值的51。从网络安全漏洞赏金到算法偏见赏金,可以发现这种众包模式快速解决问题的优势。在企业的算法伦理治理的落地实施中,应充分发挥众包模式的优势,建立算法伦理赏金机制,确保每个Forrester主要科技公司将在2022年开r49/2021/8/10/22617972/twitter-photo-cropping-algorithm-ai-bias-bug-bounty-results50WhyMicrosoftandTwitterareusingbugbountiestofixA.I.(2021),from/2021/08/10/why-microsoft-and-twitter-are-turning-to-bug-bounties-to-fix-their-a-i/51/cassat-builtin-algorithmic-bias-bounties/5人工智能时代的算法治理报告2022局可信AI正逐步成为行业规范化、技术商业化的关键助推器,其核心原则是让AI应用满足公平、AI伦理和相关法律法规等要求—脉相承,均将以人为本作为其本质要求。以中国、美国、欧盟为代表的AI领头羊均把可信人工智能放在了其AI伦理和治理的核心位置,发展可信人工智能也AIAI发挥用。图3:可信AI研究框架黑箱”问题也更加严重,使用者甚至是研发者都无法获知算法模型的结果与特征之间的关系。的行业实践。2021年,学界、产业界都在积极探索算法可解释性的技术路径和实践路径。目前主要有两大主流探索方向:人工智能时代的算法治理报告2022局型的理解和信任。譬如,谷歌的模型卡片机制(modelcards),对模型的输入、输出、模型架构、性能、局限性等进行描述,旨在以简明、易懂的方式让人们看懂并理解算法的运作过程。国内互联网行业也开始采取类似做法,促进算法模型的透明度。类似的是Facebook开发的系统卡(AISystemCards),它是—个机器学习算法的简介文档,对算法的训练数据集、运行环境、影响评估等信息进行披露,使技术专家和普通用户都能了解其AI系统的意图、影响任何问题。这种方法可以帮助理解和减轻算法系统的潜在危害或安全问题,并促进算法的透明算责制度。第二,打造可解释性工具,推动构建可解释的AI模型(XAI)。这方面主要是针对可解释性工具、可解释模型方面的研究,从技术层面解决可解释性的问题。随着可信AI和AI监管日益得到重视,行业更加重视可解释AI研究,寻求解决AI的可解释性问题的技术方案。越来越多的可解的泛线性模型、集成学习模型、图像识别模型以及自然语言处理模型等。近年来头部的人工智 (Interpretable)方法与可解释(Explainable)方法,为实际面临的可解释性问题的解决提供52/blog/facebooks-five-pillars-of-responsible-ai/53/doi/10.1145/3430984.3430987年份年份可解释性工具表3:常见的可解释工具(来源:腾讯研究院《可解释AI发展报告2022》)国内科技企业主要在算法应用阶段的可解释性上做了大量实践探索。比如,2021年美团公开优图实验室在可解释计算机视觉方面做了大量实践探索:第—是可解释人脸识别。优图从人脸质量分和识别置信度增加人脸识别的可解释性。目前的人脸识别技术通常依赖深度学习,天然存在着可解释性问题。优图从人脸质量分和识别置信度两个方面为人脸识别技术增加可解释者则通过不确定性概率分布来建模人脸特征,为识别判断提供额外的置信度信息。第二是场景理解AI的可解释实践。在基于计算机视觉的场景理解AI应用上,优图通过架构设计、训练集清单、备注模块等模块化工作,提高AI算法整体上的透明度与可解释性,进而帮助使用人员更好算法安全是可信AI的重要组成部分。为有效防范算法应用带来的安全风险,保障技术创新应用与发展,提高算法安全的技术能力和管理能力显得越来越重要。早在2020年,Gartner就将AI安全列入了十大战略技术趋势,并指出30%的网络攻击利用训练数据投毒、AI模型窃取、对I环节都存在被攻击的风险点。在工业、农业、医疗、交通等各行业与AI深度融合的今天,应确重后果。54https://emtemp.gcom.cloud/ngw/globalassets/cn/information-technology/documents/top-tech-trends-2020-cn.pdf人工智能时代的算法治理报告2022局目前,算法安全主要集中在两个层面。首先是对算法系统本身的保护,保护人工智能训练数IAI模型后门攻击”、“数据木马隐藏攻击”等。然后通过模拟实战中的黑客攻击路径,从而针对性地进行防御建设,如黑盒对抗防御、对抗训练以及面向实际部署阶段的神经网络后门植入技术等,并且开发上线了后门基准平台(BackdoorBench)。2021年4月微软推出了开源的AI风险评估工具Counterfit,该工具旨在帮助开发人员测试AI和机器学习系统的安全性,以确保其图4:AI系统不同阶段安全问题框架其次是检测和防范算法恶意使用引发的安全风险。近年来,深度伪造、“AI换脸”等问题带来了严重的安全风险和隐私危机,恶意用上述手段诈骗和污蔑他人的案例屡见不鲜,过去几年,研究机构和企业尝试通过研发更强大的深度伪造检测算法来应对此类问题。2019年,美国研究机构推出了FaceForensics++这—深度伪造检测基准数据集,在这个数据集基础上,检测算法能够正确识别被改变的图像的百分比。针对AI换脸,腾讯安全部门研发的頸别技术AntiFakes,可分辨各种技术合成的“假脸”,让人们放心感受技术带来的全新体验和便利。AntiFakes基于图像算法和视觉AI技术,能够实现对图片或视频中的人脸真伪进行高效快速地检测和分析,鉴别图片中的人脸是否为AI换脸算法、APP(如公平性是可信AI的重要考量,主要是为了使算法决策不再对个人或群体产生歧视或偏见。而实际上,算法歧视是AI领域常见且频发的问题,已经成为阻碍人工智能发展的重要问题。建立具加速推进人工智能落地的必要条件。根据机器学习算法生命周期,消除算法偏差可分为预处理、处理中和后处理三种机制:当能够参与数据生成或修改采集到的数据时,采用预处理机制清洗数据或使用合成数据,以消除偏AI有很多的创新发展和实践。以人脸识别算法的公平性研究为例,其主要从数据和算法两个方面入手:(1)由于常用的人脸识别数据集,如VGGFace2和MS1M等在制作过程中没有考虑族群、性别等属性的均衡,故基于此训练得到的模型不可避PT55刘文炎等:《可信机器学习的公平性综述》,《软件学报》,2021年第5期,第1404-1426页。人工智能时代的算法治理报告2022局Balanced等;(2)已有研究表明,即便以均衡的数据集训练得到的模型仍存在—定的偏见,其他群体。通过同时训练识别模型和族群属性估计网络,从而得到与属性无关的人脸识别特族群定义的不—致性。因此,迫切需要—种不依赖于族实验室的“基于个体FPR—致性的人脸识别—次将群体上的公平性问题拓展到了个体上,通过提高算法在个体层面的误过率(FPR)—致性,从而显著提高算法群体的公平性。不同于之前所有的人脸识别公平性研究工作,我们的方,可以方便地结合常用的人脸识别损失函数进行模型训练。此外,公平性检测也是推进算法公平的重要实践方式。—方面,研究机构推出了基于不同纬性别偏见的基准;结合Winogender和WinoBias数据集创建的WinoMT,是—个衡量机器翻译中性别偏见的基准。另—方面,研究机构和企业陆续推出了公平性测试的算法、工具等。比ToolkitIBM究院开发的可扩展开源工具包,帮助开发者在机器学习应用程序生命周期中,到的不公平问题。隐私保护是大数据、人工智能等信息技术发展无法回避的议题,也是算法技术治理和可信AI建在数据方面,主要包括差分隐私、合成数据、同态加密(HE)、匿名化等技术手段。这里以训练中的价值主要包括:1)解决数据敏感、数据匿乏等问题,在医疗、金融、保险等领域具可以避免用户隐私保护问题;2)消除算法歧视,因为合成数据可以提升训练数据的多样性,进而打造更公平的AI算法模型;3)应对模型训练中的边缘案例,提升AI算法模型的准确性和安全性。MIT的研究表明,利用合成数据训练AI模型可以达到与真正数据—样甚至更好的效成数据。在算法方面,以隐私计算为主要领域,主要包括了安全多方计算、零知识证明、联邦学习等。这里以联邦学习为例进行说明。联邦学习是隐私计算领域主要推广和应用的方法,是目前隐私计算领域相对最为成熟的技术路径。联邦学习在数据在不出本地、各参与方无需共享数据的情况下,即可实现联合训练AI模型的效果,保护隐私和信息安全,这—方法目前在医y技术实现需要建立在差异化隐私理论之上,通过提供—个衡量隐私保障的框架,以确保模型CSPCAngelPow

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论