我国算法治理政策研究报告_第1页
我国算法治理政策研究报告_第2页
我国算法治理政策研究报告_第3页
我国算法治理政策研究报告_第4页
我国算法治理政策研究报告_第5页
已阅读5页,还剩83页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

四部分提出了若干政策建议,包括(1)在治理目标上,实现算法可问责与算法经济高质量发展;(2)在治理主体上,通过部际联席会议制度形成算法治理合 (一)算法的定义和分类 1 (二)算法的经济和社会价值 2 (三)算法的不确定性影响 4 (四)算法治理的概念界定与治理框架 9 二、域外(国际组织)算法治理的基本现状与主要案例 10(一)欧盟算法治理现状和案例 10 (二)美国算法治理现状和案例 14 (三)新加坡算法治理现状和案例 18 (四)国际标准组织在算法治理规则和实践上的探索 19 (一)欧美算法治理实践比较 20 (二)我国算法治理现状分析 25 (三)比较视野下我国算法治理的现存问题 26 (一)在宏观维度上,调试与完善算法治理框架 28 3.在治理对象上,建立一套共性的规则和标准后统筹考虑多元应用场景 (二)在微观维度上,构建并适用全生命周期风险管理流程 32 (三)用例分析:医疗辅助算法和自动驾驶算法的治理与发展 34 算法概述与算法治理框架(一)算法的定义和分类法的分类根据不同维度,算法有不同的分类:(1)从算法范畴的维度看,可以分成 (AI)、机器学习(Machine-Learning)等基础上产生的复杂“算法”,也包括简相应预期结果的系统。(2)从算法技术逻辑的维度看,根据学习方式,机器学生环境的学习方式。(3)从算法应用的维度看,根据我国《互联网信息服务算(二)算法的经济和社会价值共.助力制造业智能化升级,提升生产效率:其一,保障生产安全。2.推动商业模式创新拓展,算法成为行业核心竞争力“互联网+”的新经济形态下,将更多的要素资源转化为商业价值。对于2营销正在成为数字时代的商业模式新常态。中国信通院发布的《大数据白皮书 此提升资源配置效率。应对复杂的外部环境。423.算法催生新业态,显著拉动就业我国经济结构的一大动力。根据中国信通院发布的《全球数字经济新图景(2020(三)算法的不确定性影响信息茧房数字鸿沟信息茧房数字鸿沟责任认定道德困境数字劳工财富再分配算法不透明算法偏见义为损失的不确定性。改变和重塑人类生活。个维度对算法风险进行分析(见图1)。1.可能的社会风险:算法可能加剧“信息茧房”和数字鸿沟签性”,从而加剧网络社会的阶层分化,形成新的数字鸿沟(DigitalDivide),重新排序、分类和分级,进而导致“信息茧房”现象的迅速蔓延与日益固化,基度大规模失业的潜在风险。斯坦福大学人工智能与伦理学教授杰瑞ꞏ卡普兰在《人3.可能的法律风险:算法可能影响公平正义构方面优势的不断强化,传统“国家-公民”二元主体框架下的金字塔型权力结构逐渐被打破,并型塑为“政府监管的制度权力、平台运营商的技术权力与用户享有的正当权利”的扁平化权力结构。在这种新型权力结构框架下,日常生活中用户以交换个人数据而享受平台公司应用的数字生活方式,随着算法技术及其架4.可能的道德风险:算法可能引致“道德困境”和追责难题是为什么越来越多的人工智能专家强调“人在环中”(HumanintheLoop)的模(四)算法治理的概念界定与治理框架关于算法治理,学界有两个研究方向:其一,算法治理(Algorithmic论“算法官僚”的问题。其二,治理算法(GovernanceofAlgorithms),即基于风险预防的理念,将算法及其运用场景作为治理对象,如讨论“算法歧视”、“算法霸权”、“算法共谋”等问题。每一项人工智能技术背后都有一套算法支撑,算法2.算法治理五要素框架二、域外(国际组织)算法治理的基本现状与主要案例(一)欧盟算法治理现状和案例理的总体思路2019年由欧洲议会研究服务中心未来与科学和技术小组发布的《算法责任义义务。同时该报告强调了负责任研究与创新(ResponsibleResearchandInnovation)在促进实现算法公平中的作用和意义。在对既有案例梳理和技术问(1)应当提升公众算法意识和素养,形成社会舆论的治理氛围(2)建立算法影响评估机制(3)建立监管机制(4)实现全球协调治理2.欧盟对算法的治理框架和应用规则AI预和监督机制。第二,确保AI的稳健性和AI和结果的可追溯性,保证AI的决策结果可AI产品或接受服务。第六,鼓励AI系统负担3.欧盟将算法治理嵌入数据治理的框架中、限制处理权、反对权、4.欧洲算法治理最新案例:意大利禁止算法歧视(二)美国算法治理现状和案例1.美国没有采取集中的、命令控制式的治理方式2016年奥巴马政府发布报告讨论人工智能已有的和潜在的应用,以及人工即行政机构应该促进可依靠、鲁棒的和值得信任的人工智能应用。(2)公众参与,即公众有机会提供信息和参与规则制定过程中的各个环节。(3)科学诚信和信息质量,即制定政策应基于可核验的证据,并向公众明确沟通。(4)风险(6)灵活性,即考虑到人工智能技术的快速变化,“僵硬的、基于设计的规则”即行政机构应该考虑人工智能部署的公平和非歧视的问题。(8)披露和透明,够的情况下要求额外的披露。(9)安全,即行政机构应该注意人工智能任何潜在的安全风险,同时注意恶意部署和使用人工智能的风险。(10)跨机构合作,2.美国没有统一的监管部门而由各个部门在自己职责范围内规制算法联邦贸易委员会(FederalTradeCommission,FTC)将其职责解释为在国家的影响。联邦食品和药品管理局(FoodandDrugAdministration,FDA)针对人工智能的具体用途发布了一些指导文件,比如人工智能赋能(AI-powered)的医DA工智能赋能的糖尿病筛查技术等。证券交易委员会(SecuritiesandExchange全纳入现有的交通系统中,报告还讨论了监管问题。美国国家科学基金会 美国国家标准与技术研究院(NationalInstituteofStandardsandTechnology,NIST)3.美国联邦层面尚没有就算法治理制定专门法律 (使用算法或人工决策进行)消费者信用信息的收集、信用报告的制作和获取。1996年的《健康保险可携带性和问责法》(HealthInsurancePortabilityandAccountabilityAct,HIPAA)规定了医疗信息(包括个人可识别信息)的收集和该文件要求美国FTC制定和实施新规则,要求使用“自动化决策系统”的私人公RonWyden与参议员CoryBooker和众议员YvetteClarke推出更新策提出质疑的记录。该法案还提出,建议为美国FTC增4.美国州层面出台算法治理的各类规章在自动驾驶领域,根据国家议会州立法(NationalConferenceofState法透明法案,并于2018年设立了“算法问责特别工作组”(AlgorithmicAccountabilityTaskFore),专门负责市政府使用算法的情况,就加强纽约市算5.美国的非政府组织和行业自律发挥作用对算法治理的讨论,对算法治理起到重要作用。具体包括:(1)人工智能伙伴(PartnershiponArtificialIntelligence):该组织整合了研究机构、私人企业和非政府组织,讨论人工智能促进公共利益的问题。(2)消费者报告组织:敦促企业和政府让公众对个人数据拥有更大的控制权。(3)美国公民自由联盟:主要利等。(4)Up-turn:重点关注公平金融、刑事司法和数字权利方面的法律和政策。(5)人工智能现代研究所(AINow):研究人工智能对社会影响的法律和每年会发布相关报告。(6)美国程序代码组织:关注通过数字技术增加各级政府的有效性和可访问性。(7)民主与技术中心:研究制定与算法和公民自由相关的政策建议。(8)数据与社会研究所:致力于促进公众关于以数据为中心的立了一家非营利性的人工智能合作组织(PartnershiponAI),且苹果、英特尔卖给执法机关和军方。该公司涉嫌欺骗消费者,违反了联邦贸易委员会法案 (三)新加坡算法治理现状和案例加坡发布人工智能治理框架模型者来说是可解释的、透明的和公平的。该模型从四个方面阐述了适用于常见AI型框架是新加坡通过投资和建设AI能力来实现这一目标的努力的一部分。”2.新加坡就算法审计提出原则性要求英文完整版文件参见ModelArtificialIntelligenceGovernanceFramework(SecondEdition),载.sg/-/media/Files/PDPC/PDF-Files/Resource-for-Organisation/AI/SGModelAIGovFramework2.pdf.3.新加坡推动自愿性自我评估测试工具的研发和使用 括技术和非技术标准)、测试过程以及衡量指标,其中伦理原则包括了11项国明、可解释、可复现、安全、鲁棒、AdditiveexPlanations的AdversarialRobustnessToolkit和测试公平此外,新加坡当局还致力于搭建一个人工智能测试社群(Community),包。(四)国际标准组织在算法治理规则和实践上的探索ISO/IECJTC1/SC42是负责制定人工智能国际标准的标准化组织(下面简称AI算法治理也是整个AI体系化ISOIECTS如何处IAI理组织在AI技术和系统的开发和应用过程中面工作,以支持可信赖(如关于可解释性的ISO/IECTS6254,关于透明度分类的ISO/IEC12792,关于社会/个人影响评估的ISO/ISO42005,关于质量评估的系列)、生命周期过程(ISO/IEC5338)、测试(ISO/IECTS29119-11)等。三、欧美算法治理实践比较与我国算法治理现状分析(一)欧美算法治理实践比较防范技术风险。室(OSTP)发布的《人工智能应用监管指南》(GuidanceforRegulationofArtificialIntelligenceApplications)重申了应少用“硬性”监管,鼓励行政机构与私营部门合作。总《关于机器人民事法律规则的立法建议报告草案》(DraftReportwithRecommendationstotheCommissionCivilLawRulesonRobotics《欧盟人工智能政策》(ArtificialtelligentforEurope欧盟委员会《算法的可问责和透明的治理框架》 (AGovernanceFrameworkforAlgorithmicAccountabilityandency《可信任AI伦理指南》(EthicsinesforTrustworthyAI欧盟专家组《人工智能和民事责任》(ArtificialIntelligenceandCivilLiability)报告《人工智能法》(提案)欧盟委员会据规则+算法原则”构成了欧盟治理算法的制度体系,即通过“数据规则”实现算问权、对个人数据的更正权、对个人数据的删除权(被遗忘权)、限制处理权、在欧盟,2019年发布的《算法责任与透明治理框架》(AGovernancemicAccountabilityandTransparency美AccountabilityTaskFore),其专门监督市政府使用算法的情况,监督场景包括Bill)禁止在线平台通过算法歧视性处理个人信息。4.治理手段:欧盟和美国都提出了算法影响评估作为制度性工具果控制的原则,由责任人进行自我评估,算法影响评估(AlgorithmicImpactment类环境质量有重大影响的联邦行动的提议”编制并公开发布环境影响报告书 欧盟GDPR规定了数据保护影响评估制度,欧盟《算法责任与透明治理框架》 求、个人信息及决策结果存储的时间。(3)消费者对决策结果的获取权和修改(5)算法主体采取的降低风险的措施。纽约大学AINow研究所发布的一份报关事项。(4)征求公共评论以澄清相关担忧和答复相关问题。(5)为受影响的5.治理模式:欧盟和美国都采用多元主体参与、协同共治的模式发布报告建议人工智能的相关伦理问题可以通过透明度和自我规制伙伴关系来众等发挥了重要作用。比如第三方非盈利组织“为了人民”(ProPublica)发现了一些量刑算法中存在的系统性歧视问题。人工智能伙伴(PartnershiponArtificialence谷歌、IBM和Facebook联合成立人工智能合作组织(PartnershiponAI),共同(二)我国算法治理现状分析法治理的“法治之网”雏形初步形成所谓“硬法”)要弱的准法律文件。软法有多种表述形式,诸如“合作规制”、“自律规范”和“准规制”等。可以看到(见表3),我国已经初步形成一张算指导意见》《个人信息安全规范》《人工智能伦理安全风险防范指引》《深度学习算法评估规范》《远程人脸识别系统技术要求》等能北京共识》2.现阶段算法治理的重点问题和场景基本明确据杀熟、算法共谋、3.互联网信息领域的算法治理主管机构得以确定(三)比较视野下我国算法治理的现存问题1.在治理目标上,现有规则缺乏体系性,治理目标不够聚焦主体上,多部门“治理竞争”,未形成治理合力3.在治理对象上,重点规制市场主体,忽视公共主体的算法责任4.在治理手段上,以行政监管为主,对技术治理措施重视不够任够完善议(一)在宏观维度上,调试与完善算法治理框架1.在治理目标上,实现算法可问责与算法经济高质量发展技术界从技术角度增强算法的可解释性,如技术界提出可解释性人工智能 2.在治理主体上,通过部际联席会议制度形成算法治理合力d监管机构,并对算法进行行政许可,要求“有实验证据证明算法是安全和可靠的责2、社区管理不完善、要不同部门协同发力。3.在治理对象上,建立一套共性的规则和标准后统筹考虑多元应用场景官僚”指通过政府购买或以公私合作的方式介入政府公共管理过程的算法公司及其24.在治理手段上,善用技术治理措施“黑箱”的问题,业界也在开发技术方案,比如谷歌提出模型透明性工具“modelcardInterpretML师协会(IEEE)则提出“遵循伦理的设计”(EthicallyAlignedDesign),“遵循伦理的设计”包括两个方面:第一,将价值和伦理标准程序化为代码嵌入到系统中,并5.在治理模式上,优化多元主体参与的协同共治模式2立“吹哨人”制度,鼓励企业内部人员监督举报,并对“吹哨人”提供保护。总之,制定,引入第三方独立的监督力量(见表4)。是科学知识的供给者,是人才的培养(二)在微观维度上,构建并适用全生命周期风险管理流程流程和措施见下图2法模型使用了有偏见、2.保障算法可问责。比如在用于信息安全、3.监督并适时调整模型2练和决策结果,实时跟踪、审计和评估模型的功能。(见图2)(三)用例分析:医疗辅助算法和自动驾驶算法的治理与发展2019年7月,我国成立人工智能医疗器械创新合作平台,发布《深度学习 (1)医疗数据缺失妨碍医疗辅助算法大规模开发和利用的问题和建议2(2)以技术创新加强数据安全和个人信息保护的问题和建议是基于数据的算法。。2的(4)促进临床试验中使用人工智能技术的问题和建议药品审评中心(CDE)发布《新冠肺炎疫情期间药物临床试验管理指导原则(试讯技术,以受试者为中心开展临床试验。”(5)降低人工智能辅助医疗算法的市场准入壁垒的问题和建议2在医疗应用中成熟度低(指未上市或安全有效性尚未得到充分证实)的人工智能定、用药指导、.自动驾驶算法业的发展。(1)自动驾驶汽车的市场准入问题和建议准入问题。虽然北京、2(2)自动驾驶汽车的法律责任规则问题和建议则存在规则缺失。(4)自动驾驶汽车的保险制度问题和建议2/42俞可平.全球治理引论[J].马克思主义与现实,2002(01):20-32.AlexEnglerTheEUandUSarestartingtoalignonAIregulationEBOL].1)[2022-03-20]./blog/techtank/2022/02/01/the-eu-and-u-s-are-starting-to-align-on-ai-regulation/.eOfficeofthePresidentMaintainingAmericanLeadershipintelligenceEBOLhttps//documents/2019/02/14/2019-02544/maintaining-american-leadership-in-ar

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论