




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
人工智能伦理与治理研究报告2021年7月目录清华大学数据治理研究中心 1理论梳理:人工智能伦理的核心关切及治理逻辑 1人工智能的定义、技术与伦理问题 1人工智能伦理的八个维度 7人工智能治理的原则与模式 16研究设计 18跨国比较:欧洲、美国、日本及中国对人工智能伦理的界定、监管及治理方案 202.1美国 202.2欧盟 252.3日本 292.4中国 32实证研究:我国公众对人工智能伦理的认知与态度 35网络问卷调查分析 35社交媒体与资讯大数据分析 43实证研究:我国公众对人工智能伦理的治理主张 53网络问卷调查数据分析 53社交媒体与资讯大数据分析 60专题分析:算法伦理及其治理 69广泛应用的算法及其影响 69算法风险凸显算法伦理问题 71算法伦理的三个关切:透明、公平和数据保护 75算法风险的治理 80对策建议:人工智能伦理及其治理的中国方案 83发挥伦理委员会作用,设立伦理道德基本原则 83因地制定治理细则,构建伦理标准体系 84制定智能治理法律法规,规范人工智能开发使用 85提高公众智能素养,畅通社会监督渠道 86出台伦理道德培训手册,增强责任主体风险意识 86搭建伦理治理共同体,加强人工智能国际合作 87参考文献 88PAGEPAGE11理论梳理:人工智能伦理的核心关切及治理逻辑人工智能的定义、技术与伦理问题人工智能的定义2016(Alpha1956年参加达特茅斯会议的科学家们就提出了人工智能的概念,即如何用机器来模仿人类学习以及其他方面的智能。人们希望通过对人工智能的研究,②智能交通、智能城市、智慧医疗等。21“原料”,是人工智能实现算法优化和智能水平提升的基础,直接影响着人工智能的(一段将介绍何为算法了各类擅长处理/控制复杂流程、并行计算和深度学习模型的芯片。随着这些芯提供了技术支持。算法广义上可以理解为是一种规则,定义了如何从输入转化为输出。例如塔尔顿.(Tarleton将算法定义为“基于特定的计算将输入数据转换为所需的输出的编码程序”。当前,人们讨论比较多的算法包括“机器学习”和“深度学习”。“机器学习”指的是利用算法让机器从数据中挖掘信息,而“深度学习”近年来,人工智能的快速发展很大程度上得益于“深度学习”的迭代优化。人工智能的主要技术:特征、发展与应用述人工智能技术得到了实质性的发展。“看”602010验、图像分析理解、图像描述生成、图像问答等不同方面。“听”和“说”音交流。1920年,“RadioRex”玩具狗算是最早使用语音识别技术的产品。当有人喊“Rex”的时候,玩具狗就能从底座上弹出来,但它并不是真正的语言识别技500500赫兹恰是人们喊出“Rex”中元音时的第一个共振峰。得益于深层Siri都是语音技术产品的典型代表。最后,规划决策系统旨在让机器像人类一样拥有规划与决策的能力。得益于电子计算机的诞生,1962年基于人工智能的规划决策系统出现。在很长一段时系统已经被广泛运用在棋类游戏、机器人控制、自动驾驶等领域。人工智能引发的伦理问题了社会各界的广泛讨论。某智能音箱对主人进行危险行为诱导,建议人类使用者自杀201912自杀“安全”29nniMoittlxalxa回答道,“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟”AlexaAlexa经常在晚上发出怪笑,或者未经授权录下私人对话并发送给其他人。Alexa智能产品进校园:“浙江小学生戴头环监控走神”②201910“头环”情况实时传输给老师和家长。“给小学生戴头环监控是否走神”这一行为违反了人工智能伦理内在的“人类尊严”“人类自主”“个人信息保护”和“安全”要求。该头环工作方式如下:头环传感器上有三个电极,可检测佩戴者的脑电波,从而评判学生是否集中注意力并进行打分——注意力分数”10分钟一次的频率发送到老师和家长微信群里,以供他们掌控孩子的上课状态“好不好”“个人信息保护”斯坦福大学人工智能算法通过照片识别性取向2017年,斯坦福大学的一个人工智能研究小组宣布了其最新研究成果——证明识别率非常良好。“性取向”属于“个人隐私应当如何合理把握尺度、设置相应规范以防止隐私侵害等问题仍然需要深入探讨。NickRule”KairosBrackeen表示:“如果有了足够的数据,人工智能可以告诉你任何人的任何事,问题是对于社会来说,我们需要知道吗?”Brackeen表示,斯坦福大学研究人员有关性取向的研究“非常正确重的态度,这样才能阻止危险发生。困在算法系统里的外卖骑手202098“实时智能配送系统””的高危处境①。次日,饿了么和美团两家外卖巨头分别推出让顾客“5分钟”和给骑手“留出8分钟弹性时间”的功能,以回应该文所引发的“网络声讨”②。无独有偶,2021517日,北大社会学博士陈龙“卧底”饿了么外卖团队“数字治理”台经济劳动过程与资本控制研究———以北京中关村“饿了么”外卖骑手群体为例的研究》,再次引发社会热议③。“吞噬”法的工作原理①的技术工具却侵害了“数字劳工”权益②,而外卖配送员不过是数据红海之中的一“人是目的”系统在具备先进性之余也要具备“人情味”③,向往“善智”的人工智能。自动驾驶安全事故责任划分据美国汽车工业协会(SAE)2021年公布的最新标准(SAEJ3016),自动驾驶分为六个等级:L0(无自动驾驶)、L1(驾驶辅助)、L2(部分自动驾驶)、有条件的自动驾驶高度自动驾驶完全自动驾驶L2L3L2L3L2L2L3L3级别。20203月,中国工信部SAEJ3016L0-L5L3L1和L2L2技术水平,下文使用自动驾驶一词时,指的是目前已经投入国内外市场、达到L2部分自动驾驶或组合辅助驾驶水平的自动化驾驶技术。“无法可依”引发了社会各界的广泛关注。2016120社会对自动驾驶安全事故责任划分的思考与争论。让其独立享有权利并承担义务和责任。人工智能伦理的八个维度献,本报告将人工智能伦理分为“人类尊严”(HumanDignity)、“人类自主”“个人信息保护”(ndividulnomtionPottion“安全(Suity责任(Rsponsibilty、“真实”(Authenticity)共八个价值维度。人类尊严(HumanDignity)人类尊严包含两层含义,其一为“每一个人都有内在的尊严,这是不可让渡“”“人类尊严”界定为“研发层面”和“使用层面”着有活力的生活。人类自主(Autonomy)康德从人的理性和尊严角度来界定“自主定自己命运的能力,自主意味着要将他人作为目的而不是手段去尊重。①智能的整个生命周期中确保“个体自主”的人应该能保持充分、有效的自我决定。表1-1 “人类自主”价值观的相应维度②研发层面人工智能的研发应尊重人类的自主性,尤其是开发与人脑和身体联系的人工智能系统时,开发人员应特别考虑到尊重人的自主性,并考虑到生物伦理学等。应设计人工智能系统以增强、补充人类的认知以及其社会和文化技能。人工智能必须服从其创造者,只要它们不与人的自主性、个人和共同利益发生冲突。人工智能的发展必须避免通过捕捉或模仿人类特征(外观、声音等)来制造依赖关系,从而造成人工智能和人类之间的混淆。使用层面消极自主人工智能系统不应威胁、减少、限制或误导人的自主性,如欺骗、无理监视以及未能保持公开目的与实际行动之间的一致性。所有“自主”技术都必须尊重人类选择是否、何时以及如何将决定和行动委托给它们(如人工智能系统的消费者或用户要求有权决定接受直接或间接的人工智能决策,有权了解与人工智能系统的直接或间接互动,有权选择退出,并有权退出)。人工智能的使用不能损害人类的价值标准和伦理规范(如重视受影响的人或社区的价值判断,并符合受影响人民或社区的价值观和道德原则)。不应通过非法和秘密的方式减少公民的选择和知识从而损害人类的自由和自主性。人们可以通过民主手段实现自决权。不能侵犯言论自由。不能干涉人们接收和传递信息的权利。应促进全人类的自主性并以负责任的方式控制计算机系统的自主性。允许用户保持对正在使用的数据的控制。积极自主应增加个人获得知识和机会的可能性(如通过确保获得相关形式的知识、促进基本技能(数字和媒体素养)的学习以及促进批判性思维的发展,增强公民在数字技术方面的能力)。人工智能系统应支持个人根据其目标做出更好、更明智的选择。可以增加公民的精神自治。应代替人做危险的工作以保障人类安全。监管层面需要政府或非政府组织的援助,以确保个人或少数群体获得与现状类似的机会。建立制度,确保责任和问责制。“自主”制度只能以符合审议民主的方式开发和使用。不应超越人类的自主性,人类应该能够监测、评估人工智能技术的发展和决策以及可能给人类自主性造成的威胁,并在必要时进行干预和处理。各主体不得通过实施压迫性的监督、评估或激励机制,直接或间接地发展或利用人工智能并将特定的生活方式强加于个人。公共机构不得使用人工智能来宣传或诋毁良好生活的特定概念公平(Fairness)①事②本报告采取洋龙对“公平”概念的界“人们对人与人之间的地位及相互关系的一种评价综合“平等主义”和“自由主义”的相关理念③,借鉴亚当斯公平理论对结果公平的(Thibaut))(Bies)和格林伯格(Greenberg)等人对互动公平的强调①,结合孟天广②、孙伟和黄培伦“公平原则”“程序公平”“机会公平”“互动公平”和“结果公平”程序公平”强调人工智能相关的政策或制度制定的过程、步骤以及相应的保障程序等具备公平性。“机会公平”指社会中包括老年人、未成年人等群体的所有人都应对人工智能及相关“互动公平”主要指执行人工智能相关的决策人际公平信息公平“结果公平”则追求“实质公平”③,要求与人工智能及相关产品有关的有价资源在社会成员之其标准是历史的、动态的、实践的④。具体而言,智能技术价值观中的“公平”价值可包含以下诸多维度。表1-2 “公平”价值观的相应维度⑤监管层面参与人工智能的政策制定者和企业管理者必须对人工智能有一个准确的理解,在受偏见、污名化和歧视的自由。使用人工智能的雇主需要定期测试人工智能。政府应审查使用人工智能的场所。符合反歧视法律。对可能在整个生命周期中直接或间接受到人工智能系统影响的利益相关者进行适当的咨询,以及确保人们获得平等的访问和待遇。应当尽早检测、报告和消除用于训练和运行人工智能系统的数据集中的歧视性偏见。制定新的公平分配和利益共享模型,以应对自动化、数字化和人工智能带来的经济转型,确保对核心人工智能技术的可及性。制定与人工智能发展同步的法律以确保公平。各国政府应采取步骤,包括通过社会对话,确保在部署人工智能时工人的公平过场获得新机会。研发层面建立多元化的设计团队并建立确保特别是公民参与人工智能开发的机制。避免开发人工智能系统的方式(例如编写算法代码的方式)存在偏差。人工智能的模型架构包括特征、分析过程和结构是合理的。人工智能系统的设计必须达到非歧视性伤害的最低阈值。人工智能应该采取包容性的设计工作,避免存在可能无意中排除某些人员的潜在设计。人工智能系统应考虑人类能力、技能和要求的全部范围,并通用设计方法确保可访问性,以努力实现残疾人的平等访问。使用层面人工智能利用的数据集是公平的。人工智能系统应该为具有相似特征或资格的每个人提供相同的建议。人工智能用户应该了解人工智能的特征,并被教育正确地使用它。建立教育环境,以消除了解人工智能技术的人与不了解人工智能技术的人之间的人和劳动力一代提供学习人工智能的机会;针对弱势地区和社会团体展开培训。保持公平的竞争环境,通过集中人工智能资源,在特定国家的主导地位下,不得的影响不应过分偏向社会中的某些利益相关者。确保公平分配人工智能技术创造的利益。结果层避免因年龄、身体健康状况、种族、族裔、国籍、能力、性别、性别认同、性取(少数群体或弱势群体)、社区或个人的偏见和歧视,以致让弱势群体处于更加处于不利的地位。面人工智能造成的积极和消极因素应均匀分配,避免使弱势人口群体处于更加脆弱人工智能系统必须在发生损害时向用户提供有效的补救,如果数据做法不再与个人或集体偏好保持一致,则必须向用户提供有效的补救。构建公平的发展环境。人工智能应该为全球正义做出贡献。透明(Transparency)“透明”理念根植于康德对“人的尊严”和“责任”整性和人类尊严的完整性联系起来,强调“说真话”的重要性,并为作为一种伦理主张的“说真话”提供了关键的哲学基础;而透明度概念本身包含着限制欺骗和错误信息,这与康德的“责任观”紧密相连①。从一系列理论家的观点来看,透明可以被定义为一种行为,这种行为假定了交流的开放性,并在当事方与交流行为的可能结果或影响有合法利害关系时,可以为直接交流提供合理预期;而当某种程度的欺骗或不作为有可能妨碍接收者应有的尊严或行使理性的能力时,这种积极主动的道德参与态度体现了对人的明确关注,即坚持了以人为目的原则。透明理念对任何关心伦理道德的人来说都是至关重要的,因为它不仅涉及我们向他人传递信息的内容,而且要求我们思考我们与他人互动的形式和性质;不仅是一个关于我们说什么的问题,而且是一个关于我们为什么说,甚至是我们如何说话的问题。②也就是(信息的公开可见③由于算“自动化决策“透明原则”“信息透明”“理念透明”和“程序透明”④信息透明”是指人工智能利用的各理念透明”是指落实人工智能“透明度”程序透明”是指落实人工智能“透明度”序应该保持透明。个人信息保护(IndividualInformationProtection)“个人信息保护”产生的基础为“人格权“个人信息保护权”所涉及的信息范围及相应的权利保护类型远多于“信息隐私权”②在“总则”“个人信息”“以电子或者其他方式记录的能够单独或者与其他“个人信息”保护也造成了挑战。通过对文献、人工智能伦理指南以及相关法律条文的梳理,本报告所界定的“个人信息保护”价值理念可包含以下层次。表1-3 “个人信息保护”价值观的相应维度收集和处理的知情同意各类主体收集个人信息前,需要以明确易懂的方式就收集和处理信息的目的、类型、规则、方式和范围征求信息主体的同意。收集和处理的知情同意可撤回信息主体有权随时撤回其对信息收集和处理的授权,且撤回同意应当和表达同意一样简单。可访问信息主体可以依法向信息处理者查阅其个人信息。可获取信息主体可以依法向信息处理者获取其个人信息。可更正信息主体发现其个人信息有错误的,有权提出异议并请求信息处理者及时采取更正等必要措施。可删除个人发现信息处理者违反法律、行政法规的规定或者双方的约定处理其个人信息的,有权请求信息处理者及时删除。限制处理信息主体有权要求信息处理者对存储的个人数据进行标记,以限制此后对该数据的处理行为。保密性或是辅之以加密措施和权限设置。安全性存储的个人信息安全,防止信息泄露、篡改、丢失。不篡改信息处理者不得篡改其收集、存储的个人信息。安全(Security)综合“链接人工智能准则平台”①上的各项人工智能伦理指南,本报告发现,安全”绝对的控制权和所有权。就技术系统与系统外诸要素而言,“安全”又可分为“内内部安全”意味着相关主体外部安全”攻击。②具体而言,“安全”价值可包含以下诸多维度。表1-4 “安全”价值观的相应维度③安全识别与评估识别、评估人工智能运用过程中可能存在的潜在风险。安全能力提升研究降低风险的办法。,数据/信息安全加强技术手段,确保数据/信息安全,防范数据/信息泄露、篡改和丢失等风险,确保人工智能系统处理、存储和传输信息的机密性、完整性和可用性。环境安全确保人工智能系统部署的外部环境的安全性。系统安全确保人工智能系统本身的安全性。国家安全保护国家安全和国防。抵抗攻击人工智能系统需要可靠、安全,足以抵御公开攻击和更微妙的操纵数据或算法的企图。后备计划确保在出现问题时有一个后备计划。可核查的安全人工智能系统应通过设计机制将安全和安保结合起来,以确保其每一步都是可核查的。人类安全应将相关人员的身心安全放在核心位置(包括最小化系统运行中的意外后果或错误,以及在可能情况下的可逆性)。交互安全确保人机交互的情感安全性以及人工智能与其环境(数字或物理)的安全交互,并按预期运行。设计安全测试,以确保人工智能系统不会侵犯人类的身心健康和安全环境。责任(Responsibility)“respondeo,‘负责任的’与‘可回答的’是一致”。①18世纪时“责任”主要是个法律概念,但时至今日,其已拓展成为蕴含着更丰富伦理内容的概念,而20既是伦理理论发展的一种需要也是对当今现实对伦理规范提出的新要求的一种回答”②在当今的社会生活中,各类主体最常涉及的责任主要包括“法律责任”和“道德责任”“底线伦理“”③“向往的道德主体更高的要求,“以道德情感和评价为基础,要求行为主体依靠精神上的自制觉认识(责任感、责任心)和行为上的自愿选择”①。真实(Authenticity)“真实”“真实原则”已成为各类主体履行职能承担责真实性”③因此,本报告认为,各类主体在设计和使用人工智能进行各类生产活动时,也“程序真实”和“内容真实”程序真实”要是指设计和使用人工智能的各类程序步骤以及信息公开的程序环节需要确保真实。“内容真实”主要是指人工智能生产的内容要保证真实性。人工智能治理的原则与模式人伦关系、社会秩序所确立的,相关主体应予以遵循的标准或原则”④。从已有文献来看,学术界对人工智能治理的讨论,基本上是从域外经验出发(果⑤,本报告将理论界对人工智能治理路径的探讨归纳为以下五种视角。理念论。此视角关注人工智能发展应确定的概念、目标与价值。①AI人类自主性原则、防止损害原则、公平原则,以及可解释原则。阶段论。20177202020252030和政策体系。人工智能监管。②责机制、完善监管机制和法律责任制度,以及加强算法治理的国际合作。③用后对算法嵌入政府治理的效果进行追责。①分优先级地制定相关公共政策。③综合已有的提法,本报告梳理出人工智能治理的可能方式并在后文汇报研究结果。研究设计研究内容究、算法专题以及对策建议,如下:准则,本报告拟从安全、透明、公平、个人数据保护、责任、真实、人类自主、国作为人工智能大国在伦理问题上的主张。工智能伦理的理解和治理主张。(即数工智能治理的政策方案,为我国人工智能治理提供思路。研究方法本报告结合“大数据”+“小数据”的多源数据,采用网络问卷调查等传统量化分析方法以及社交媒体和新闻大数据展开分析。本报告研究具体研究方法如下:能企业的社会责任、提升社会公众对人工智能的了解和监督渠道等。跨国比较:欧洲、美国、日本及中国对人工智能伦理的界定、监管及治理方案20201239个国家和地区制定了人工智能战略、产业OECD①AI2019AI原则AI以人为本的价值观和公平原则、透明性和可解释原则、稳健性和安全可靠原则、AI伦理国际对话做出诸多尝试和努力。美国统观人工智能全球市场,美国企业在其中占据较大市场份额。美国人工智能巨头呈现全产业布局的特征,①在人工智能技术发展与创新、产业布局与投资等AIAI“公平”“包容性”“隐私保护”“透明性”等原则确立为②组织支持:政府机构与社会主体协同共治2018年,该办公室下设了“人工智能特别委员会”,旨在提升联——机器学习与人工智能小组委员会③20161000持。④2017年,美国成立“人工智能伦理与治理基金”,隶属于哈佛大学博克曼-(TheBerkmanKlein①21娅·斯威尼(现哈佛大学教授)就曾在她当时任教的卡内基梅隆大学创建了数据为。③伦理规制:人工智能系统设计与架构方法2016国总统选举后期,故而在现实中尚未发挥重要作用。(2017)20192(以下简政策原则等。④《行政令》通过五项原则指导联邦政府的人工智能战略协调,维在美国民众中的潜力”。2019622(AI操作与负责对任何操作监管原则:创新优先于监管的推动与激励管是有限的。②令》中直言战略目标之一,即“减少人工智能技术创新应用方面的障碍,同时保护美国技术、经济和国家安全、公民自由、隐私和价值观”。确保公众参与:人工智能监管原则要求联邦机构增加公众对决策过程的限制监管过度:监管机构在考虑提出与部署人工智能应用程序相关的3.表2-1美国人工智能战略规划/政策文件战略/规划/政策文件发布机构发布时间《国家人工智能研究与发展战略计划》美国白宫科技政策办公室2016.10《为未来人工智能做好准备》美国白宫国家科学技术委员会2016.10《人工智能、自动化及经济》美国白宫国家科学技术委员会2016.12《维持美国在人工智能领域领导地位》美国白宫2019.2《美国人工智能倡议》美国白宫2019.2209更新》美国白宫国家科学技术委员会2019.6《美国人工智能行动:第一年度报告》美国白宫科技政策办公室2020.2《关键和新兴技术国家战略》美国白宫2020.10治理标准:人工智能标准与数据/技术标准①2016等多个国际机构的人工智能标准制定。人工智能蓬勃发展的基础和必要条件在于高质量的数据。美国人工智能倡议中提出,要向私营部门和学术界提供政府数据集,以促进机器学习模型的训练。①此举有助于政企研各方优势互补,促进数据资源在不同主体之间的流动和资源利用。美国国会2018年立法要求在白宫行政和预算办公室成立首席数据官委员会,强制数据开放和共享;在国家科学技术委员会下设立开放科学小组委员会,旨在协调联邦政府的开放数据和共享。与此同时,《开放数据法》(OpenGovernmentDataAct)对数据标准化和可机读做出要求,为海量数据资源的可利用、可互用、可重用等提供了制度保障。欧盟2015AI工智能伦理与治理。机构行动:专门机构的文件倡议2015年,欧盟议会法律事务委员会(JURI)成立专门研究机器和人工智能发展相关法律问题的工作小组。2016年,JURI欧盟委员会提出立法建议的报告草案(DraftReportwithRecommendationstotheCommissiononCivilLawRulesonRobotics),强调欧盟委员会对人工智能所产2017事立法的建议。②20175(数字单一市场、消费、就业和社会的影响》文件指出AIAIAI③20184月,欧盟委员会发布了《欧盟人工智能》(ArtificialIntelligentforEurope)文件,其中提出人工智能带来的技术、起草并制定人工智能伦理指南,作为欧盟人工智能战略的三大支柱之一。①该文AI伦理指南》20194月,欧盟发布了《可信AI伦理指南》(EthicsGuidelinesforTrustworthyAI,简称《伦理指南》)。这份文件可谓《欧盟人工智能》战略提出的“建立适当的伦理和法律框架”AI最新努力。根据指南,可信赖的人工智能应该是:1)合法的(lawful)——尊重所有适用的法律法规;2)道德的(ethical)——尊重道德原则和价值观;(3)稳健的(robust)——既从技术角度考虑,又考虑到其社会环境。②在这些基础信赖的:促进其基本权利。同时,须确保适当的监督机制。害的唯一方法。数据治理机制,并考虑到数据的质量和完整性,确保对数据的合法访问。类需意识到他们正在与人工智能系统交互,并必须了解系统的能力与局限性。(包括子孙后代它们可持续且环保。此外,应考虑到对环境,包括对其他生物的社会影响。计来评估算法、数据和设计过程,此外,应确保适当的补救措施。实现视角,给予了可操作性落实。治理框架:《算法责任与透明治理框架》20194“建立适当的伦理和法律框架”的目标,欧盟出台重要文件:《算法责任与透明治理框架》(Agovernanceframeworkforalgorithmicaccountabilityand“治理框架“负责任”算法系统进行决策的一个重要因素是其处理大量不同大数据(数据集)这些数据集可与机器学习方法相结合,以便直接从数据中推断统计模型。GDPRAI监管与治理20185盟范围内第一个网络和信息系统安全规则和更强有力的个人数据保护规则成为①2020态系统视角构建了可信赖与安全的人工智能监管框架。表2-2欧洲人工智能战略规划/政策文件区域战略/规划/政策文件发布机构发布时间欧盟《欧盟人工智能》欧盟委员会2018.4《欧洲人工智能白皮书》欧盟委员会2020.2《数字服务法案》欧盟委员会2020.12《数字市场法案》欧盟委员会2020.12英国《英国研发路线图》英国政府2020.7《国家数据战略》英国数字文化媒体体育部2020.9《人工智能研究与开发合作宣言》美国政府、英国政府2020.9德国《人工智能战略》德国政府2020.12法国《人工智能:让法国成为领导者》法国政府2018.3保护条例》(GeneralDataProtectionRegulation,GDPR)对人工智能的开发和使613-15条规定:企业在运用个人数据进行处理时,为保证公正和透明,22条对人工智业在全球的技术发展和应用中而呈现相对劣势。日本在组织机构、政策制度和研究基础等方面。设立专门组织机构:人工智能伦理委员会201412“伦理委员会”人工智能与社会伦理观的联系。20166月,伦理委员会提出人工智能研究人20151月,日本经济产业省将委员会讨论的成果进行汇:(将发展与推进机器人作为未来经济发展的重要增长点,制定了详细的“五年行动计划”,围绕制造业、服务业、农林水产业、医疗护理业、基础设施建设及防灾20173月,日本人工智能技术战略委员会发布《人工智能技(2020年完成一二阶段过渡在多领域开发人工智能技术的公共事业(2025-2030年完成二三阶段过渡);连通各领域建立人工智能生态系统。制定高级别政策制度:《以人类为中心的人工智能社会原则》2(JSAI)秉直行事;7)可责性与社会责任;8)社会沟通和自我发展;9)人工智能伦理准则。20181227日,日本内阁府发布《以人类为中心的人工智能社会原(表2-3日本人工智能战略规划及政策文件战略规划/政策文件发布机构发布时间《日本再兴战略》日本内阁2013.6《新机器人战略》日本经济产业省2015.1《科学技术创新综合战略2016》日本内阁2016.5《日本再兴战略2016》日本经济再生本部2016.6《下一代人工智能推进战略》日本政府2017《日本人工智能学会伦理准则》日本人工智能学会2017.2《新产业构造蓝图》日本经济产业省2017.5《科学、技术和创新综合战略2017》日本内阁2017.6《综合创新战略》日本内阁2018.6《未来投资战略2018》日本内阁2018.6《以人类为中心的AI社会原则》日本内阁2018.12(SustainableDevelopmentGoals,SDGs)为基础,以落实日本“超智能社会”(Society5.0)为准则,其基本DignityDiversity&Inclusion“尊重人类尊严”、“不同背景的大众皆能追求幸福”及“持续性”的社会①。社会”“人机关系”有能力充分理解人工智能的优点和缺点;2)能够使人们从事具有较高创造性、生产性的劳动;3)具有数据、人工智能基础知识和实施、设计等应用能力,具有大量强化“软件”和“硬件”两个方面,形成有助于实现具有扩充性、互联性、发展性秩序的柔性架构设计;2)为了保障社会系统整体的互联、协作,尤其需要在各类社会系统间建立互联共通的数据应用基础支撑平台。产业构造维度有:1)灵活地构筑面向国际创新系统维度主要表现为:1)大学、科研机构、企业以及民众都可以跨越领域和立场,参与到人工智能研发、利用及评估中;2)构建使所有数据能及时且安奠定人工智能研究基础:设立多种智能研究机构智能研究中心(AIRC)、高级智能项目中心(CenterforAdvancedIntelligenceProject)20展的科学研究奠定了坚实的基础。此外,为推进日本人工智能产业的发展,在2016——“能技术战略委员会”战略会议”的成员来自于学术界、产业界和政府,该机构积极发布国家层面的人的协作。中国能治理的政策文件①网络安全中的深度应用。整体而言,我国人工智能治理稳步推进、成效明显②具体而言,我国人工智能治理方案主要表现为以下几点。明确人工智能治理目标“三步走2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成安全评估和2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系“三步走”战略目标为我国系统构建人工智能治理体系提供了清晰明确的方向指(2018-2020年)“互联网+”确立治理原则20187月,我国发展研究基金会发布报告《未来基石——人工智能的社617——8820207月举办的世界人工智能大会上,成立“上海国家新一代人工智能创新发展试验区专家咨询委员会治理工作组”,提出构建“1个平台+4项工作+4个体系”的人工智能治理原则的行动建议。制定研制技术标准目前,中国已经制定研制了一系列的技术标准。例如,2018年中国国家标4项国家标ITUISO/IEC2018ISO/ECJTC1/SC42人工智能分委会,提交了三项国际标准提案。启动相关法规的研究制定“制定促进人工智能发展的法律法规和伦理规范20207月,全国人大常委会第二(草案)22025年要基本形成智能汽车的法规标准、产品监管体系;2020年经全国人大通过颁重视安全保障和监管体系建设《行动计划》提出要建立“网络安全保障体系”,包括针对智能网联汽车、智能家居等人工智能重点产品或行业应用,开展漏洞挖掘、安全测试、威胁预警、攻击检测、应急处置等安全技术攻关,推动人工智能先进技术在网络安全领域的也指出要“:加强人工智能对国家安全和1.0序的规范生成,在遵循人工智能“负责任、可信赖、保隐私、促公正、确安全、实可控”的共同理念下,需要各国政府和多元社会主体深化合作、凝聚共识,协同搭建全球人工智能伦理与监管治理框架的智能生态系统。实证研究:我国公众对人工智能伦理的认知与态度本章根据第一章定义的人工智能伦理的八个维度,进行“小数据”+“大数据”(心)20217月份开展的“人工智能应用与公众认知”问卷调查;大数据来自2020520215APP上的文章进行了爬取与分析。网络问卷调查分析八个核心伦理关切根据第一章人工智能伦理八个维度的分析框架,研究中心选取各个维度的如算法人工智能存在安全隐患人工智能会侵犯隐私使用人工智能产品除了事故,难以判定责任,例如自动驾驶汽车”;6)真实维度:“人工智能有可能制造虚假信息欺骗用户”;7)人类自主维度:“人工智能会超越人类,有一天人类会成为机器的奴隶”;8)人类尊严维度:“人工智能越来越先进,普通人在社会中发挥的作用越来越小”。八个问题的选项是:1.完全不担忧;2.不太担忧;3.比较担忧;4.265410分2041受访者最多的省份是广东、湖南和广西。3-1受访者地域分布图3-2人工智能伦理维度的网民选择分布表3-1人工智能伦理维度的网民选择分布伦理维度完全不担忧不太担忧比较担忧非常担忧安全11.80%10.49%57.57%30.77%透明4.61%31.95%53.90%9.55%公平1.81%10.14%52.23%35.82%个人数据保护11.18%7.99%50.47%40.37%责任1.81%7.99%50.47%40.37%真实2.35%16.81%54.68%26.16%人类自主12.05%35.03%32.93%19.99%人类尊严5.88%31.11%49.09%13.91%选择“比较担忧”或“非常担忧50%“人工智能存在安全隐患”(安全)、“人工智能存在歧”(公平“人工智能会侵犯隐私个人数据保护“使用责任以及“人工智能有可能制造虚假信息欺骗用户真实“有点担忧”或“非常担忧”的比例大幅高于他们选择“完全不担忧”和“不太担忧”选择“比较担忧”或“非常担忧88.34%。相比之下,网民较少关注“人工智能的技术原理(如算法)不透明、不公开”(透明)、“人工智能会超越人类,有一天人类会成为机器的奴隶”(人类自主和“人工智能越来越先进,普通人在社会中发挥的作用越来越小”(人类尊严)最后,我们还计算了各个伦理维度的均值。将“完全不担忧”1,“常担忧”4,计算受访者在每种伦理关切上的平均值。我们发现,安全、2.5。图3-3人工智能伦理维度的平均值题的治理应该是当前人工智能治理的重点。常见人工智能产品应用及其伦理APP83个关切——能门禁而言最突出的安全问题是“”景的题设和选项如下表。3-2APP场景题设和题项智能门禁,第三重要。”价格品牌的口碑旁边其他小区也在用是否能够为我的人身安全提供保障是否简单易用、容易上手产品安全性、隐私等等问题“如果您小区楼下按照智能门禁,您会在多大程度上担忧以下事项?”风险人脸信息泄露、被盗用、责智能家居“如果您想购买智能家居产品,如天猫精灵这样的智能语音互动机的三项是什么?第一重要,第三重要。”价格品牌的口碑我身边的人也在用是否能够方便我的居家生活是否简单易用、容易上手产品安全性、隐私等问题“如果您想购买智能家居产品,如天猫精灵这样的智能语音互动机器人,您会在多大程度上担忧以下事项?”音诱导我以及我家里的隐私信息被记录、泄露责新媒体APP“您在使用一些由算法支持的信息APP重要的三项是什么?第一重要 ,第二重要 ,第三重要 。?”是否需要花钱“您在使用一些由算法支持的信息类APP时,您会在多大程度上担忧以下事项?”经济财产带来安全隐患我的搜索、社交数据泄露、被滥平台的口碑我身边的人也在用是否能够方便我的信息获取是否简单易用、容易上手APP安全性、隐私等问题用责在安装智能门禁系统时,受访者最关心有用性(“是否能够为我的人身安全提供保障(“(“性、隐私等问题”)题也受到高度重视。此外,有最多受访者将伦理视为第二重要和第三重要。居场景中,伦理问题和产品有用性是最突出的两个因素。APP时最关心的因(“APPAPP(“是否能够方便我的信息获取”)(“钱”)和易用性(“是否简单易用、容易上手”)也是较为突出的因素。我们计算了三种场景中各种考量因素的加权平均值。如果某个因素被视为“第一重要”,则将其权重设置为“3”,“第二重要”的权重为“2”,“第三重要”的权重为“1”。由下图可见,在所有场景中,有用性和伦理因素都是最重要的1.86APP时,伦理因素图3-4三种人工智能场景的答题分布——人数据保护、责任——的担忧程度,“0”表示完全不担忧,“10”表示非常担忧。APP的安全问题更受到受访者重视,相比之下,受访者对智能家居产品安全问题的关注稍弱。APP场景中,受访者非常担忧自动推送的虚假信息可能会对个人经济财产安全带来隐患。APP注,他们担忧使用人工智能产品导致意料外后果时谁来负责的问题。3-5三种人工智能产品在三个伦理关切上分布据保护以及责任划分问题受到受访者普遍重视。社交媒体与资讯大数据分析新浪微博数据分析2009202135.32.3行合作,基于人工智能相关关键词抽取的方式①2020512021年5月31日的全体数据库中抽取4496万条数据。在剔除广告和抽奖等无关数据后,4052万微博文本数据,本节以此数据作为研究分析基础。在分析策略2020520215均发布人工智能主题相关微博5202110414.7398.72021220211191.4220.1发的伦理问题事件相关,因此在微博发帖上呈现出较大的波动性。415681739873504156817398735034555033580241358917433309893103732294883427786302769604270348322006801914102400000035000003000000250000020000001500000100000050000002020/052020/062020/072020/082020/092020/102020/112020/122021/012021/022021/032021/042021/05图3-6人工智能主题相关发帖柱状图2020|独居老人水表|AI著作权|人工智能知识产权”困住外卖骑手的神经网络是什么AI取代吗自杀#,#新一代人工智能发展规划#,#促进新一代人工智能产业发展三年行动计划#,#创新行动计划#,#关于促进人工智能和实体经济深度融合的指导意见#,#新一代人工智能治理原则#,#一代人工智能标准体系建设指南#。0.23条相关微博;随后是上0.060.040.030.02条;广西壮族自治区、宁夏回族自治区、湖南省、青海省、云南省、0.01条。图3-7人工智能主题人均发帖分布图图3-8人工智能主题人均发帖柱状图3396.4万条微博,V335V162V442.8%1.1%5种身份类型标示:普通VVVV50V20175V1千万的微博曝光量以及不1V用户仅限于企业、政府和新闻媒体可以认证。4500000400000035000003000000250000020000001500000100000050000002020/052020/062020/072020/082020/092020/102020/112020/122021/012021/022021/032021/042021/05普通 橙V 达人 金V 蓝V图3-9不同用户类型人工智能主题相关发帖柱状图公平、安全、责任、透明和隐私保护等八个维度进行分析。①本报告基于关键词656万条微博数据被标注。253万条微博133.7131.296.2万条(2.37%)微博;最后,公众较少关心人工智能的责任、公平、人类自主和71万条(1.76%)、48万条(1.18%)、12.7万条(0.31%)6.2万条(0.15%)。图3-10人工智能伦理发帖数量柱状图VV用户,最V用户发帖表达出更高的关VV用户对于该问题的关注度逐渐递减,与之相比,普通V4.74%3.90%维度上,达人用户(3.72%)V用户(3.25%)V2.64%V用户对于人工智发表观点。14.00%12.13%9.33%5.63%9.33%5.63%5.05%4.74%4.54%3.72%2.64%2.81%3.29%2.57%3.90%3.58%2.13%1.53%0.11%0.8089%0280450.6%0.15%0.08%0.31%10.00%8.00%6.00%4.00%2.00%0.00%人类尊严 人类自主 公平 安全 真实 责任 透明 隐私保护普通 橙V 蓝V 达人 金V图3-11不同用户对于人工智能关注度对比柱状图 3-12不同主题词云图今日头条数据分析20194.5902.6亿,日活1.2亿,位居综合资讯类平台榜首。由此分析今日头条平台创作者博主们发布的文章对分析和验证公众对人工智能相关领域的认知,显得尤为关键。20216月中下旬,在爬取过程中程序会主动筛选1.92.5万条与其对应文章的用户评论数据。数据显示自2018年1月至2021年4月,在今日头条个人创造者博主发表的文章420204478.36%2021年表现出急剧攀升的趋势。图3-13今日头条人工智能相关话题近3年趋势图机器人、互联网及科技企业等方面都保有相对较强的关注度。图3-14今日头条人工智能相关话题创造者文章关键字词云图实证研究:我国公众对人工智能伦理的治理主张交媒体和资讯大数据两种来源的数据进行分析。网络问卷调查数据分析治理方式为进一步了解公众对人工智能在应用过程中所产生问题的治理方式认可差异,本次调查设计了题设“对于人工智能应用中存在的各类问题,您认为哪些治理方式更加有效?(5个选项)”5种治理方式分别是“加”“提供社会监督渠道”“推动政府立法”“确立技术伦理”以及“社会责任”等①4-1高,总体有效受访者(2041人)71.9%选择此种治理方式,“道”65.9%,“推动政府立法”64.2%,“确立技术伦理”和“培养企业社会责任”63.6%56.2%提升公众知识素养”“督促行业自律”和“鼓励国际交流合作”54.0%、49.1%29.1%的有效受访者的重视。图4-1人工智能应用的治理方式偏好治理目标目标的认同程度①“公共安全”“隐私保护经济发展”和技术突破”3214-2显示了公众对“公共安全”议题最人将其放在最重要的政策治理目标上,517242169“公共安全”的重要性综合3.26“隐私保护”538人将之放在第一位,888人将之列在361254“隐私保护”的重要性综2.84“经济发展”和“技术突破”在政策目标的重要性综合得分上分别排2.02分,后1.88863人,而将技术突破列在第四重要位置上的人最多,有956人。等问题,以回应社会与公众的相关诉求。图4-2人工智能政策目标的排序与综合得分群体差异整体上看,无论是男性还是女性,在政策方式有效性的认可度上,“加强行业监管”“提供社会监督渠道”“”“”和“培养企业社会责任”皆入选前五。相较而言,对于不同选项,男性和女性的偏好还是出现了一定“加强行业监管”“推动政府立法”“确立技术伦理”和“督促行业自律”男性的人数比例更高。在“提供社会监督渠道”“确立伦理规范”“提升公众知识素养”和“鼓励国际交流合作”虽然对于四个议题,男女性都有着相对一致的认知,但是女性更加看重“公共安全”,男性对“技术突破”给出更高的分数。 图4-3人工智能治理政策主张的性别差异讨论哪种治理方式更为有效时,各个年龄段均将“加强行业监管”“提供社会监督渠道”和“推动政府立法”排在前三重要的位置。对于“加强行业监管”,各年龄段“监督渠道”“政府立法”“伦理规范”上,18-29“养企业社会责任”上,18-29岁群体的认可度最高,30-39在“提升公众知识素养”“促进行业自律”岁以上群体的认可度最高,30-39“鼓励国际交流合作”30%共治作用,而老年群体更倾向于政府的行政监管。50其相对得分最低。在隐私保护议题上,50岁以上群体的得分也相对较低,其他可能处于高风险状态。相较而言,“经济发展”和“技术突破”50岁以上群体中的综合得分相对最高,年轻群体对此两项治理目标给出的分数较低。图4-4人工智能治理政策主张的年龄段差异“加强行业监管推动政府立法”和“确立技术伦理”分别位于各自分组内的第二和第提供社会监督渠道”和“确立技术伦理”排在第二和第三位,提供社会监督渠道”和“培养企业社会责任”排在第二和第三“加强行业监管”和“推动政府立法”70%“确立技术伦理”和“提供社会监督渠道”70%60%,相较而言,高中以下群体仅有“加强行业监管”和“提供社会监督渠道”260%,且均低于高学历群体。在政府政策“公共安全”图4-5人工智能治理政策主张的教育背景差异“加强行业监管”60%的乡村居住者认同这些治理方式“公共安全”“技术突破”上,他们给出的综合得分更低。 图4-6人工智能治理政策主张的居住地域差异不同家庭收入水平的群体在人工智能治理政策的主张上有着比较明显的差30万以上的群体最看重“推动政府立法”的价值,该选项在所有选项中得到了最多受访者的选择。相较而言,其他收入群体最看重“加强行业监管”3070%的受访者选择了“推动政府立法”和“加强行业监管”这两个选项,“确立伦理规范”和“提供社会监督渠道”60%。相较而言,在收入2.5万以下的群体中,仅有“加强行业监管”和“提供社会监督渠道”的选择人60%。30群体在整体上更加重视人工智能发展的“技术突破技术突破”“经济发展公共安全”与“隐私保护”基本一致,“公共安全”“隐私保护”“经济发展”和“技术突破”理目标体系的第一至第四位。看重技术伦理和法治方式对人工智能发展和规范的作用。 图4-7人工智能治理政策主张的家庭收入差异社交媒体与资讯大数据分析新浪微博数据分析154-81515105安徽省,因此其公众有更高的信息素养有关。图4-8新浪微博相关讨论热度4-9笑((广告贩子手中3D广大百姓的隐私权呢?”另外,在有关政府的微博中,更多的是关于对政府在人“快手#@快手只能说监管部门不作为吧?特斯拉的数据已经上传给监管部门,监管部门踢皮球!”在本报告使用的微博数据样本中,有关公众、国际合作和人参与认识不足。图4-9新浪微博网民讨论的治理主体250000条,其中不乏“#特斯拉#如果没有马斯克破产式追10年内没有企业敢去尝试新能源,可以说没有希望都理性点吧”;但也有相当部分的负面评价,特别是针对其安全性的批评,如“特斯拉电动小汽车又闯祸!这一下特斯拉中国区的股东们,估计市值至少蒸500027“#淘宝杀熟##大数据杀熟##101日起明令禁止#@阿里巴巴把消费者着当傻子吗“抖音一旦被美国人接手,必定变成反华大本营。”此外,针对华为、苹果和小米等公司也有部分网民表达了治理主张,但整体热度不高。图4-10新浪微博网民讨论的企业4000余条原创微博。但在数量基本2020812000#当家里买了五个智能音箱#网民在讨论公共话题的娱乐化倾向。图4-11新浪微博网民讨论的时间趋势图4-12新浪微博网民讨论关键词词云图今日头条数据15个主题如图IM属性高度相关的还有问题遍布互联网各个领域。4-13今日头条文章主题本报告通过关键词查询①,将今日头条文章评论中网民对人工智能治理主张的建议对象分成了公共对象和企业对象,公共对象的分布如图所示。可以发现,2021420213大众对于法院对数据权利的保障也保持着很高的热度。图4-14治理主张的建议对象20215数据存放在境外问题,也被网友热议。图4-15人工智能治理的企业((且倾向于阴谋论,并且大多数与互联网公司相关。如“腾讯就是嫉妒心太强了,图4-16支持性主张和禁止性主张专题分析:算法伦理及其治理广泛应用的算法及其影响在古代,数学家发明了欧几里得算法来计算两个整数的最大公约数,而“算法12“花拉子密”①70(AlgorithmLogicControl),算法的效率。②所需输出的编码程序,这些过程既命名了问题,也命名了解决问题的步骤。③之,算法是“为了解决一个特定问题或者达成一个明确目的所采取的一系列步骤。这些都是算法作为数学和计算机科学的概念。2012年开始,人工智能开启新⑤这些问题最经常见于商业领域,譬如:魏则西事件与百度医疗竞价排名,携程、以上只是算法社会的风险的部分发生场景。除了以上常见的与经济活动有关景是数字经济领域的“监控资本主义”和新闻传播领域的“信息茧房”①②的商业行为,并获取利润。③关于算法引发社会风险的另一个常见担忧是“信息茧房“过滤泡泡”。不论是“信息茧房”还是“过滤泡泡”,都直指数字化时代个性化信息服务导致的信息偏食及其对人们观念、态度与行为的影响。④责任。内容审查隐含着开发者的“全能性”假设,即“立法者假设网络平台等软件的开发者和使用者可以完全控制信息的生产和传播,并具有对网络信息审查的‘全能’的能力和权限“工具性”习算法的运行黑箱否认了开发者具备“全能性为信息配置的基本规则。最后,随着技术自主性凸显,算法嵌入政治体系对政治权力和政治价值的施“算法利维坦数字利维坦’的风险在②算法发展导致的各领域风险都指向算法背后的权力——它接管了人类的决aeneessig的《代码》一书开启了社会科学对算法的研究兴趣③,社会科学家开始考虑算法的本质④1999年,LawrenceLessig就敏锐地观察到,是网络空间的向导和规制者,直接对我们网络第二人生实施控制权力。⑤算法是构建和实现权力的新途径,某些人或机构在这个意义上拥有更高的权力和地位。⑥算法风险凸显算法伦理问题人工智能算法发展所孕育的各类风险暴露了算法的伦理问题。事实上,从2016年开始,关于算法伦理的研究显著增加,各国政府、非政府组织和私营公司纷纷开始关注“公平的”和“合乎伦理的”的人工智能和算法。①对算法伦理的分问题很大程度上就是算法伦理问题。②源:一是学界观点,二是各国算法伦理政策和指南。在学术讨论中,Mittelstadt等人在《算法的伦理学:为辩论做准备》一文提出算法伦理的六个方面1(nonclusivevidne因而不可避免地具有不确定性。非决定性证据只能指示相关,而不能揭示因果,2)(inscrutableevidence),指的是如何从数据中生成结论。难以理解的证据会导致不透明。3)误导性证据(misguided“不公正的结果(unfairoutcomes),指的是算法驱动的行动可以用多种伦理标准和原则去衡量,一项行动可能具有歧视性因此不是公正的。5)(transformativeeffects),(检测损害并找到其原因(epistemicconcerns),发生于数据转化为结果的过程;不公正的结果和转换效应属于规范(normativeMittelstadt2021面:1)非决定性证据导致不公正的(unjust)行动;2)难以理解的证据导致不透明;
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 小玻璃大棚施工方案
- 桥梁桩基础施工方案
- 波浪铝单板施工方案
- 深机坑施工方案
- 暖棚地下基础施工方案
- 新能源聚氨酯施工方案
- 墙体砌筑施工方案
- 期中考试总结发言稿
- 我的中国梦作文3000字
- 二零二五年度酒店前台员工节假日安排聘用合同范本
- 公路沥青路面设计标准规范
- 普通高中历史课程标准(2022年版2023年修订)解读
- 第9课《呵护我们的鼻子》课件
- 加油站春季安全教育培训
- 《统计学原理贾俊平》课件
- 高压隔膜压滤机安装方案
- 2024电力储能电站钠离子电池技术条件
- 老年认知功能障碍及其照料课件
- S7-1200使用SCL语言编程实现数控G代码指令编程控制
- 交通事故授权委托书样本(通用)正规范本(通用版)
- MLL基因重排成人急性B淋巴细胞白血病和急性髓系白血病临床特征及预后危险因素分析
评论
0/150
提交评论