版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
伦理道德规范Lecture92024/2/121政府组织人工智能伦理原则/规范目录人工智能职业道德准则企业机构人工智能伦理原则/规范1231中国:新一代人工智能伦理规范中国:新一代人工智能治理原则美国:人工智能应用规范指南英国:英国人工智能发展的计划、能力与志向欧盟:可信赖人工智能的伦理准则G20:G20人工智能原则“BeneficialAI”会议:阿西洛马人工智能原则腾讯:智能时代的技术伦理观北京智源人工智能研究院:人工智能北京共识微软:人工智能开发的六大原则谷歌:人工智能使用原则2024/2/122中国:人工智能行业自律公约美国:人工智能学会职业道德与行为准则日本:人工智能学会伦理纲要政府组织人工智能伦理原则/规范目录人工智能职业道德准则企业机构人工智能伦理原则/规范1231中国:新一代人工智能伦理规范中国:新一代人工智能治理原则美国:人工智能应用规范指南英国:英国人工智能发展的计划、能力与志向欧盟:可信赖人工智能的伦理准则G20:G20人工智能原则政府组织人工智能伦理原则/规范2024/2/123中国:新一代人工智能伦理规范2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,旨在将伦理融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引,促进人工智能健康发展。《新一代人工智能伦理规范》充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,针对人工智能管理、研发、供应、使用等活动提出了六项基本伦理要求和四方面特定伦理规范。(一)规范提出目的第一条本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。(二)规范适用范围
第二条本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。9.1政府组织人工智能伦理原则/规范2024/2/124中国:新一代人工智能伦理规范(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。9.1政府组织人工智能伦理原则/规范人工智能各类活动应遵循的基本伦理规范2024/2/125中国:新一代人工智能伦理规范第五条推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。第六条积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。第七条正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。第八条加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。第九条促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。9.1政府组织人工智能伦理原则/规范人工智能特定活动应遵守的管理规范2024/2/126中国:新一代人工智能伦理规范第十条强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。第十一条提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。第十二条增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。第十三条避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。9.1政府组织人工智能伦理原则/规范人工智能特定活动应遵守的研发规范2024/2/127中国:新一代人工智能伦理规范9.1政府组织人工智能伦理原则/规范人工智能特定活动应遵守的供应规范第十四条尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。第十五条加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。第十六条保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。第十七条强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。2024/2/128中国:新一代人工智能伦理规范第十八条提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。第十九条避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。第二十条禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。第二十一条及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。第二十二条提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。9.1政府组织人工智能伦理原则/规范人工智能特定活动应遵守的使用规范2024/2/129中国:新一代人工智能伦理规范9.1政府组织人工智能伦理原则/规范组织实施第二十三条本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。第二十四条各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。第二十五条本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。2024/2/1210中国:新一代人工智能治理原则2019年6月17日,国家新一代人工智能治理专业委员会发布了《发展负责任的人工智能:新一代人工智能治理原则》,明确提出人工智能发展相关各方应遵循以下原则。(1)和谐友好人工智能发展应以增进人类共同福祉为目标;应符合人类的价值观和伦理道德,促进人机和谐,服务人类文明进步;应以保障社会安全、尊重人类权益为前提,避免误用,禁止滥用、恶用。(2)公平公正人工智能发展应促进公平公正,保障利益相关者的权益,促进机会均等。通过持续提高技术水平、改善管理方式,在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。(3)包容共享人工智能应促进绿色发展,符合环境友好、资源节约的要求;应促进协调发展,推动各行各业转型升级,缩小区域差距;应促进包容发展,加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟;应促进共享发展,避免数据与平台垄断,鼓励开放有序竞争。(4)尊重隐私人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。在个人信息的收集、存储、处理、使用等各环节应设置边界,建立规范。完善个人数据授权撤销机制,反对任何窃取、篡改、泄露和其他非法收集利用个人信息的行为。9.1政府组织人工智能伦理原则/规范2024/2/1211中国:新一代人工智能治理原则(5)安全可控人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖。高度关注人工智能系统的安全,提高人工智能鲁棒性及抗干扰性,形成人工智能安全评估和管控能力。(6)共担责任人工智能研发者、使用者及其他相关方应具有高度的社会责任感和自律意识,严格遵守法律法规、伦理道德和标准规范。建立人工智能问责机制,明确研发者、使用者和受用者等的责任。人工智能应用过程中应确保人类知情权,告知可能产生的风险和影响,防范利用人工智能进行非法活动。(7)开放协作鼓励跨学科、跨领域、跨地区、跨国界的交流合作,推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动。开展国际对话与合作,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。(8)敏捷治理尊重人工智能发展规律,在推动人工智能创新发展、有序发展的同时,及时发现和解决可能引发的风险。不断提升智能化技术手段,优化管理机制,完善治理体系,推动治理原则贯穿人工智能产品和服务的全生命周期。对未来更高级人工智能的潜在风险持续开展研究和预判,确保人工智能始终朝着有利于社会的方向发展。9.1政府组织人工智能伦理原则/规范2024/2/1212美国:人工智能应用规范指南2020年1月7日,为监管AI发展应用,美国白宫发布《人工智能应用规范指南(草案)》(GuidanceforRegulationofArtificialIntelligenceApplications)。(2)公众参与公众参与,特别是在人工智能使用有关个人信息的情况下,将改善机构的问责制和监管结果,并增加公众的信任和信心。机构应在可行且符合法律要求的范围内,为公众提供充足的机会,参与规则制定过程的所有阶段。鼓励各机构在切实可行的范围内,向公众通报情况,并提高公众对标准和其他信息性文件的认识和普及。9.1政府组织人工智能伦理原则/规范2024/2/1213(1)公众对人工智能的信任人工智能将在社会和经济生活各个领域产生积极影响,包括就业、交通、教育、金融、医疗保健、个人保障和制造业。与此同时,人工智能应用可能会对隐私、个人权利、自主权和公民自由构成风险,必须仔细评估并妥善处理这些风险。人工智能的继续采用和接受将在很大程度上取决于公众的信任和认可。因此,政府对人工智能的监管和非监管方法促进可靠、稳健和可信的人工智能应用是非常重要的,这将有助于公众对人工智能的信任。对隐私和其他风险的适当监管或非监管响应必须取决于所呈现的风险的性质和适当的缓解措施。美国:人工智能应用规范指南(3)科学诚信与信息质量政府对人工智能应用的监管和非监管方法应利用科学技术信息和流程。各机构应以高质量、高透明度和高合规性的标准存档信息,这些信息包括可能对重要的公共政策或私营部门决策(包括消费者的决策)产生明确和实质性影响,无论这些信息是由政府提供的还是由政府从第三方获得的。根据规则制定和指导过程中的科学完整性原则,各机构应制定有关人工智能的监管方法,既为政策决策提供信息,又可促进公众对人工智能的信任。最佳实践包括透明地阐明人工智能应用程序的优点、缺点、预期的优化或结果、偏差缓解和结果的适当使用。各机构还应注意,为了使人工智能应用程序产生可预测、可靠和优化的结果,用于训练人工智能系统的数据必须具有足够的质量,以达到预期用途。(4)风险评估与管理对人工智能的监管和非监管方法应基于风险评估和风险管理在不同机构和不同技术之间的一致应用。没有必要降低每一个可预见的风险。事实上,监管政策的一个基本原则是,所有活动都需要权衡。应采用基于风险的方法来确定哪些风险是可接受的,哪些风险可能造成不可接受的损害,或者损害的预期成本大于预期收益。各机构对其风险评估应保持透明,并在适当的时间间隔内重新评估其假设和结论,以促进问责制。相应地,如果人工智能工具失败或成功,根据产生的后果以及性质可以帮助确定适当的监管力度和类型,以识别和减轻风险。具体而言,各机构应遵循第12866号行政命令“监管规划和审查”的指示,考虑其管辖范围内各种活动所构成风险的程度和性质。在适当的情况下,五种预防性监管方法将避免因不合理使用而带来不必要的危害。9.1政府组织人工智能伦理原则/规范2024/2/1214美国:人工智能应用规范指南(5)收益与成本在制定监管和非监管方法时,机构通常会考虑将人工智能应用和部署到已受监管的行业中。据推测,除非这些投资提供了巨大的经济潜力,否则不会有如此重大的投资。与所有这种性质的技术转变一样,人工智能的引入也可能带来独特的挑战。例如,虽然更广泛的法律环境已经应用于人工智能应用,但在某些情况下,现有法律对责任和责任问题的应用可能不清楚,这导致一些机构需要与他们的当局相一致,来评估利益、成本,与任何确定的或预期的责任方法相关的分配效应。行政命令12866呼吁机构“选择那些最大化净利益的方法(包括潜在的经济、环境、公共卫生和安全,以及其他优势;分配影响和公平性)”。在符合法律规定的情况下,机构在考虑与人工智能应用程序的开发和部署有关的法规之前,应仔细考虑全面的社会成本、效益和分配效果。与设计用来补充或替代人工智能的系统相比,这种考虑将包括采用人工智能产生的潜在收益和成本,以及与其他现有的容忍风险的程度进行比较。如果无法与当前系统或流程进行比较,也应评估不实施系统的风险和成本。(6)灵活性在开发监管和非监管方法时,机构应采用基于绩效的灵活方法,以适应人工智能应用的快速变化和更新。在大多数情况下,试图规定僵化的人工智能应用技术规范、基于设计的法规是不切实际和无效的,因为人工智能将以预期的速度发展,因此机构需要对新的信息和证据作出反应。有针对性的机构合格评定计划,以保护健康和安全、隐私和其他价值,对一个成功、灵活的、基于绩效的方法至关重要。为了推进美国的创新,各机构应牢记人工智能的国际应用,确保美国公司不受美国监管制度的不利影响。9.1政府组织人工智能伦理原则/规范2024/2/1215美国:人工智能应用规范指南(7)公平和不歧视各机构应以透明的方式考虑人工智能应用可能对歧视产生的影响。人工智能的应用有可能减少目前由人的主观性造成的歧视。同时,在某些情况下,应用可能会引入现实世界的偏见,产生歧视性的结果或决定,损害公众对人工智能的信任和信心。在考虑与人工智能应用相关的法规或非法规方法时,各机构应依法考虑有关人工智能应用产生的结果和决定的公平和不歧视问题,以及有关人工智能应用是否可能降低非法、不公平的程度,或与现有过程相比,其他意想不到的歧视。(8)披露和透明度除了改进规则制定过程外,透明度和公开还可以增加公众对人工智能应用的信任和信心。有时,此类公开内容可能包括识别人工智能的使用时间。如果适用于解决有关应用程序如何影响人类最终用户的问题。机构应该意识到人工智能的一些应用可以提高人类的自主性。在考虑采取更多的公开和透明措施之前,机构应该仔细考虑现有的或正在发展的法律、政策和监管环境的充分性。(9)安全各机构应安全,有保障,按预期运行开发AI系统,并在整个AI设计、开发、部署和运行过程中考虑安全问题,此外还应特别注意现有的保障措施,以确保人工智能系统处理,存储和传输的信息的保密性,完整性和可用性。各机构应进一步考虑担保人的方法监测系统的弹性,防止不法人士利用人工智能系统的弱点,包括AI运作中带来的网络安全风险,以及对受监管机构的人工智能技术进行对抗性使用。(10)机构间协调各机构应相互协调,分享经验,确保人工智能相关政策的一致性和可预见性,以促进美国人工智能领域的创新和增长,同时保护隐私,公民自由和美国价值观,并在适当时允许采取针对具体部门和应用的方法。9.1政府组织人工智能伦理原则/规范2024/2/1216英国:英国人工智能发展的计划2018年4月16日,英国议会下属的人工智能特别委员会发布了《英国人工智能发展的计划、能力与志向》(AIintheUK:ready,willingandable?)。报告几乎涵盖了人工智能的方方面面,从其概念、设计、研发和其对工作、生活、医疗等领域的影响以及应对人工智能威胁、塑造人工智能未来等层面。报告针对英国议会较为关注的人工智能法律政策等十大热点问题进行了讨论,并提供了相关建议。9.1政府组织人工智能伦理原则/规范2024/2/1217(一)促进数据访问和共享,最大化公共数据的价值(二)实现可理解、可信赖的人工智能,避免在特定重要领域采用“黑盒”算法(三)理解算法歧视,配置训练数据和算法的审查、测试机制(四)警惕数据垄断,更新伦理、数据保护和竞争框架(五)研究并应对法律责任挑战,阐明责任规则及其适用性(六)应对人工智能和数据相关的新型网络犯罪活动(七)统一自主武器的国际概念,就其开发和使用形成国际共识(八)成立新的人工智能机构,发挥全方位的战略、咨询和领导作用(九)当前阶段没必要对人工智能采取统一的专门监管(十)制定国家人工智能准则,推动形成人工智能研发和使用的全球共同伦理框架欧盟:可信赖人工智能的伦理准则2018年4月,欧盟委员会于任命由52位学术界、工业界和民间社团的独立专家组成的欧洲人工智能高级别专家组,专门负责撰写人工智能伦理准则并为欧盟提供政策和投资建议。2019年4月8日,欧盟委员会正式发布了人工智能伦理准则《可信赖人工智能的伦理准则》(ETHICSGUIDELINESFORTRUSTWORTHYAI)。9.1政府组织人工智能伦理原则/规范2024/2/1218《可信赖人工智能伦理准则》指出,可信赖人工智能包含两方面要素:第一,其开发、推广及使用应确保满足“伦理目标”:与基本权利及所适用监管相符、且尊重核心原则与价值。在技术方面稳健而可信赖。第二,诚然即使保有善意,技术方面不成熟仍可带来预料之外的危害。《可信赖人工智能伦理准则》着重提出了可信赖AI的3个基本条件、4条伦理准则及可信赖AI应当满足的7个条件。(一)三个基本条件(1)合法;(2)合乎伦理:(3)鲁棒(二)可信赖AI的4条伦理准则(1)尊重人的自主性:AI系统不应该、胁迫、欺骗、操纵人类。相反,AI系统的设计应该以增强、补充人类的认知、社会和文化技能为目的。人类和AI系统之间的功能分配应遵循以人为中心的设计原则,而且AI系统的工作过程中要确保人的监督。AI系统也可能从根本上改变工作领域。它应该在工作环境中支持人类,并致力于创造有意义的工作。(2)预防伤害:AI系统不应该引发、加重伤害,或对人类产生不好的影响。因此需要保护人类的尊严和身心健康。AI系统和运行的环境必须是安全的。因此要求技术上必须是鲁棒的,而且要确保AI技术不会被恶意使用。尤其要注意可能会恶意使用该技术的人和可能会造成不良影响的应用场景。欧盟:可信赖人工智能的伦理准则9.1政府组织人工智能伦理原则/规范2024/2/1219(3)公平性:AI系统的开发、实现和应用必须是公平的。虽然对公平性可能会有不同的解读,但是应当确保个人和组织不会受到不公平的偏见、歧视等。如果AI系统可以避免不公平的偏见,就可以增加社会公平性。为此,AI系统做出的决策以及做决策的过程应该是可解释的。(4)可解释性:可解释性对构建用户对AI系统的信任是非常关键的。也就是说整个决策的过程、输入和输出的关系都应该是可解释的。但目前的人工智能算法和模型都是以黑盒(blackbox)的形式运行的。欧盟:可信赖人工智能的伦理准则9.1政府组织人工智能伦理原则/规范(三)可信赖AI应当满足的7个条件(1)人的能动性和监督:人工智能不能侵犯人类的自主性。人类不应该被人工智能系统操纵或威胁,人类应该能够干预或监督人工智能的每一项决定。(2)技术鲁棒性和安全性:人工智能应该是安全和准确的。它不应该轻易受外部攻击的影响,它应该非常可靠。(3)隐私和数据管理:人工智能收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。(4)透明性:用于创建人工智能系统的数据和算法应该是可访问的,应确保人工智能决策的可追溯性。换言之,运营商应该能够解释他们的人工智能系统是如何做出决策的。(5)多样性、非歧视性和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该有任何偏向。(6)社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。(7)问责:应建立机制,确保对人工智能系统及其成果负责和问责。2024/2/1220G20:G20人工智能原则2019年6月28日,二十国集团(G20)在日本筑波市举行的部长级会议首次讨论了人工智能问题,提出了《G20人工智能原则》。《G20人工智能原则》主要包含两个部分信息:第一部分列出了“负责任地管理可信赖AI的原则”,第二部分为“实现可信人工智能的国家政策和国际合作的建议”。9.1政府组织人工智能伦理原则/规范(一)负责任地管理可信赖AI的原则(1)包容性增长、可持续发展及福祉利益相关方应积极推动可信人工智能的负责任管理,共寻人类和地球的美好未来,强化人类能力、激发创造力、包容和提携弱者,减少经济、社会、性别及一切不平等,保护自然环境,促进包容性增长及可持续发展并增进人类福祉。(2)以人为本的价值观及公平性a)人工智能各参与方应在整个人工智能系统生命周期中,尊重法治、人权和民主价值的原则,包括自由与尊严;自治与隐私;数据保护与不歧视;平等、多样性、公平与社会正义;国际公认的劳工权利;b)为此,人工智能各参与方应基于当前的技术水平与现实情况,采取恰当的机制与保障措施,如保留人类自主决定的能力。2024/2/1221G20:G20人工智能原则9.1政府组织人工智能伦理原则/规范(3)透明度和可解释性人工智能各参与方应对事关人工智能系统透明度的信息进行负责任地披露,信息应当是有意义、切合实际并符合当前的技术水平。a)增进人们对人工智能系统的普遍认知;b)使利益相关方认识到他们在和人工智能系统进行交互,工作场所也不例外;c)让受系统影响的人理解人工智能系统产生的结果;d)对受到人工智能不利影响的那部分人,能够根据以简单易懂的信息呈现的(系统)因素,及(系统)进行预测、建议或决策的逻辑基础,对系统的结果提出质疑。2024/2/1222(4)鲁棒性、安全性和保障性a)人工智能系统在其整个生命周期中都应该具备健壮性、信息安全性和物理安全性,在正常使用与可预见的其他条件(错误使用或其他不利条件)下,功能运作皆可控,摒除不合理的物理安全风险;b)为此,人工智能参与各方应确保(系统)的可追溯性,包括能够对人工智能系统生命周期中涉及到的所有数据集和决策相关过程的可追溯性,确保能够在切合实际和符合当前技术条件下,使人工智能系统运行结果可分析及响应质疑;c)人工智能参与各方应根据其角色、实际情况和行为能力,在人工智能系统生命周期的各个阶段保持系统风险管理方法的持续性,以应对人工智能系统带来的各类风险,包括隐私、信息安全、物理安全及偏见等;(5)问责制人工智能各参与方应根据其角色、实际情况和当前技术水平,确保人工智能系统能正常运行,并尊重前述原则。G20:G20人工智能原则9.1政府组织人工智能伦理原则/规范(二)实现可信人工智能的国家政策和国际合作的建议(1)投资于AI的研究与开发a)政府应当长期投资于研究、开发及跨学科活动,同时鼓励民间投资;促进可信AI领域的创新,如集中力量解决技术问题及与AI相关的社会、法律、伦理及政策问题;b)政府还应当投资于重要的开放数据集,同时鼓励民间投资,并尊重隐私、加强数据保护;从而建立一个有利于AI研究和开发的环境,防止非开放数据集存在的偏见因素;切实提高数据集的互操作性,促进使用共同标准。(2)为AI培养数字生态系统政府应当创造条件,建立一个可信人工智能的数字生态系统。该生态系统至少应包括数字技术、基础设施和人工智能知识共享机制。为此,政府应当倡导数据信任机制,使数据能够安全、平等、合法及合乎伦理地共享。(3)为AI创造有利的政策环境a)政府应当建立政策环境,促使可信人工智能尽快从研发阶段过渡到部署和运营阶段。为此,政府应建立试点,提供可控环境,对人工智能系统进行测试、升级;b)在适当情况下,政府应当审查和调整其现行的可信人工智能的创新及竞争政策规章框架和评估机制。2024/2/1223G20:G20人工智能原则9.1政府组织人工智能伦理原则/规范(4)培养人的能力和为劳动力市场转型做准备a)政府应当与利益相关方共同做好应对社会就业转型的准备。政府应当增强人们有效使用人工智能系统及与系统进行交互的能力,提供必要的技能培训;b)政府应当采取措施,加强社会沟通,确保在部署AI的过程中,工人们都能实现顺利过渡。对工人进行全职业生涯的技能培训,为落后淘汰者提供保障性支持,向提供进入新劳动市场的机会;c)政府应当与利益相关方共同倡导负责任地使用人工智能,加强工人的安全,提升职业质量,提高团队意识和生产效率,确保人们能够广泛、平等地享受到AI带来的益处。(5)实现可信赖AI的国际合作a)各国政府(包括发展中国家)应当与利益相关方一起,积极合作,推进实施上述原则,推进负责任地部署和应用可信人工智能;b)各国政府应当在OECD框架或其他全球、地区性框架下共同促进人工智能知识共享,推动建立跨国、跨部门、开放多元主体的方案,使各国都能获得长期的人工智能专业能力;c)政府应当倡导为互操作及可信人工智能设立多元主体、各方一致的全球技术标准;d)政府应鼓励建立一个评估各国人工智能研发、部署水平的指标体系;使用该指标体系,充分收集信息,度量各国实施上述可信人工智能原则的程度。2024/2/1224政府组织人工智能伦理原则/规范目录人工智能职业道德准则企业机构人工智能伦理原则/规范1231中国:新一代人工智能伦理规范中国:新一代人工智能治理原则美国:人工智能应用规范指南英国:英国人工智能发展的计划、能力与志向欧盟:可信赖人工智能的伦理准则G20:G20人工智能原则“BeneficialAI”会议:阿西洛马人工智能原则腾讯:智能时代的技术伦理观北京智源人工智能研究院:人工智能北京共识微软:人工智能开发的六大原则谷歌:人工智能使用原则2024/2/12252017年1月,“BeneficialAI”会议在美国加州阿西洛马市)举行,参加者多为业界最富盛名的领袖,如DeepMind首席执行官DemisHassabis和Facebook人工智能负责人YannLeCun等。会议提出了著名的“阿西洛马人工智能原则”,旨在确保人工智能为人类利益服务。全球2000多人(包括844名人工智能和机器人领域的专家)联合签署该原则,呼吁全世界的人工智能领域在发展人工智能技术的同时严格遵守这些原则,共同保障人类未来的利益和安全。“阿西洛马人工智能原则”主要关注三大类问题:科研问题、伦理和价值观以及长期问题。这三类问题又被细分为23项原则。“BeneficialAI”会议:阿西洛马人工智能原则9.2企业机构人工智能伦理原则/规范2024/2/1226(一)科研问题(1)研究目的:人工智能研究的目标不是为了创造不受指挥的智能,而是有益的智能。(2)研究经费:对人工智能进行投资的同时,要保证有经费用于研究如何有益地使用人工智能,研究包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:如何使未来的人工智能系统变得高度稳健,即系统会执行我们所想的而不会发生故障或被入侵?如何通过自动化提升我们的繁荣程度,同时保持人们的资源和意志?如何升级我们的法制体系使其更公平高效,能够跟得上人工智能的发展速度,并且能控制人工智能带来的风险?人工智能该与什么样的价值体系保持一致?它该有怎样的法律和伦理地位?(3)科学与政策的联系:在人工智能研究员和政策制定者之间应该要有富有建设性的和健康的交流。(4)科研文化:在人工智能研究员和开发者中应该要培养起一种以合作、信任与透明为基础的文化。(5)避免竞争:人工智能开发团队之间应该积极合作,避免有人钻空子导致安全标准被削弱。“BeneficialAI”会议:阿西洛马人工智能原则9.2企业机构人工智能伦理原则/规范2024/2/1227(二)伦理和价值观
(6)安全性:人工智能系统在它们整个的运转周期内应该是安全可靠的,并且能可应用和可行的被验证。(7)故障透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。(8)司法透明性:任何自动系统参与的司法决策都应提供令人满意的解释,可被人类监管机构审核。(9)负责:高级人工智能系统的设计者和建造者,在道德影响上,是人工智能使用、误用和动作的利益相关者,并有责任和机会去塑造那些影响。(10)价值观一致:高度自主的人工智能系统应该被设计,确保它们的目标和行为在整个运行过程里与人类的价值观相一致。(11)人类价值观:人工智能系统应被设计,使其和人类尊严、权力、自由和文化多样性的理想相一致。(12)个人隐私:人们应该拥有权力去访问、管理和控制他们产生的数据,考虑到人工智能系统有分析和使用那些数据的能力。(13)自由和隐私:人工智能在个人数据上的应用必须不能不当地剥夺人们真实的或认为的自由。(14)分享利益:人工智能科技应该惠及并赋权最大可能的多数人。(15)共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。(16)人类控制:人类应该来选择如何和是否委派人工智能系统去完成人类选择的目标。(17)非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的秩序,而不是颠覆。(18)人工智能军备竞赛:致命的自动化武器的军备竞赛应该被禁止。9.2企业机构人工智能伦理原则/规范2024/2/1228“BeneficialAI”会议:阿西洛马人工智能原则(三)更长期的问题
(19)能力警惕:我们应该避免关于未来人工智能能力上限的假设,但这一点还没有达成共识。(20)重要性:高级人工智能能够代表地球生命历史的一个重大变化,我们应该用与之相称的警惕和资源来管理。(21)风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须有针对性地计划和努力减轻可预见的冲击。(22)递归自我完善:人工智能系统被设计成能够以一种可以快速提升质量和数量的方式进行自我升级或自我替代,这种方式必须受制于严格的安全和控制标准。(23)公共利益:超级智能的开发是为了服务广泛认可的伦理观念,并且是为了全人类的利益而不是一个国家和组织的利益。9.2企业机构人工智能伦理原则/规范2024/2/1229“BeneficialAI”会议:阿西洛马人工智能原则腾讯:智能时代的技术伦理观2019年7月8日,腾讯研究院和腾讯AILab联合研究形成了人工智能伦理报告《智能时代的技术伦理观》,认为在“科技向善”理念之下,需要倡导面向人工智能的新的技术伦理观,包含技术信任、个体幸福、社会可持续三个层面。9.2企业机构人工智能伦理原则/规范(一)信任(trust):人工智能需要价值引导,做到“四可”第一,可用(available)。发展人工智能的首要目的,是促进人类发展,给人类和人类社会带来福祉,实现包容、普惠和可持续发展。可用性还意味着以人为本的发展理念、人机共生、包容性以及公平无歧视,要求践行“设计伦理”(ethicsbydesign)理念,将伦理价值融入到AI产品、服务的设计。第二,可靠(reliable)。人工智能应当是安全可靠的,能够防范网络攻击等恶意干扰和其它意外后果,实现安全、稳定与可靠。一方面人工智能系统应当经过严格的测试和验证,确保其性能达到合理预期;另一方面人工智能应确保数字网络安全、人身财产安全以及社会安全。2024/2/1230第三,可知(comprehensible)。研发人员需要致力于解决人工智能“黑盒”问题,实现可理解、可解释的人工智能算法模型。此外,对于由人工智能系统做出的决策和行为,在适当的时候应能提供说明或者解释,包括背后的逻辑和数据,这要求记录设计选择和相关数据,而不是一味追求技术透明。在发展和应用人工智能过程中,应为社会公众参与创造机会,并支持个人权利的行使。第四,可控(controllable)。短期来看,发展和应用人工智能应确保其带来的社会福祉显著超过其可能给个人和社会带来的可预期的风险和负面影响,确保这些风险和负面影响是可控的,并在风险发生之后积极采取措施缓解、消除风险及其影响。长期来看,虽然人们现在还无法预料通用人工智能和超级人工智能能否实现以及如何实现,也无法完全预料其影响,但应遵循预警原则,防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。9.2企业机构人工智能伦理原则/规范(二)幸福(happiness):在人机共生的智能社会,确保人人都有追求数字福祉、幸福工作的权利各种智能机器正在成为人类社会不可或缺的一部分,和我们的生活和生产息息相关。这给人类与技术之间的关系提出了新的命题,需要深入思考智能社会如何实现人机共生。第一,保障个人的数字福祉,人人都有追求数字福祉的权利。一方面需要消除技术鸿沟和数字鸿沟,全球还有接近一半人口没有接入互联网,老年人、残疾人等弱势群体未能充分享受到数字技术带来的便利。另一方面减小、防止互联网技术对个人的负面影响,网络过度使用、信息茧房、假新闻等现象暴露出了数字产品对个人健康、认知、生活和工作等方面的负面影响,呼吁互联网经济从吸引乃至攫取用户注意力向维护、促进用户数字福祉转变,要求科技公司将对用户数字福祉的促进融入到互联网服务的设计中。2024/2/1231腾讯:智能时代的技术伦理观第二,保障个人的工作和自由发展,人人都有追求幸福工作的权利。目前人工智能的经济影响依然相对有限,不可能很快造成大规模失业,也不可能终结人类工作,因为技术采纳和渗透往往需要数年甚至数十年,需要对生产流程、组织设计、商业模式、供应链、法律制度、文化期待等各方面做出调整和改变。虽然短期内人工智能可能影响部分常规性的、重复性的工作。长远来看,以机器学习为代表的人工智能技术对人类社会、经济和工作的影响将是深刻的,但人类的角色和作用不会被削弱,相反会被加强和增强。未来二十年内,90%以上的工作或多或少都需要数字技能。人们现在需要做的,就是为当下和未来的劳动者提供适当的技能教育,为过渡期劳动者提供再培训、再教育的公平机会,支持早期教育和终身学习。9.2企业机构人工智能伦理原则/规范(三)可持续(sustainability):践行“科技向善”,善用技术塑造健康包容可持续的智慧社会技术创新是推动人类和人类社会发展的最主要因素。而这一轮技术革命具有巨大的“向善”潜力,将对人类生活与社会进步带来突破性的提升。在二十一世纪的今天,人类拥有的技术能力,以及这些技术所具有的“向善”潜力,是历史上任何时候都无法比拟的。换言之,这些技术本身是“向善”的工具,可以成为一股“向善”的力量,用于解决人类发展面临着的各种挑战,助力可持续发展目标。与此同时,人类所面临的挑战也是历史上任何时候都无法比拟的。联合国制定的《2030可持续发展议程》确立了17项可持续发展目标,实现这些目标需要解决相应的问题和挑战,包括来自生态环境的,来自人类健康的,来自社会治理的,来自经济发展的,等等。2024/2/1232腾讯:智能时代的技术伦理观将新技术应用于这些方面,是正确的、“向善”的方向。例如,人工智能与医疗、教育、金融、政务民生、交通、城市治理、农业、能源、环保等领域的结合,可以更好地改善人类生活,塑造健康包容可持续的智慧社会。因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益与价值的统一。包括有意识有目的地设计、研发、应用技术来解决社会挑战。如今,“人工智能造福人类”(AIforGood)已经成为全球发展趋势,呼吁与行动并存。以腾讯为例,自2018年1月在国内首次提出“科技向善”以来,腾讯已将“科技向善”作为新的愿景与使命,并身体力行地在医疗、社会治理(如寻找失踪人口)、FEW(粮食、能源、水源)等方面践行“科技向善”理念。北京智源:人工智能北京共识2019年5月25日,北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所等单位,共同发布《人工智能北京共识》。9.2企业机构人工智能伦理原则/规范(一)研发人工智能的研究与开发应遵循以下原则。(1)造福:人工智能应被用来促进社会与人类文明的进步,推动自然与社会的可持续发展,造福全人类与环境,增进社会与生态的福祉。(2)服务于人:人工智能的研发应服务于人类,符合人类价值观,符合人类的整体利益;应充分尊重人类的隐私、尊严、自由、自主、权利;人工智能不应被用来针对、利用或伤害人类。(3)负责:人工智能的研发者应充分考虑并尽力降低、避免其成果所带来的潜在伦理、法律、社会风险与隐患。2024/2/1233(4)控制风险:人工智能及产品的研发者应不断提升模型与系统的成熟度、鲁棒性、可靠性、可控性,实现人工智能系统的数据安全、系统自身安全及对外部环境的安全。(5)合乎伦理:人工智能的研发应采用符合伦理的设计方法以使得系统可信,包括但不限于:使系统尽可能公正,减少系统中的歧视与偏见;提高系统透明性,增强系统可解释度、可预测性,使系统可追溯、可核查、可问责等。(6)多样与包容:人工智能的发展应该体现多样性与包容性,尽可能地为惠及更多的人而设计,尤其是那些技术应用中容易被忽视的、缺乏代表性的群体。(7)开放共享:鼓励建立人工智能开放平台,避免数据与平台垄断,最大范围共享人工智能发展成果,促进不同地域、行业借助人工智能机会均等地发展。9.2企业机构人工智能伦理原则/规范(二)使用人工智能的使用应遵循以下原则。(8)善用与慎用:人工智能的使用者应具备使人工智能系统按照设计运行所必需的知识和能力,并对其所可能带来的潜在影响具备充分认识,避免误用、滥用,以最大化人工智能带来的益处、最小化其风险。(9)知情与同意:应采取措施确保人工智能系统的利益相关者对人工智能系统对其权益的影响做到充分的知情与同意。在未预期情况发生时,应建立合理的数据与服务撤销机制,以确保用户自身权益不受侵害。(10)教育与培训:人工智能的利益相关者应能够通过教育与培训在心理、情感、技能等各方面适应人工智能发展带来的影响。2024/2/1234(三)治理人工智能的治理应遵循以下原则。(11)优化就业:对于人工智能对人类就业的潜在影响,应采取包容的态度。对于一些可能对现有人类就业产生巨大冲击的人工智能应用的推广,应采取谨慎的态度。鼓励探索人机协同,创造更能发挥人类优势和特点的新工作。(12)和谐与合作:应积极开展合作建立跨学科、跨领域、跨部门、跨机构、跨地域、全球性、综合性的人工智能治理生态系统,避免恶意竞争,共享治理经验,以优化共生的理念共同应对人工智能带来的影响。(13)适应与适度:应积极考虑对人工智能准则、政策法规等的适应性修订,使之适应人工智能的发展。人工智能治理措施应与人工智能发展状况相匹配,既不阻碍其合理利用,又确保其对社会和自然有益。(14)细化与落实:应积极考虑人工智能不同场景、不同领域发展的具体情况,制定更加具体、细化的准则;促进人工智能准则及细则的实施,并贯穿于人工智能研发与应用的整个生命周期。(15)长远规划:鼓励对增强智能、通用智能和超级智能的潜在影响进行持续研究,以确保未来人工智能始终向对社会和自然有益的方向发展。北京智源:人工智能北京共识微软:人工智能政策建议2018年,《计算未来:人工智能及其社会角色》提出了微软人工智能开发的六大原则:公平、可靠和安全、隐私和保障、包容、透明、责任。9.2企业机构人工智能伦理原则/规范(一)公平性(Fairness)公平性是指对人而言,不同区域的人、不同等级的所有人在AI面前是平等的,不应该有人被歧视。(二)可靠性和安全性(Reliability&Safety)可靠性和安全性指的是人工智能使用起来是安全的、可靠的、不作恶的。(三)隐私和保障(Privacy&Security)人工智能因为涉及到数据,所以总是会引起个人隐私和数据安全方面的问题。(四)包容(Inclusiveness)人工智能必须考虑到包容性的道德原则,要考虑到世界上各种功能障碍的人群。(五)透明性(Transparency)在现阶段,深度学习模型的准确度是所有机器学习模型中最高的,但在这里存在一个它是否透明的问题。(六)可追责(Accountability)人类应该能够对人工智能系统采取了的行动、做的决策进行追责。2024/2/1235谷歌:人工智能使用原则2018年谷歌公布了使用人工智能的七项原则,以及四条底线。(一)七项原则涉及AI的七项原则包括对社会有益,避免制造或加强不公平的偏见,提前测试安全性,对人负责,保证隐私,坚持科学高标准以及从主要用途、技术独特性等方面来考虑。对此,谷歌认为人工智能应用应该实现的目标如下:(1)有益于社会新技术的扩展对社会的影响越来越大。AI领域的进展将对医疗、安全、能源、交通、制造业等大量行业带来革命性影响。谷歌考虑AI技术的潜在开发和使用,以及大量社会和经济因素,决定将继续进行其认为整体益处远远大于可预见风险和弊端的领域。9.2企业机构人工智能伦理原则/规范2024/2/1236(2)避免创造或增强偏见AI算法和数据集能够反映、强化或减少偏见。谷歌意识到区分公平和不公平偏见不总是那么简单,且在不同文化和社会背景下有所不同。谷歌将寻求避免对人类的不公平影响,尤其是在敏感话题方面,如种族、民族、性别、国家、收入、性取向、能力和政治或宗教信仰。
(3)为保障安全而建立和测试我们将继续开发和应用强大的安全保障和安全的实践以避免不希望发生的导致风险的结果。我们将把AI系统设计得适当的谨慎,并探索按照AI安全研究的最佳实践来开发的方式。在合适的案例中,我们将在受限的环境中测试AI技术,并在部署之后监控它们的运行。谷歌:人工智能使用原则(4)对人们有说明义务我们将设计能为反馈、相关解释和上诉提供合适机会的AI系统。我们的AI技术将服从合适的人类指导和控制。
(5)整合隐私设计原则我们将把我们的隐私原则整合进AI技术的开发和使用中。我们将为通知和准许提供机会,鼓励架构中结合隐私保护,并对数据的使用提供合适的透明度和控制。
(6)坚持高标准的科学探索技术创新根植于科学方法和开放式的调查、严谨的思考、诚信和合作。人工智能工具可能在生物、化学、医药、和环境科学等关键领域具有开拓新科学研究和知识的潜力。我们致力于促进人工智能的发展,追求高标准的科学探索。
(7)根据原则确定合适的应用许多技术有多种用途。我们将努力限制可能有害或滥用的技术应用。(二)四条底线谷歌同时提出不会设计或者将AI应用到以下领域:(1)制造整体伤害之处。如一项技术可能造成伤害,我们只会在其好处大大超过伤害的情况下进行,并提供安全措施;(2)武器或其他用于直接伤害人类的产品;(3)收集使用信息,以实现违反国际规范的监控的技术;(4)目标违反被广泛接受的国际法与人权原则的技术。9.2企业机构人工智能伦理原则/规范2024/2/1237政府组织人工智能伦理原则/规范目录人工智能职业道德准则企业机构人工智能伦理原则/规范1231中国:新一代人工智能伦理规范中国:新一代人工智能治理原则美国:人工智能应用规范指南英国:英国人工智能发展的计划、能力与志向欧盟:可信赖人工智能的伦理准则G20:G20人工智能原则“BeneficialAI”会议:阿西洛马人工智能原则腾讯:智能时代的技术伦理观北京智源人工智能研究院:人工智能北京共识微软:人工智能开发的六大原则谷歌:人工智能使用原则2024/2/1238中国:人工智能行业自律公约美国:人工智能学会职业道德与行为准则日本:人工智能学会伦理纲要中国:人工智能行业自律公约中国人工智能产业发展联盟组织相关专家,研究形成了《人工智能行业自律公约》9.3人工智能职业道德准则第一章总则第一条以人为本。人工智能发展应维护人类自由和尊严等基本权利,遵循以人为中心的原则,符合公认的道德伦理观念,防止人工智能削弱或取代人类地位,确保人机协同的经济社会背景下人类的自主性和能动性。第二条增进福祉。人工智能发展应促进社会与人类文明进步,推动自然与社会的可持续发展,创造更加智能的工作方式和生活方式,增进民生福祉。第三条公平公正。人工智能发展应确保公平公正,促进机会均等,避免对特定群体或个人的偏见歧视,避免将弱势人群置于更为不利的地位。第四条避免伤害。人工智能发展应避免伤害社会、公众利益和个人合法权益,发展人工智能不应加重现有的危害或带来新的危害。2024/2/1239第二章原则第五条可靠可控。确保人工智能系统在其整个生命周期内安全、可靠、可控地运行。评估系统自身安全和潜在风险,不断提高系统的成熟度、稳健性和抗干扰能力。确保系统可被人类监督和及时接管,避免系统失控的负面影响。第六条透明可释。不断提高人工智能系统透明度,促进对人工智能系统的普遍理解。对于系统决策过程、数据构成、系统开发者和技术实施者意图,能够在适当场景下予以描述、监督和重现,积极回应遭受人工智能系统不利影响者的质疑和意见。第七条保护隐私。坚持以合法、正当、必要的原则收集和使用个人信息,尊重和保护个人隐私,特别加强对于未成年人等特殊数据主体的隐私保护,强化技术手段,确保数据安全,防范数据泄露等风险。中国:人工智能行业自律公约9.3人工智能职业道德准则第八条明确责任。不将人工智能系统用于非法或违反伦理的目的。明确人工智能研发、设计、制造、运营和服务等各环节主体的权利义务,在损害发生时,能够及时确定责任主体。倡导相关企业和组织在现有法律框架下创新保险机制,分担人工智能产业发展带来的社会风险。第九条多元包容。促进人工智能系统的包容性、多样性和普惠性。加强跨领域、跨学科、跨国界的合作交流,凝聚人工智能治理共识。力争实现人工智能系统研发人员多元化,训练数据全面化。持续测试和验证算法,不因人种、性别、国籍、年龄和宗教信仰等歧视用户。2024/2/1240第三章行动第十条自律自治。强化企业的社会责任意识,在人工智能相关活动各环节中融入伦理原则,实施伦理自查。推动行业自治,探索制定人工智能行业从业人员行为规范,逐步建立健全行业监督机制。第十一条制定标准。积极参与人工智能相关的国际、国家、行业和团体标准规范制定,增强安全可控、透明可释、保护隐私、多元包容等伦理原则的可衡量性,并同步建设相应测评能力。第十二条促进共享。鼓励平台、工具、数据、科教等资源的开源开放,共享人工智能发展红利和治理经验,努力破除数据孤岛和平台垄断,不断缩小智能鸿沟,促进人工智能和实体经济深度融合。第十三条普及教育。积极参与面向公众的人工智能普及教育、面向相关从业人员的道德伦理教育和面向岗位被替代人员的数字劳动技能再培训,减轻公众对人工智能技术的担忧,提高公众的安全防范意识,主动应对现有和未来的劳动力挑战问题。第十四条持续推动。在本公约实施过程中,不断加强对人工智能发展的潜在风险研判,适应行业发展要求,持续完善。中国:人工智能行业自律公约9.3人工智能职业道德准则第四章附则第十五条公约签署单位必须在开展人工智能相关活动中遵守法律法规和国家有关规定。第十六条鼓励企业、高校、科研院所、行业组织和个人等共同践行公约内容,接受社会监督。第十七条支持相关单位或组织基于本公约制订各细分行业或领域的自律准则。第十八条本公约由中国人工智能产业发展联盟负责制定、修订和解释。2024/2/1241美国人工智能学会职业道德与行为准则9.3人工智能职业道德准则美国人工智能学会(AAAI)提出了美国人工智能学会职业道德与行
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年度大型商业综合体招商管理合同3篇
- 2025版门楼广告位租赁与设计制作合同4篇
- 2025年度旅行社与旅游科技研发企业合作协议4篇
- 2025年按揭车辆交易纠纷调解服务合同模板2篇
- 2025年度美食广场厨师团队承包与节假日活动策划服务协议3篇
- 2025年度个人分包合作协议(智能安防设施)4篇
- 2025版压力罐施工与施工许可证申请合同3篇
- 2025年水利工程劳务分包合同环境保护与绿色施工规范3篇
- 二零二五版工业自动化设备加工制造合同3篇
- 2025年高速公路服务区停车场及餐饮服务合同3篇
- 2024版个人私有房屋购买合同
- 2024爆炸物运输安全保障协议版B版
- 《食品与食品》课件
- 读书分享会《白夜行》
- 光伏工程施工组织设计
- DB4101-T 121-2024 类家庭社会工作服务规范
- 化学纤维的鉴别与测试方法考核试卷
- 2024-2025学年全国中学生天文知识竞赛考试题库(含答案)
- 临床微生物检查课件 第2章细菌的生理
- 作品著作权独家授权协议(部分授权)
- 取水泵站施工组织设计
评论
0/150
提交评论