经合组织人工智能原则(2024年修订-中文版-雷泽佳译)_第1页
经合组织人工智能原则(2024年修订-中文版-雷泽佳译)_第2页
经合组织人工智能原则(2024年修订-中文版-雷泽佳译)_第3页
经合组织人工智能原则(2024年修订-中文版-雷泽佳译)_第4页
经合组织人工智能原则(2024年修订-中文版-雷泽佳译)_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

经合组织人工智能原则(2024年修订)《经合组织人工智能原则》旨在推广创新、可信赖且尊重人权和民主价值观的人工智能应用。该原则于2019年5月通过,为人工智能设定了实用且灵活的标准,足以经受时间的考验。可信赖人工智能的原则《经合组织人工智能原则》最初于2019年通过,并于2024年5月更新。遵循者对其进行更新,以考虑新的技术和政策发展,确保其保持稳健且符合目的。该原则指导人工智能参与者在开发可信赖人工智能方面的努力,并为政策制定者提供制定有效人工智能政策的建议。各国利用《经合组织人工智能原则》及相关工具制定政策并建立人工智能风险框架,为各辖区之间的全球互操作性奠定基础。如今,欧洲联盟、欧洲委员会、美国、联合国及其他辖区在其立法和监管框架及指导中,均采用经合组织关于人工智能系统及生命周期的以下定义。这些原则、定义和生命周期均属于《经合组织关于人工智能的建议》的一部分。基于价值观的原则包容性增长、可持续发展和福祉(原则1.1)本原则强调可信赖的人工智能(AI)对实现整体增长和所有人的繁荣——个人、社会和地球——以及推动全球发展目标方面具有潜力。概述相关方应积极参与可信赖的人工智能的负责任管理,以追求对人类和地球有益的结果,如增强人类能力和创造力、促进代表性不足的人群的融入、减少经济、社会、性别和其他方面的不平等、保护自然环境,从而激发包容性增长、福祉、可持续发展和环境可持续性。本原则的依据本原则认识到,将人工智能的发展和使用引导向实现人类和地球的繁荣及有益结果是一项优先任务。可信赖的人工智能在推动包容性增长、可持续发展和福祉以及全球发展目标方面可以发挥重要作用。事实上,人工智能可被用于造福社会,并可在教育、卫生、交通、农业、环境、可持续城市等领域为实现可持续发展目标(SDGs)作出重大贡献。这种管理作用应努力解决不平等问题以及技术获取差异加剧发达国家和发展中国家内部及之间现有鸿沟的风险。《经合组织包容性增长政策行动框架》为此提供了一个有用的参考点。该框架旨在指导政策行动,以“携手所有人”迈向一个更加稳健、充满信心的未来。本原则还认识到,人工智能系统可能延续现有的偏见,并对弱势和代表性不足的人群(如少数族裔、妇女、儿童、老年人以及受教育程度较低或技能较低的人群)产生不同的影响。在低收入和中等收入国家,这种不同的影响尤其构成一种特别的风险。本原则强调,人工智能同样可以并且应该被用来增强社会所有成员的能力,并帮助减少偏见。此外,负责任的管理还意味着认识到在人工智能系统的整个生命周期中,人工智能参与者和相关方可以并且应该鼓励为有益的结果而开发和部署人工智能,并采取适当的保障措施。确定这些有益的结果以及如何最好地实现这些结果,将得益于多学科和多相关方的合作以及社会对话。此外,一个有意义、信息充分、迭代的、包含所有相关方的公共对话,可以增强公众对人工智能的信任和理解。以人为本的价值观和公平性(原则1.1)人工智能(AI)系统的设计应尊重法治、人权、民主价值观和多样性,并应包含适当的保障措施,以确保一个公平和正义的社会。概述在人工智能系统的整个生命周期中,人工智能参与者应尊重法治、人权、民主和以人为本的价值观。这些价值观包括不歧视和平等、自由、尊严、个人自主权、隐私和数据保护、多样性、公平性、社会正义以及国际公认的劳工权利。这还包括解决由人工智能放大的虚假信息和误导性信息的问题,同时尊重言论自由和其他受适用国际法保护的权利和自由。为此,人工智能参与者应实施机制和保障措施,如人类代理和监督的能力,包括以适合环境和符合最新技术水平的方式应对超出预期用途、故意滥用或无意滥用的风险。本原则的依据人工智能的发展应符合以人为本的价值观,如基本自由、平等、公平、法治、社会正义、数据保护和隐私,以及消费者权利和商业公平性。一些人工智能系统的应用或使用会对人权产生影响,包括人权(如《世界人权宣言》中所定义)和以人为本的价值观可能遭到故意或意外侵犯的风险。因此,重要的是要在人工智能系统中促进“价值观一致性”(即其设计包含适当的保障措施),包括根据环境适当的人类干预和监督能力。这种一致性有助于确保人工智能系统的行为在其整个运行过程中保护和促进人权,并与以人为本的价值观相一致。坚持共同的民主价值观将有助于增强公众对人工智能的信任,并支持使用人工智能来保护人权和减少歧视或其他不公平和/或不平等的结果。本原则还承认人权影响评估(HRIA)和人权尽职调查、人类决定(即“人在回路中”)、道德行为准则或旨在促进以人为本的价值观和公平性的质量标签和认证等措施的作用。透明度和可解释性(原则1.3)本原则关注人工智能(AI)系统的透明度和负责任的披露,以确保人们了解其何时与AI系统交互,并能够对结果提出质疑。概述人工智能参与者应致力于AI系统的透明度和负责任的披露。为此,他们应根据环境提供有意义且符合最新技术水平的信息:促进对AI系统的普遍理解,包括其能力和局限性;使相关方意识到他们与AI系统的交互,包括在工作场所的交互;在可行和有用的情况下,提供简单易懂的信息,说明导致预测、内容、推荐或决策的数据/输入来源、因素、过程和/或逻辑,以使受AI系统影响的人能够理解输出;提供信息,使受AI系统不利影响的人能够对其输出提出质疑。本原则的依据“透明度”一词具有多重含义。在本原则的环境下,首先关注的是披露AI的使用情况(在预测、推荐或决策中,或用户直接与AI驱动的智能体(如聊天机器人)交互)。披露应与交互的重要性相称。AI应用的日益普及可能会影响在某些情况下披露的可取性、有效性或可行性。透明度还意味着使人们能够理解AI系统是如何在相关应用领域开发、训练、运行和部署的,以便消费者能够做出更加明智的选择。透明度还指提供有意义的信息和清晰度,说明提供了哪些信息以及为什么。因此,透明度通常并不延伸至披露源代码或其他专有代码或共享专有数据集,因为这些可能过于技术复杂,以至于对于理解结果来说并不可行或有用。源代码和数据集也可能受到知识产权(包括商业秘密)的保护。透明度的另一个方面是促进公众和多相关方的讨论,并在必要时建立专门机构,以提高对AI系统的普遍认识和理解,并增加其接受度和信任度。可解释性意味着使受AI系统结果影响的人能够理解该结果是如何得出的。这需要向受AI系统结果影响的人提供易于理解的信息,使那些受到不利影响的人能够对结果提出质疑,特别是(在可行范围内)导致结果的因素和逻辑。尽管如此,可解释性可以根据环境(如结果的重要性)以不同的方式实现。例如,对于某些类型的AI系统,要求可解释性可能会负面影响系统的准确性和性能(因为它可能需要将解决方案变量减少到足够小的一组,以便人类能够理解,这在复杂的高维问题中可能不是最优的),或影响隐私和安全。它还可能增加复杂性和成本,可能使作为中小企业的AI参与者处于特别不利的地位。因此,当AI参与者对结果提供解释时,他们可以考虑以清晰、简单的术语,并根据环境适当地提供决策中的主要因素、决定性因素、特定结果背后的数据、逻辑或算法,或解释为什么看似相似的情况会产生不同的结果。这应以允许个人理解和质疑结果的方式进行,同时(如果相关)尊重个人数据保护义务。稳健性、安全性和安保性(原则1.4)人工智能系统在其整个生命周期内必须以稳健、安全和安保的方式运行,并应持续评估和管理潜在风险。概述人工智能系统在其整个生命周期内都应保持稳健、安全和安保,以确保在正常使用、可预见的使用或误用,或其他不利条件下,它们都能适当运行,并且不会造成不合理的安全和/或安保风险。应酌情建立机制,以确保当人工智能系统有可能造成不当伤害或表现出不期望的行为时,可以根据需要安全地对其进行覆盖、修复和/或停用。同时,在技术可行的情况下,也应建立机制以支持信息完整性,同时确保尊重言论自由。本原则的依据应对复杂人工智能系统的安全和安保挑战对于培养对人工智能的信任至关重要。在此环境下,稳健性指的是承受或克服不利条件(包括数字安全风险)的能力。本原则进一步指出,在人工智能系统的整个生命周期内,无论是在正常使用、可预见的使用或误用的情况下,都不应带来不合理的安全风险,包括对实体安保的风险。消费者保护等领域的现行法律法规已经界定了什么构成不合理的安全风险。政府应与相关方协商,确定这些法规在多大程度上适用于人工智能系统。人工智能行为者可以采用风险管理方法(见下文)来识别和防范可预见的误用,以及防范与将人工智能系统用于非原定目的相关的风险。人工智能的稳健性、安全性和安保性问题是相互关联的。例如,如果风险未得到适当管理,数字安保可能会影响互联产品(如汽车和家用电器)的安全性。该建议强调了两种维持人工智能系统稳健、安全和安保的方法:可追溯性和随后的分析与调查,以及采用风险管理方法。与可解释性(见1.3)一样,可追溯性有助于分析和调查人工智能系统的结果,并是一种促进责任的方式。可追溯性与可解释性的不同之处在于,其重点是保留数据特征的记录,如元数据、数据来源和数据清洗,但不一定是数据本身。在这方面,可追溯性有助于理解结果,防止未来的错误,并提高人工智能系统的可信度。风险管理方法:该建议认识到人工智能系统对人权、人身完整、隐私、公平性、平等和稳健性造成的潜在风险。它还认识到保护免受这些风险所需的成本,包括通过在人工智能系统中建立透明度、责任、安全性和安保性。它还认识到人工智能的不同用途会带来不同的风险,并且一些风险需要比其他风险更高的预防或缓解标准。在人工智能系统整个生命周期内应用风险管理方法,有助于识别、评估、优先处理和缓解可能对系统的行为和结果产生不利影响的潜在风险。经合组织关于风险管理的其他标准,例如数字安保风险管理方面的标准,以及《多国企业准则》和《经合组织关于负责任商业行为尽职调查指导》中的基于风险的尽职调查,可能会提供有用的指导。记录每个生命周期阶段所做出的风险管理决策,有助于实施其他透明度(1.3)和责任(1.5)原则。可追溯性(原则1.5)开发、部署或运营人工智能系统的组织和个人应依照经合组织基于价值观的人工智能原则,对其适当运行负责。概述人工智能行为者应基于其角色、环境,并符合现有技术水平,对人工智能系统的适当运行以及上述原则的遵守负责。为此,人工智能行为者应确保可追溯性,包括与数据集、人工智能系统生命周期内做出的流程和决策相关的可追溯性,以便根据环境并符合现有技术水平,对人工智能系统的输出结果和询问应答进行分析。人工智能行为者应基于其角色、环境及行动能力,对人工智能系统生命周期的每个阶段持续采用系统的风险管理方法,并采取负责任的商业行为来解决与人工智能系统相关的风险,包括酌情通过不同的人工智能行为者、人工智能知识和资源供应商、人工智能系统用户以及其他相关方之间的合作来解决。风险包括与有害偏见、人权(包括安全、安保和隐私)以及劳动和知识产权相关的风险。本原则的依据“可追溯性”、“责任”和“义务”这三个术语密切相关但有所不同,并且在不同的文化和语言中含义也不同。一般而言,“可追溯性”指一种伦理、道德或其他期望(例如,如管理惯例或行为准则中所规定),该期望指导个人或组织的行动或行为,并允许其解释做出决策和采取行动的原因。如果出现负面结果,可追溯性还意味着采取行动以确保未来获得更好的结果。“义务”通常指因个人(或组织)的行动或不行动而产生的不利法律后果。“责任”也可能包含伦理或道德期望,并且可在法律和非法律语境中使用,指行为者与结果之间的因果关系。鉴于这些含义,“可追溯性”一词最能体现本原则的核心。在此环境下,“可追溯性”指期望组织或个人在其设计、开发、运营或部署的人工智能系统的整个生命周期内,按照其角色和适用的监管框架,确保系统的适当运行,并通过其行动和决策过程来证明这一点(例如,提供关于人工智能系统生命周期内关键决策的文档,或在有正当理由的情况下进行或允许进行审计)。针对政策制定者的建议投资于人工智能研发(原则2.1)政府应促进公共和私人部门对研发的投资,以推动可信赖人工智能的创新。概述政府应考虑对研发和开放科学进行长期公共投资,并鼓励私人投资,包括跨学科努力,以推动专注于挑战性技术问题和与人工智能相关的社会、法律和伦理影响及政策问题的可信赖人工智能创新。政府还应考虑对开源工具和开放数据集进行公共投资,并鼓励私人投资,这些工具和数据集应具有代表性并尊重隐私和数据保护,以支持一个无有害偏见的人工智能研发环境,并提高互操作性和标准的使用。本原则的依据人工智能带来的科学突破有助于解决社会挑战并创造全新的产业。这些可能性凸显了基础研究和在研究政策中考虑长期时间范围的重要性。虽然近年来私营部门在应用人工智能研发投资方面发挥了主导作用,但政府,有时辅以专注于公共利益的基金会,在提供具有长期视野的公共研究持续投资方面发挥着重要作用。这种投资对于推动和塑造可信赖的人工智能创新以及确保为所有人带来有益成果至关重要,特别是对于市场驱动投资服务不足的领域。公共资助的研究有助于解决影响广泛人工智能行为者和相关方的挑战性技术问题。人工智能研究包括:人工智能应用,如自然语言处理;教授人工智能系统的技术,如神经网络;优化,尤其是为了减少人工智能开发所需的数据量,如一次性学习;以及研究解决社会考量,如透明度和可解释性,以及保护数据完整性的技术。此外,由于人工智能具有广泛的影响并渗透到生活的多个方面,因此本建议呼吁对与公共政策相关的人工智能的社会、法律和伦理影响进行跨学科研究投资。由于数据对人工智能系统生命周期的重要性,确保进一步和更好的人工智能研发的一个关键要素是提供开放、可访问和具有代表性的数据集,这些数据集不会损害隐私和个人及消费者数据保护、知识产权和其他重要权利。特别是,虽然可能无法实现完全“无偏见”的环境,但通过提供(并为提供)公开可用的代表性数据集提供激励,政府可以有助于减轻人工智能系统中不当偏见的风险。例如,使用与其预定用途相比不够具有代表性的数据集的人工智能系统,即使没有歧视的意图。本建议补充了关于培育人工智能数字生态系统(2.2)的建议,因为对数字技术和基础设施以及人工智能知识共享机制的长期投资是培育这一数字生态系统的手段。特别是,对开放、可访问和具有代表性的数据集的投资促进了人工智能知识的共享。培育人工智能数字生态系统(原则2.2)政府应利用数字基础设施和技术以及数据和知识共享机制,培育易于使用的人工智能生态系统。概述政府应促进一个包容、动态、可持续和可互操作的可信赖人工智能数字生态系统的发展,并确保各方可访问该生态系统。此类生态系统特别包括数据、人工智能技术、计算和连接基础设施,以及酌情包括用于共享人工智能知识的机制。在这方面,政府应考虑推广诸如数据信托等机制,以支持数据的安全、公平、合法和符合伦理的共享。本原则的依据可信赖人工智能的发展需要一个有利的生态系统。本建议呼吁政府——酌情与私营部门合作——努力提供或促进提供人工智能所需的基础设施和数字技术,以及人工智能知识共享机制,同时考虑到其国家框架。必要的数字技术和基础设施包括获得负担得起的高速宽带网络和服务、计算能力和数据存储——以及支持数据生成技术,如物联网(IoT)。例如,人工智能的最新进展可部分归因于计算速度的指数级增长,包括图形处理单元资源的增长。还需要有适当的机制来共享人工智能知识,包括数据、代码、算法、模型、研究和专有技术,以便了解和参与人工智能系统的生命周期。此类机制必须尊重隐私、知识产权和其他权利。用于管理和使用人工智能的开源工具和高质量训练数据集,可使人工智能技术得到传播,并为软件漏洞提供众包解决方案,在人工智能发展中发挥关键作用。在开发数据共享手段(如数据信托或受信任的第三方)时,政府应注意与数据访问和共享相关的风险:数据共享可能给个人(包括消费者)、组织和国家带来的风险包括机密性和隐私泄露、知识产权风险、数据保护、竞争和商业利益风险,以及潜在的国家安全和数字安全风险。就数据集本身而言,并结合建议2.1,政府应促进和利用尽可能包容、多样化和具有代表性的数据集。针对政策制定者的建议特别关注中小企业(SME)的政策:促进中小企业获得数据、人工智能技术和相关基础设施(如连接性、计算能力和云平台),以便通过采用人工智能促进数字创业、竞争和创新。塑造有利于人工智能的政策环境(原则2.3)政府应创造一个政策环境,为可信赖的人工智能系统的部署铺平道路。概述政府应促进建立一个灵活的政策环境,支持可信赖的人工智能系统从研发阶段过渡到部署和运营阶段。为此,政府应考虑采用实验方法,提供一个受控环境,以便对人工智能系统进行适当测试和扩展。政府还应采用基于结果的方法,在实现治理目标方面提供灵活性,并在管辖范围内和跨管辖范围进行合作,以促进可互操作的治理和政策环境,视情况而定。政府应审查并适当调整其适用于人工智能系统的政策和监管框架及评估机制,以鼓励可信赖的人工智能领域的创新和竞争。本原则的依据本建议侧重于使人工智能创新成为可能的政策环境,即制度、政策和法律框架。因此,它补充了关于必要的有形和技术基础设施的建议2.2。与建议2.2一样,本建议呼吁政府特别关注中小企业。考虑到人工智能发展的快速步伐,制定一个足够灵活以适应发展并促进创新,同时保持安全并提供法律确定性的政策环境,是一个重大挑战。本建议旨在通过确定提高政策工具适应性、反应能力、多功能性和执行力的方法来解决这一挑战,以便负责任地加速从开发到部署的过渡,并在相关情况下加速商业化。在促进人工智能的使用时,应采取以人为本的方法。本建议强调了实验作为一种手段的作用,它提供了一个受控和透明的环境,可以在此环境中测试人工智能系统,并使能够促进解决全球挑战的解决方案的基于人工智能的商业模式得以蓬勃发展。政策实验可以在“启动模式”下运行,即部署、评估和修改实验,然后根据测试结果进行扩大、缩小或放弃。最后,本建议承认监督和评估机制对于补充政策框架和实验的重要性。在这方面,可能有必要鼓励人工智能行为者制定自我监管机制,如行为准则、自愿标准和最佳实践。与《经合组织多国企业准则》(MNE)1一起,此类举措可以帮助指导人工智能行为者度过人工智能生命周期,包括监测、报告、评估和解决人工智能系统的有害影响或滥用问题。在尽可能和相关的情况下,这些机制应透明和公开。构建人力资本和为劳动力市场转型做准备(原则2.4)政府应赋予人民人工智能技能并支持劳动者,以确保转型的公正性。概述政府应与相关方密切合作,为工作世界和社会的转型做好准备。政府应使人民有能力在各种应用中有效使用和与人工智能系统互动,包括为此赋予他们必要的技能。政府应采取包括社会对话在内的措施,以确保在部署人工智能时劳动者能够顺利过渡,例如提供贯穿职业生涯的培训计划、为受岗位流失影响的劳动者提供支持(包括社会保障)以及提供劳动力市场的新机会。政府还应与相关方密切合作,以促进在工作中负责任地使用人工智能,增强劳动者的安全性、工作质量和公共服务质量,促进创业和生产率,并力求确保人工智能带来的益处得到广泛和公平的分享。本原则的依据随着人工智能在各个部门的普及,人们普遍预计它将改变生活的许多方面。这在劳动力、就业和工作场所方面尤为明显——在这些方面,人工智能将在一些任务中辅助人类,在其他任务中取代人类,并创造新的工作类型和工作组织方式。如果管理不善,这些劳动力市场的转型可能会产生重大的经济和社会成本。在管理这些转型并确保其公正性的过程中,政策制定者以及社会合作伙伴、雇主组织和工会等相关方需要考虑社会保障、教育计划、技能发展、劳动力市场监管、公共就业服务、产业政策和税收以及转型融资等问题。管理公正的转型需要制定终身学习、技能发展和培训政策,使人民,特别是(处于不同合同背景下的)劳动者能够与人工智能系

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论