《人工智能技术风险的规避策略探析综述》9300字_第1页
《人工智能技术风险的规避策略探析综述》9300字_第2页
《人工智能技术风险的规避策略探析综述》9300字_第3页
《人工智能技术风险的规避策略探析综述》9300字_第4页
《人工智能技术风险的规避策略探析综述》9300字_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能技术风险的规避策略分析目录TOC\o"1-2"\h\u7338人工智能技术风险的规避策略分析 121367第一节基于负责任创新框架下人工智能技术风险的应对分析 123362一人工智能的技术研发之初嵌入预测维度 123932第二节规避人工智能技术风险的策略 428527一突破人工智能自身发展的局限性 432611(一)以保障数据安全为根本立足点 43849(二)发展人工智能的全球化治理模式 511971(一)增强技术主体的道德责任 631746(二)推进社会公众参与创新决策 61453(一)加强人工智能的监督管理机制建设 728776(二)设置人工智能的行为规范 817711(一)制定人工智能道德伦理准则 917252(二)建立健全的法律法规 9随着现代科学技术的发展,人工智能正朝着强人工智能和超人工智能的方向发展,其技术应用也将变得更加复杂化,对人类的威胁也将随之产生。人们必须对技术的研究与应用秉持审慎的态度,绝不能盲目崇拜。人工智能体越来越智能化,机器与人类的差异范围越来越小,人类对智能机器的依赖程度越来越深,机器人威胁论已成为大家讨论的热门话题。当大家都沉浸在人工智能带来的巨大惊喜中时,应该沉着冷静地思考这项技术将会把人类带向何方。为了使机器更好地为人类服务,预防人工智能潜在的技术风险的行动策略的制定也是当下紧迫的任务。第一节基于负责任创新框架下人工智能技术风险的应对分析关于负责任创新的行动框架,理查德·欧文等人提出了负责任创新行动框架的四个维度:预测、反思、审议和响应。这四个维度分阶段参与了负责任创新的整个过程,保障创新行为对社会和人类生存的责任性,并得到了学术界的普遍认可。一人工智能的技术研发之初嵌入预测维度预测是指对研究和创新未来的展望,并根据当前动态塑造技术创新的未来。负责任创新的预测维度旨在以现有条件为基础,对技术创新可能给社会、环境、伦理道德、政治利益等方面带来的不良后果进行分析和预测。一项新兴技术的有害性通常是无法预见的,预测的目的是将研究人员的目光聚焦在“如果……怎么办?”的问题BeckMB,RavetzJR,MulkeyLA,etal.“Ontheproblemofmodelvalidationforpredictiveexposureassessments”.StochasticHydrologyandHydraulics,1997,11(3):229-254.,以考虑技术创新的已知可能性、偶然性、合理性与可行性。负责任创新是将研究重点由下游环节技术创新成果所带来的影响转移到上游环节的技术创新本身,即在技术设计研发初期对技术实施后的不良影响与潜在风险进行分析,以设想最佳方案再进行项目的实施取代事后重点问题的解决。StilgoeJ,OwenBeckMB,RavetzJR,MulkeyLA,etal.“Ontheproblemofmodelvalidationforpredictiveexposureassessments”.StochasticHydrologyandHydraulics,1997,11(3):229-254.StilgoeJ,OwenR&MacnaghtenP.“Developingaframeworkforresponsibleinnovation”.ResearchPolicy,2013,42(9):1568-1580.RoseN.“Thehumanbrainproject:socialandethicalchallenges”.Neuron,2014,82(6):1212-1215.人工智能创新发展可能产生的技术风险具有不确定性。因此,如果在人工智能的技术设计研发初期阶段嵌入负责任创新的预测维度,通过预测进行系统化的检测和评估,那么,作为责任主体的个体或小型集体和以利益为目标的科研人员与企业制造商就难以应对技术创新发展可能带来的后果。负责任创新不仅与相关的决策机构、研究机构、社会组织等以及技术的设计者、生产者、销售者、使用者、服务提供者等主体相关联,还涉及利益整合、权力冲突和话语选择间的博弈,同时与技术的可行性、带来的经济利益和道德伦理规范等因素紧密相关。对于技术创新可能带来的风险,可以通过预测进行前瞻性的系统化调查与评估,从而更好地规划未来发展与防范风险,使人工智能的技术创新具有一定的价值意义。因此,在人工智能的设计研发初期阶段嵌入预测维度是必不可少的。二人工智能的技术研发与应用过程嵌入反思维度在当前背景下,负责任创新的反思维度是指在技术设计、研发过程中体现价值观与信念。斯蒂尔戈(JackStilgoe)等人将反思定义为“拿着一个镜子来审视自己一个人的活动、承诺和假设,看到知识的局限性,并注意到某个部分的特定框架可能不会被普遍接受”。StilgoeJ,OwenR&MacnaghtenP.“Developingaframeworkforresponsibleinnovation”.ResearchPolicy,2013,42(9):1568-1580.维恩(BrianWynne)认为,负责任创新的反思维度与科学家专业的自我批评不同,它是一个公共事务,需要在制度实践层面进行反思。WynneB.“Labworkgoessocial,andviceversa:strategisingpublicengagementprocesses”.ScienceandEngineeringEthics,2011,17(4):791-800.鲁滨逊(DouglasK.R.Robinson)强调,将反思与预测维度相结合,可以避免在技术发展早期阶段预测失误的风险StilgoeJ,OwenR&MacnaghtenP.“Developingaframeworkforresponsibleinnovation”.ResearchPolicy,2013,42(9):1568-1580.WynneB.“Labworkgoessocial,andviceversa:strategisingpublicengagementprocesses”.ScienceandEngineeringEthics,2011,17(4):791-800.RobinsonDK.“Co-evolutionaryscenarios:Anapplicationtoprospectingfuturesoftheresponsibledevelopmentofnanotechnology”.TechnologicalForecastingandSocialChange,2009,76:1222-1239.在人工智能的技术研发和应用过程嵌入反思维度是非常有必要的。反思与预测、科研人员和公众对话、合作联系在一起。其中,科研人员和公众合作是反思的关键组成部分。公众直接参与到技术的研发过程,这样,技术不仅为技术的设计者和创新者所独有,可以有效地参与更广泛的社会与道德伦理层面,提高人工智能的价值和创造力。同时,将反思作为参与人工智能技术设计研发的科研人员的一项行为准则,他们有道德责任反思在设计过程中做出的道德相关选择。公众参与其中,促使科研人员反思技术研究中的基本背景理论和价值体系,最终目的是通过反思有助于描述这些决策的过程来塑造技术创新发展的轨迹。反思要求科研人员模糊他们在研究领域的内部责任与道德责任之间的界限,它强调在科学与技术创新中保持开放性与领导力。三人工智能的技术创新过程嵌入审议维度审议维度是负责任创新最具代表性的一个维度。尚伯格指出,每个人都肩负着一种特殊的道德义务,即通过参与集体辩论作出集体决策。SchombergRV.“FromtheEthicsofTechnologyTowardsanEthicsofKnowledgePolicy&KnowledgeAssessment”.SSRNElectronicJournal,2007,11:5-24.为了履行这一义务,尚伯格与其他学者将这一义务与确定社会理想的结果相关联,他们认为社会理想的结果可以通过公众参与来实现,公众参与也是寻求技术问题解决方案的一项要求。因此,审议是指在技术进程的上游环节邀请利益相关者和公众参与对话、辩论并提出广泛的意见,实现包容性开放关于愿景、目的、问题和困境的集体审查和评议。审议维度通过引入广泛的视角来重新审视定义问题并确定潜在的争论领域。从不同的角度分析,理解并规划设计对人类发展有利的创新结果。审议的主要形式包括建立审议论坛SchombergRV.“FromtheEthicsofTechnologyTowardsanEthicsofKnowledgePolicy&KnowledgeAssessment”.SSRNElectronicJournal,2007,11:5-24.从商业角度看,技术创新是技术主体将思想转变为改进的技术产品、服务或过程,以便在市场中成功的推进、竞争并脱颖而出。在这里,人工智能的技术创新是指科研人员致力于调节算法以模拟通常与视觉、语音等人类属性相关的功能,包括语言处理、学习、解决问题等,并通过程序系统扩展这些功能。负责任创新重点关注公众的价值和利益,强调包容性的公众参与,数据处理的可解释性、公开性与透明性以及民主化治理。在人工智能的技术创新过程嵌入审议维度,要向利益相关者阐述系统的数据处理和工作情况,并描述人工智能系统如何做出一般决策。同时,需要对在特定情况下系统做出某个决定的原因解释说明,确保人工智能的健康发展。通过多方集体审议,将人工智能的技术创新发展与公众对美好生活的关注与价值观相结合,不断对技术在社会中的应用进行评估,最大程度的降低人工智能技术创新带来的负面影响。四人工智能的技术成果嵌入响应维度响应维度是根据利益相关者的反应和变化对技术创新发展方向与路径进行调整,确定技术创新的最佳方案,更加合理地把握技术创新的全过程,确保技术创新过程的可访问性、透明性与互动性,最大限度地保护利益相关者的权益,并帮助利益相关者提升对伦理道德和风险的认知能力。在强调技术内在价值的同时,应尽量避免伦理问题的产生。响应维度的最终目标是为了解决在技术层面对人类价值理解的拓展,同时充分考虑各种与人类利益相关的价值因素。人工智能的技术创新所需要的时间尚不确定,可能产生的风险类别与强度也是不确定的。响应通常与风险相关联,新技术所带来的风险可以是中长期的,是经济的、环境的或社会的。将风险类别、障碍程度等因素整合到响应中,在技术研发过程中不断得到反馈,作出正确的响应,提前识别并防范技术带来的风险与不良后果。同时,响应还与透明度和可访问性有关。人工智能可能产生的技术风险对于技术操作人员应是透明的,以避免类似于波音737MAX客机事件的再次发生。此外,公共资助的研究成果必须向公众开放,公众能够及时有效地提出意见和建议,帮助科研人员对创新的方法进行调整。同时,国家、政府等权威机构也应实时追踪获取人工智能的技术成果,以达到及时监督管理的效果。第二节规避人工智能技术风险的策略人工智能是现阶段最重要的科技成果之一,各个国家都对人工智能的发展高度重视,其中一部分国家已经认识到了人工智能所带来的技术风险与挑战,并试图从多个角度进行技术风险的规避,以保障人工智能的安全。主要从以下几个方面入手:突破人工智能自身发展的局限性、提升人工智能技术主体参与决策与责任承担意识、完善人工智能的监督管理体系、构建人工智能的制度规范。一突破人工智能自身发展的局限性(一)以保障数据安全为根本立足点保障数据安全是人工智能创新发展的必要条件。因此,为了保护数据不被泄露主要采取以下措施:1、赋予数据被采集者“知情权”。让人工智能用户能够了解自己个人信息的用途与处理方式;2、人工智能的设计人员要对用户的数据安全保护负责任。根据对数据的采集与分析,将不同类型的数据按其重要性进行分类储存管理,并通过数据库加密、网络防火墙等措施加强对个人隐私、商业机密等核心数据的重点保护;3、对数据的使用过程进行安全防护。在数据使用的过程中,需要对安全风险进行评估,并通过隐私保护、数字水印、身份认证、权限设置等方法对用户的个人隐私信息和数据安全进行保护,同时防控威胁数据信息安全的因素;4、确保使用者登陆与使用时的数据安全性。对计算机程序进行优化设置,通过指纹识别区分不同的使用者,而且每个使用者在操作完成后,个人信息都不会被记录,切实确保个人隐私数据安全。对于在家庭等私人空间使用的一些人工智能产品,可以建立远程识别控制系统,随时了解陌生的、远程的使用情况;5、加强算法约束机制的建立。网络信息部门与相关政府组织加强对算法监管,算法在人工智能的操作过程中要具备价值观念,必须符合伦理道德与法律规范,保障用户的个人信息安全。总体而言,通过上述的几种方法可以保障人工智能的内部数据不会被盗取、恶意修改或泄露等,确保人工智能的正常稳定运行。2015年,联合国教科文组织和世界科学知识与技术伦理委员会在报告中提出了数据与隐私保护等措施;2020年,我国的《中华人民共和国数据安全法》得到了初次审议。因此,保障数据信息安全是维护国家安全、确保人工智能健康发展的重要举措。(二)发展人工智能的全球化治理模式人工智能作为一种新兴技术,对其技术风险的规避,是全球各个国家共同面临的问题。因此,可以通过加强国际间的交流与合作,包括发展中国家在内的各国政府部门、非政府组织、科研人员等积极与利益相关者、公众合作,从而推动人工智能的创新发展,在负责任创新的发展可信赖的人工智能技术成果方面取得突破性进展。各国政府应在经济合作组织等全球或区域论坛上共同协作,按需分享人工智能的相关知识。应大力倡导各个国家、跨部门、跨领域多方利益相关者共同倡议,以及时获得与人工智能相关的最新专业知识与实时动态。各国政府还应制定有利于多方利益相关者、共识驱动的可互操作和值得信赖的人工智能全球技术标准,并鼓励制定和使用国际可比指标来衡量人工智能的研究、开发和部署,并收集证据库以评估这些原则的实施进展,发展值得信赖的人工智能。结合负责任创新的预测维度,对人工智能的创新应用给人类、社会与环境带来的的积极或消极影响进行评估,确定研究重点,针对具体的伦理、社会、监管问题,按照特定的价值标准对人工智能的元程序进行设计,以确保其达到最优。因此,正确的价值取向是人工智能程序设计的最关键因素,使人工智能的创新发展必须严格遵守人类道德的法律法规,确保人工智能的应用不能损害人类与社会既有的利益。二提升人工智能技术主体参与决策与责任承担意识(一)增强技术主体的道德责任“技术不仅是科学的分支,也是道德哲学的一个分支”。MartinMW,SchinzingerR.EthicsinEngineering.Boston:McGraw—HillComepaniesInc.1996,1.人工智能的出现在某种程度上是对人类行为的延伸拓展,将人类行为变得越来越技术化。人工智能是技术的产物,自身是不存在道德伦理观念与社会责任的,MartinMW,SchinzingerR.EthicsinEngineering.Boston:McGraw—HillComepaniesInc.1996,1.技术科研人员是一项技术的直接决策者,把控技术的研究与发展方向,对于规避人工智能在使用过程中可能引发的技术风险负有直接责任。在技术研发初期,科研人员首先要对技术进行评估,并对技术在发展与使用时可能带来的影响进行预测与说明,杜绝一切为了经济利益而无视技术风险的行为。技术研发主体必须把握好科技的伦理道德标准,提升对人工智能发展的道德责任感,不能被个人特殊需求与经济利益等非理性因素影响主观判断,坚定负责任创新的理念积极承担人工智能在应用过程引发风险的责任。对于技术使用者而言,人工智能的发展已成为人类社会生活的重要组成部分,最终作用于使用者以促进社会生产力的提升。人工智能的发展必须在社会发展的框架下进行。人工智能的使用者要加强自身的道德文化修养,增强社会责任感,同时也要将伦理道德制度规范作为自身的坚定信念,合理使用人工智能技术产品,确保人工智能的发展符合人类社会的发展方向。(二)推进社会公众参与创新决策人工智能的技术风险不仅包括人工智能自身客观存在的风险,同时也包括在发展与应用过程中对人类和社会产生的危害,而现阶段的专家治理模式往往会忽视作为人工智能技术成果的终端使用者公众对技术安全性的主观感受。因此,要加强社会公众参与决策的力度,提升公众对人工智能的接纳程度,促进公众“理解科学”,加强公众的社会责任意识,进而实现技术风险的防控。例如,巴斯夫(BASF)公司与民间社会组织建立了对话论坛,并制定了公民社会组织对话守则。因此,相关部门可以提供一个主体交流平台,促进科研人员与政府、企业、利益相关者等进行对话,交流有关人工智能政策和活动的信息,以促进对人工智能创新发展的信任与采纳。在人工智能的创新发展过程中,人工智能的科研人员应通过多种形式积极与公众进行沟通交流,及时向公众普及人工智能的相关知识信息,提升公众对人工智能相关问题的认知与识别判断能力,强化公众对人工智能技术风险的防范意识,使公众清楚的知道自己应享有的权利与要承担的义务和责任。同时让公众参与到人工智能的设计决策讨论,对公众提供的一些知识、经验、价值等信息合理德听取、采纳,了解公众的期待与需求,从而更加有效的规避人工智能技术风险。三完善人工智能的监督管理体系(一)加强人工智能的监督管理机制建设人工智能的创新发展需要相关监督管理机制的有效监管。人工智能主体所在的位置与环境对人类是没有情感纠纷的,人工智能在应用时所表现的能力是对程序设定的表达,只是在机械地执行任务,不含有任何感情色彩。在人工智能的创新发展过程中可能会逾越界限,威胁人类的主体性地位,人类对人工智能更加依赖,最终可能导致人类反过来被人工智能所控制。因此,根据现阶段人工智能发展对人类社会的影响以及在未来社会的发展趋势,可以看出,如果没有强有力的监督管理机制对人工智能的发展进行规范约束,则可能严重影响人类主体性作用的发挥。人类社会建立并完善人工智能的监督管理机制,使其管理范围更加广泛,以确保人工智能的高效合理运行。随着人工智能的创新发展与广泛应用,世界各国都在不断加强对人工智能监管体系的完善。为了推动人工智能健康快速发展,在政治层面,2017年,我国国务院在发布的《新一代人工智能发展规划》中提出,建立健全的人工智能监管体系,保证其公开性与透明性,同时监管设计者的责任与技术产品应用过程,实现对人工智能的设计到研发再到应用的全过程监管。《新一代人工智能发展规划》(EB/OL),/zhengce/content/2017-07/20/content_5211996.htm,2017-07-20。这主要是从根源上规定人工智能的发展原则,并确立其发展方向,切实保障人类的主体性地位。与此同时,人工智能的发展也需要社会公众的监督。社会群体是人工智能技术产品的使用者,是人工智能技术长期应用的体验者,因此,公众的监督是人工智能监管体系的重要组成部分,《新一代人工智能发展规划》(EB/OL),/zhengce/content/2017-07/20/content_5211996.htm,2017-07-20。对于人工智能技术过程的监督,监管部门应做到以下几点:1、加强公众对人工智能信任。公众对人工智能的开发和部署的信任对于促进创新和充分解释其利益至关重要;2、保证科研诚信与数据信息的有效性。监管部门必须确保科学理论的真实性、强有力的技术分析与数据信息的质量;3、对风险评估并进行管理。对技术风险评估并试图降低风险强度时,需要考虑到对人类、社会、环境的影响,对金融市场稳定性的影响等因素;4、确保监管办法的灵活性。人工智能是一个不断变化的领域,新的变革性技术正在不定时出现,监管部门的监管办法应不断更新,与时俱进,以适应人工智能的持续创新发展;5、各个监管机构相互协调沟通,防止对人工智能监管重复或相互冲突。综上,通过相关政府部门对人工智能设计、研发与应用过程的有效监管,以及群众对技术产品的监督,从而确保人工智能和谐稳定的发展,避免技术风险的发生。(二)设置人工智能的行为规范技术的发展与应用是为实现人类的全面发展这一社会发展最终目标的重要手段。基于现阶段人工智能的指数型上升发展趋势,从负责任创新的视角构建人工智能发展要遵循的基本原则,主要包括:责任原则、人本原则和公平公正原则。第一,责任原则。在人工智能设计、研发到上市应用的整个发展过程中需要明确各个环节的责任、义务和权利归属,有效保障人类主体的利益。人工智能的伦理道德界限与价值标准都是由人工智能的设计者与研究人员控制的,因此,他们也需要对自己设计、研发的人工智能技术产品在使用过程中出现的问题承担责任,同时,使用者需要严格按照使用说明在限定的区域正当使用,避免技术风险的发生。第二,人本原则。人工智能的本质上是人为的和为人的活动,人工智能的发展创新必须遵循“以人为本”的原则,将人类发展的福祉、利益作为技术发展的前提,以满足人类更多的诉求和实现更多的愿望。主要体现在以下三个方面:1、加强人工智能的深度感知能力。现阶段的人工智能技术成果尚未完全具备深度自主感知的能力,无法满足人类更深层次的需求。因此,将人工智能与认知人类学、认知心理学、认知神经科学等学科领域相互结合,为人工智能的长远发展奠定理论基础;2、明确人工智能的发展定位。人工智能的发展是为了辅助人类更好地生活与工作,不能完全取代人类。例如,在医学领域,智能机器人是为了辅助医生工作,而不是代替医生进行手术操作;3、积极引导人工智能的正确发展方向,密切关注并及时控制其可能对人类产生的危害。总之,人工智能应通过技术的价值体现人类的价值,以人为中心,保障人类的主体性地位。同时,人类也不能以消极的态度对人工智能避而远之,而是要积极与人工智能相互协作,共同实现人类社会稳步向前发展的最高目标。第三,公平公正原则。在人工智能的创新发展过程中必须要保证机会均等、规则公平、权利公平的公平公正原则。一项人工智能的设计,不能只是为了满足一个人或几个人的利益、需求,而是应满足大多数人的需求,设计者尽可能地做到公平公正。同时,不同职业、不同身份地位、不同种族的人在使用同一种人工智能技术产品时,最终应达到相同的使用效果,而不能出现男女不平等、种族歧视等问题,对待所有使用者一视同仁,保障社会稳定平衡发展。四构建人工智能的制度规范(一)制定人工智能道德伦理准则人工智能的创新发展逐渐成为全球各国的重点关注与研究领域,但人工智能的发展创新成果也慢慢超出了现有道德伦理规范的限定范围。为了预防并能够及时控制人工智能带来的各种负面影响,需要对已经建立的伦理准则进行完善,从制度方面对人类进行关怀。人工智能的发展创新的最终目标就是人类的发展,人工智能伦理准则的制定必须从人工智能的上游环节出发,在技术设计、研发初期就应高度关注人工智能相关的伦理问题,而不能只关心对技术创新结果伦理的约束规范,逐步形成具有预测性、前瞻性的伦理准则。首先,将保障人类安全作为人工智能伦理准则的基本原则。人工智能的创新发展是为人类的全面发展服务的,必须做到:1、确保人类的生命安全与身心健康。人工智能的发展与应用无论在身体方面还是精神方面都不得对人类造成伤害。2、保障人类的权利与主体性地位。人工智能发展在保证人类的生命安全的同时也要保证人们应该享有的权利和尊严不受侵犯,促使社会稳定向前发展。其次,以“为人类发展谋福利”为核心目标;人工智能伦理准则的建立应同时包含人文关怀、生态关怀等。人工智能的发展应满足人类自身发展的需要为人类谋取更多的利益,同时也不能破坏人类赖以生存的生活环境。最后,综合考虑不同的文化、宗教、意识形态等方面,保持公平公正,与时俱进,时刻追寻技术的发展方向与科研成果,不断开拓创新,制定出为合理的人工智能伦理准则。(二)建立健全的法律法规随着人工智能在各个国家的蓬勃发展,随之而来的一些负面影响与技术风险也逐渐显露出来,因此,全球各国都在试图建立相关法律法规以规范人工智能的发展方向,谋求技术的健康发展。立法是国家和地方层面历史悠久的风险管理办法,当前的人工智能还处于弱人工智能阶段,技术的研发和应用还处于起步阶段,需要用法律规章制度规范和指导人工智能的发展,使人工智能朝着对人类与社会有益的方向健康稳定发展。目前,很多国家已经相继开始建立人工智能相关的法律与规章制

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论