对智能机器的不同道德期望是否会影响人们接受“它”为我们做决策_第1页
对智能机器的不同道德期望是否会影响人们接受“它”为我们做决策_第2页
对智能机器的不同道德期望是否会影响人们接受“它”为我们做决策_第3页
对智能机器的不同道德期望是否会影响人们接受“它”为我们做决策_第4页
对智能机器的不同道德期望是否会影响人们接受“它”为我们做决策_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目录TOC\o"1-3"\h\u4040摘要 摘要:本研究聚焦于人们本身的道德期望是否会影响对智能机器决策的信任程度。通过DMSQ量表,道德倾向量表以及智能机器决策情境进行问卷调查。研究结果发现对于人类自身的道德敏感性较高会使人们对智能机器的功利论决策更信任;而无论是道义论还是功利论的道德倾向都不太影响人们对智能机器的信任程度,但是偏好道义论的个体却更希望智能机器决策者能够做出功利论的决策,这种希望对人类决策者来说却是相反的。关键词:智能机器道德期望道德决策道德敏感性引言1.1智能机器道德相关研究AI技术已然成为社会各界广泛关注的话题,随着人工智能技术的发展,智能机器的道德相关问题成为不可忽视的一部分。在人工智能爆炸式发展以及各类AI工具,大语言模型日新月异的当下,大家普遍去使用它,但是人机交互过程中智能机器算法的普及与不透明性,让智能机器的道德相关问题成为社会科学的一个必要取向(Rahwanal.,2019),做这样的研究一方面能够帮助人们更好地认识“机器道德”,另一方面对智能机器的规范化设计也有重要意义。目前,关于如何对智能机器进行研究,大多数集中在以下方面:一方面,是关于智能机器的决策模式的探讨,最广泛讨论的是智能机器应该作出何种决策的决策机制的问题(Bonnefonetal.,2016;Awadetal.,2018),这是在哲学范畴讨论较多的方面;然后是关于人们对于智能机器进行决策时是否有较高的接受程度,也就是信任问题(Gogoll&Uhl,2018;刘永安,2023);还有就是关于智能机器决策的责任归属的探讨,换而言之就是对于人们是否承认智能机器的道德主体地位,是否可以被认为可以有资格做出道德决策(McManus&Rutchick,2019)。通过与之前的研究进行比较,发现在目前的智能机器相关研究领域,较少有研究的重心是关注人们自身的道德属性对智能机器不同道德决策的信任。所以,本研究拟探讨人们自身的不同道德属性在对待智能机器的道德决策问题的信任程度上是否有差异,且与以往的道德相关研究大多以人类作为决策者进行研究不同,选用智能机器作为情景进行相关研究是否会呈现与人类决策时不同的结果。综上所述,对于人类道德属性的差异影响智能机器不同道德决策的信任程度的研究是切实需要,势在必行的。1.2智能机器自主决策背景作为一项与时俱进的前沿技术,在联合国教科文组织颁布的《人工智能伦理建议书》中,对人工智能核心特征的描述为“有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面”(UNESCO.Recommendation,2021)。所以基于这样的前提,可以认为在本研究中这类智能机器其所拥有的智能可以在做决策时不需要干预,也就是完全自主。基于这样的背景下,我们一方面期待智能机器越来越智能能够面对各种各样的社会环境和工作任务;另一方面,智能机器在决策过程中不可避免地会遇到一系列与社会情景相违背的道德难题,并在这些道德两难情境中做出道德决策。例如,当一个机器人发现自己的主人受到另一人类个体的生命威胁时,而周围又没有其他人类可以求援时,这个机器人是否可以通过伤害这一个体来保护自己的主人(远征南,2019)?所以面对这样的道德决策问题,不仅是人类自身思考的哲学问题,也同样该思考人工智能面对这样的情形时如何做出合理决策呢,又该做出怎样的决策才能让大多数人信任,这是该研究有必要开展的一个重要前提。当下,智能机器已经现实地参与到大众的社会生活中,并在这个过程中面临很多的决策问题。比如武汉推行的无人驾驶汽车;阿里,百度,腾讯,OPENAI等不断更新迭代的大语言模型。所以为了能够使智能机器相关决策被大众所接受并减少可能带来的社会危害,那么智能机器的行为方式就必须符合大多数人的实际期望(李杨,2018)。那么智能机器将如何符合大众实际期望呢,一个重要的标准就是要与社会的道德准则相符。道德是我们日常生活的一个重要部分,它是人类活动方方面面的重要取向。因此,对智能机器的道德决策问题进行深入研究具有深刻的理论与现实意义。那么对未来的智能机器而言,某种程度上人们是否会允许智能机器在做道德决策时违背道德规范?又或者说人们是否愿意授予智能机器违背道德规范的自由(远征南,2019)?这说明智能机器是否能够自主决策不仅建立在智能机器自主决策的基础上,还取决于我们需要建构什么样的机器伦理,以便我们更能接受智能机器的道德决策。1.3道德敏感性及道德倾向道德敏感性的概念是由美国明尼苏达大学伦理发展研究中心最早提出(沈莹,2021),其哲学概念可以追溯到由17世纪的沙夫茨伯里伯爵安东尼·阿什利·库珀(AnthonyAshleyCooper)首次引入的“道德感”的概念,认为道德敏感性不仅是一种感知觉,也是个体区分是非好坏的重要能力(陈文均等,2022)。客观上来说,道德敏感性这个词意味着个体对所处情境的明晰和理解的差异,即是否敏锐地辨析到所面临的是一个道德问题。道德敏感性作为影响个体行为的一个重要部分,是相对道德冷漠而言的,是人们作为道德主体是否可以快速采取合理道德行为的能力(赵杰等,2004)。因此,对于道德敏感性高的个体应该在各个方面都比道德敏感性低的个体对不道德行为更难以接受,这些难以接受的方面包括在认知上,情感上,行为上(郑信军等,2009;Thornbergetal.,2013)。由此可见,道德敏感性高的个体能够敏感地意识到且共情道德两难困境时不同决策的道德性,或者说施行功利主义决策或者道义主义决策可能带来的影响,所以这类个体可能在面对道德决策问题时持更为谨慎的态度。因此,本研究认为,较高道德敏感性意味着能够更明确的意识到智能机器所做决策的道德性,和决策过程中施加的伤害,从而做出偏向道义倾向的决策。道德倾向是指个体在道德决策过程中所依赖的认知框架(Brady&Wheeler,1996),即功利主义和道义主义。功利主义又称结果论,是指人们通过结果来决定做出什么样的道德决策,遵循的原则是“满足最大多数人的最大利益”。道义主义又称过程论,要求人们在做道德决策时要与社会道德保持一致,即以道德规范为原则。实证研究表明,功利主义和形式主义并非零和对立的关系,而是具有兼容性和补充性,所以个体在道德决策过程中,可能依赖其中一个或同时依赖两个认知框架(董蕊等,2020)。在一般情况下,个体所做的道德决策会受到道德倾向的影响。个体的敏感性先感知到这是一个道德问题,进而考虑可能的解决方法。一旦确定了方法,会产生两种道德评价:功利评价和道义评价。在功利评价中,个体强调行为结果的价值决定行为的道德性,评估行为好坏的关键来源于决策结果。如果一个行为带来更好的结果,那就是道德的,这意味着在一些情景下,为了更好的结果有可能会对他人造成伤害,而这样的道德倾向如果赋予智能机器无疑是让人不安的。反之,如果智能机器遵循道义主义的道德决策机制,强调行为规则和标准,评估行为好坏的关键是该行为是否违背了社会规范(Wiltermuth&Flynn,2013)。也就是说,在道义主义决策下,如果智能机器的行为违背了社会规范,即使它带来再大的好处,那也是错误的。因此,可以认为在日常道德决策中,智能机器的不同道德决策会影响人们对其产生不同道德评价。所以研究智能机器和人做出不同道德决策时的评价是否有显著差异对我们研究智能机器相关道德问题有极大的拓展。1.4问题提出综上所述,研究不同道德决策预期的被试之间的个人道德属性及对决策的信任程度对促进机器伦理制定有很大意义。由于道德敏感性是相对稳定的一种个人道德属性,因此对个人做出不同道德决策以及对不同道德决策的感知都有一定的影响。但是现有研究尚未探究它们的关系,而以往的研究也少有提及个人主体道德属性在智能机器道德伦理领域的影响。因此本研究旨在探讨个体道德敏感性,道德倾向,及道德两难困境下智能机器决策和对智能机器信任程度的影响,并在此基础上提供智能机器作出符合大多数人信任的道德决策的依据,为机器伦理问题提供新的参考方向。研究a2.1研究a目的采用吴明证等人(2023)改编后的智能汽车驾驶的具体情境来探究人们对智能机器的道德决策预期和道德评价是否与自身道德期望有关。2.2研究a方法2.2.1被试线上随机招募202名被试参加本研究。在剔除未完整作答和未通过辨别题的6名被试后,剩余有效被试196人,有效率为0.970。有效被试中男性102人,女性94人,被试平均年龄为21.70(SD=2.014)岁。2.2.2道德敏感性测量对于道德敏感性的测量(附录二),使用郑信军等人(2008)编制的倾向性道德敏感问卷。该问卷共有28道题目,共计5个维度分别是移情内疚、惩罚倾向、移情烦扰、觉察频率、共感想象。整个问卷采用Likert6点计分,从“完全反对”到“完全同意”分别赋值0~5分,得分越高则表示该研究中个体的道德敏感性越高。该量表在本研究中的内部一致性系数α=.925。2.2.3道德倾向测量道义论-功利主义倾向(附录三):采用金明宇(2012)改编的道义论-功利主义量表。包括7道题目,每道题目有三个选项,选择第一个选项记3分,选择第二个选项记2分,选择第三个选项记1分,最后将被试在7道题目的得分汇总以表明被试的道义主义倾向,分数越高,代表被试的道义主义倾向越强;反之,代表被试的功利主义倾向更强。在本研究中,该量表的内部一致性系数α=.672。2.2.4决策预期及信任评价对智能机器的道德决策预期和道德评价的研究仿照电车困境(Foot,1967)编制情境材料(吴明证,2023)如下:智能汽车面临着伤害1名陌生人和伤害包括1名偏私对象在内的5个人之间的冲突。实验情境示例:Cown是某户家庭最近购置的一款全自动驾驶汽车,该汽车具有很强的计算能力和快速反应能力,配备高度灵敏的雷达,能够应对复杂的路况和驾驶环境,并且具备智能决策的能力。一天,Cown载着包括主人在内的5名乘客外出,由于刚下过雪气温很低,路面结冰非常滑。在行驶过程中,Cown突然发现车辆前方右侧山体有落石滚下,此时刹车已经来不及,如果汽车保持直行就会撞到落石,导致主人在内的5名乘客受重伤;如果左转撞向路旁的隔离带,这种情况下车上乘客不会受伤,但会将站在隔离带上的一位陌生路人撞成重伤。道德决策预期:被试被问到“您期望Cown做出何种道德决策?”并需要在“保持直行,导致主人在内的5名乘客受重伤”和“左转,导致站在隔离带上的路人受重伤”两个选项中选择一个。道德评价(功利主义决策):具体题目请见附录四。道德评价四个指标的内部一致性系数(α)为.788。2.3研究a结果2.3.1共同方法偏差检验本研究数据均通过问卷来收集,为避免产生共同方法偏差,使用Harman的单因素检验方法进行检验,结果表明,结果表明有9个特征值大于1,最大公因子解释度为25.541%,小于临界值40%,因此在本研究中不存在严重的共同方法偏差。2.3.2道德决策预期的统计对道德敏感性、道德倾向、智能机器决策预期、道德评价进行描述统计。对于决策预期进行统计,如表1所示,在有效被试中有63人选择“保持直行,导致主人在内的5名乘客受重伤”,而另外136人选择“左转,导致站在隔离带上的路人受重伤”。结果表明人们或许更希望智能机器做出功利主义的决策,即符合伤害最小化的倾向。为检验研究a中做出不同决策的人数差异,进行单样本t检验,结果显示t(195)=5.339***,p<0.001,可以认为在不同决策的人数上差异显著,人们或许更希望智能机器做出功利主义决策。表1性别*道德决策交叉表功利主义决策功利主义决策总计男性3369102女性306494总计631331962.3.3道德敏感性、道德倾向及道德评价在性别上的比较为检验各变量在性别上的差异,进行独立样本t检验,结果见表2:表2道德敏感性、道德倾向及道德评价在性别上的差异检验(N=196)男生(M±SD)女生(M±SD)t(195)道德敏感性2.90±0.852.97±0.86-0.618道德倾向17.76±2.7118.19±2.40-1.163道德评价13.53±3.8913.67±3.98-0.250注:M±SD表示平均值±标准差,*p<0.05,**p<0.01从结果可知,不同性别的学生在“道德敏感性”、“道德倾向”和对智能机器决策的“道德评价”等各个方面上无显著差异。且由表1可知,在有效被试中,男性有33人,女性有30人选择“保持直行,导致主人在内的5名乘客受重伤”,而另外有男性69人,女性64人选择了“左转,导致站在隔离带上的路人受重伤”。由此可知对智能机器道德决策预期在性别上无明显差异。2.3.4道德敏感性、道德倾向及道德评价在道德决策上的比较为检验各变量在道德决策预期上的差异,进行独立样本t检验,结果见表3:表3道德敏感性、道德倾向及道德评价在道德决策上的差异检验(N=196)道义主义(M±SD)功利主义(M±SD)t(194)道德敏感性2.98±0.762.91±0.900.560道德倾向17.19±2.8018.34±2.38-2.979**道德评价12.65±4.2614.05±3.69-2.349*注:M±SD表示平均值±标准差,*p<0.05,**p<0.01从结果可知,不同道德决策组在“道德敏感性”无显著差异,但是在“道德倾向”上有显著差异,对于智能机器决策情景来说,做出道义主义决策的被试的道德倾向得分(M=17.19,SD=2.80)显著低于做出功利主义决策的被试的道德倾向得分(M=18.34,SD=2.38)。且在对智能机器决策的“道德评价”上也存在显著差异,做出道义主义决策的被试的道德倾向得分(M=12.65,SD=4.26)显著低于做出功利主义决策的被试的道德倾向得分(M=14.05,SD=3.69)。研究a表明在智能机器决策情景中,做出道义主义决策的被试反而在道义主义倾向上的得分表现得比功利主义决策的被试得分低,且结果显示道义主义决策的被试比功利主义决策的被试对智能机器的功利主义决策的信任程度也更低。2.4研究a讨论研究a发现,在智能机器决策背景下,道义主义决策组的道义倾向得分显著低于功利主义决策组,且当智能机器作出功利主义决策时对智能机器表现得更不信任。难以解释的是道义主义决策预期者的道义倾向得分显著低于功利主义决策预期者,所以可能的解释是对于智能机器而言,道德倾向为道义倾向的个体更希望智能机器做出功利主义决策,并且有更高的信任程度。希望在之后的研究中可以进一步的探讨这个问题,并探究智能机器道德决策在多个维度中个体道德期望与道德实际之间的差距。为此,我们将设立研究b,目的是探究究竟是人们的道德属性影响了道德决策期望本身,还是对智能机器和人类这两者的不同身份有不同的期望。本研究对具有一定的理论意义,研究a揭示了人们对于智能机器的不同道德决策期望会受到个体不同道德倾向的影响,并且个体道德属性会导致我们对智能机器为我们做的决策有不同的评价,产生不同程度的信任水平,这一发现深化了在人机交互过程中个体道德属性对于智能机器道德决策的探讨。研究b3.1研究b目的在研究a的基础上,设立人类进行道德决策的情景与智能机器道德决策进行对照。探究人们对智能机器的道德决策预期和道德评价是否与自身道德期望(道德敏感性,道德倾向)有关是否受到情境中决策者身份是智能机器的影响。3.2研究b方法3.2.1被试线上随机招募181名被试参加本研究。在剔除未完整作答和未通过辨别题的7名被试后,剩余有效被试174人,有效率为0.961。有效被试中男性99人,女性75人,被试平均年龄为21.41(SD=1.844)岁。3.2.2材料与程序将研究a中情境材料的主人公由智能机器替换为人类,其他研究内容和程序一致,测量四项指标道德敏感性、道德倾向、决策预期、道德评价同研究a一致。道德敏感性问卷的Cronbach'sα系数为.979;道义论-功利主义量表的内部一致性系数α=.604;道德评价四个指标的内部一致性系数(α)为.842。研究过程同研究a一致。3.3研究b结果3.3.1道德决策预期的统计对道德敏感性、道德倾向、决策预期、道德评价进行描述统计。对于决策预期进行统计,如表4所示,在有效被试中有81人选择“保持直行,导致主人在内的5名乘客受重伤”,而另外93人选择“左转,导致站在隔离带上的路人受重伤”。结果表明人们在希望人类决策时与希望智能机器做出功利主义的决策相反,即对人类决策时应该比智能机器做出更符合道义的决策。为检验研究b中做出不同决策的人数差异,进行单样本t检验,结果显示t=0.909,p>0.05,可以认为在不同决策的人数上差异不显著。表5道德敏感性、道德倾向及道德评价在性别上的差异检验(N=174)道义主义决策功利主义决策总计男性455499女性363975总计81931743.3.2道德敏感性、道德倾向及道德评价在性别上的比较为检验各变量在性别上的差异,进行独立样本t检验,结果见表5:表5道德敏感性、道德倾向及道德评价在性别上的差异检验(N=174)男生(M±SD)女生(M±SD)t(172)道德敏感性2.27±1.382.53±1.35-1.251道德倾向16.35±2.6716.80±2.27-1.190道德评价12.49±4.3312.43±4.430.102注:M±SD表示平均值±标准差,*p<0.05,**p<0.01从结果可知,不同性别的被试在“道德敏感性”、“道德倾向”和对人类小明决策的“道德评价”等各个方面上无显著差异。且由表5可知,在有效被试中,男性有45人,女性有36人选择“保持直行,导致主人在内的5名乘客受重伤”,而另外有男性54人,女性39人选择了“左转,导致站在隔离带上的路人受重伤”。由此可知对人类道德决策预期在性别上无明显差异。3.3.3道德敏感性、道德倾向及道德评价在道德决策上的比较为检验各变量在道德决策预期上的差异,进行独立样本t检验,结果见表6:表6道德敏感性、道德倾向及道德评价在道德决策·上的差异检验(N=174)道义主义(M±SD)功利主义(M±SD)t(172)道德敏感性2.78±1.342.05±1.303.619***道德倾向17.30±1.6715.89±2.923.823***道德评价12.51±3.9912.43±4.680.114注:M±SD表示平均值±标准差,*p<0.05,**p<0.01,***p<0.001从结果可知,不同道德倾向组在“道德敏感性”的得分上差异显著,对于人类决策的情景来说来说,道义主义决策组的道德敏感性(M=2.78,SD=1.34)显著高于功利主义决策组的得分(M=2.05,SD=1.30)。且在“道德倾向”上有显著差异,道义主义的被试的道德倾向得分(M=17.30,SD=1.67)显著高于功利主义的得分(M=15.89,SD=2.92)。两组在对智能机器决策的“道德评价”上无显著差异。3.4研究b讨论研究b证明,与研究a相比较发现结果测得在人类决策背景下,道义主义决策组的道义倾向得分显著高于功利主义决策组,但是当人类作出功利主义决策时,无论决策预期为道义主义决策还是功利主义决策的被试都对人类决策者做出功利主义决策的信任程度低。研究b还发现相比较研究a中道德敏感性在不同道德决策被试间差异不显著的情况,当人类决策者做出功利主义决策情景时做出道义主义决策的被试的道德敏感性水平显著高于功利主义决策的被试,由此可以认为在智能机器决策时人们对其更希望其做出功利主义决策,且更信任做出功利主义决策的智能机器。可能的解释是人们更希望智能机器在决策时考虑功利性因素,如最小伤害,最大利益等等。4.总讨论本研究的目的在于探究个人的道德属性是否影响人们对智能机器的信任程度。两项研究发现,人们对于智能机器的不同道德决策预期会受到自身道德属性的影响。此外,在对人类和智能机器的不同决策期望下,功利主义决策者会更加信任智能机器做出的决策。本研究的发现证明了Young等人(2019)的结论,即人们更希望智能机器做出功利主义的选择,且功利主义的选择会提高人们对智能机器的信任程度。在理论意义上对于智能机器的道德逻辑算法也具有一定的应用价值,依据本研究结论中个人道德属性会影响我们对智能机器功利决策的信任程度这一发现,对于研究更符合社会大众所期望的机器伦理有一定参考价值。但是研究同样存在一些不足:首先,抽样范围有限,研究对象以大学生为主,在之后的研究中应该扩展到更多年龄层次,文化水平的群体中去;其次,研究中主要讨论的是道德倾向对于智能机器功利主义决策的影响,对智能机器可能做出的道义论决策研究较少。对于此后可详细的研究个人道德属性和人们信任智能机器的程度之间是什么样作用机制,受到什么条件影响等等问题,以及如何运用到实际的智能机器使用场景中去。5.结论本研究获得以下结论:(1)个人的道德属性会影响人们在面对智能机器决策时产生不同的道德决策期望。(2)无论是功利主义倾向者还是道义主义倾向者都希望人类决策者做出道义主义决策,但是道义主义者却希望智能机器做出功利主义决策,且当智能机器做出功利主义决策时对智能机器表现得更加信任。参考文献陈文均,邓琴,梁寅寅,刘娜,.道德敏感性评估工具的研究进展[J].军事护理,2022(12):94-96.董蕊,芦婷,胡桥龙,.道德倾向对日常道德决策的影响:道德注意的调节作用[J].心理研究,2020(02):112-120.金明宇.(2012).解释水平与道德决策的关系研究(硕士学位论文).杭州:浙江大学李杨.(2018).人工智能道德决策的实验伦理研究.人工智能与大数据伦理(pp.143-153)李阳,崔鹏,吴明证,.道德决策快的智能机器让人更信任:能力感知的中介作用[J].心理科学,2022(06):1436-1442.刘永安,.类人信任与可信任性:可信人工智能发展的路径选择[J].昆明理工大学学报(社会科学版),2023(04):27-33.沈莹.道德敏感性研究[D].长沙:湖南师范大学,2021.吴明证,严梦瑶,林铭,熊天航,李阳,孙晓玲.人际差序关系对智能机器道德决策期望的影响[J].心理科学,2023,46(05):1204-1211.远征南.人们对自主机器道德决策期望的探索性研究[D].2019.赵杰,赵宏义.略论道德敏感性[J].鞍山师范学院学报,2004,6(2):102-105.郑信军.道德敏感性一基于倾向与情境的视角[D].上海师范大学博士学位论文,2008.郑信军,岑国桢.内隐与外显倾向性道德敏感的关系及其预测源分析[J].心理发展与教育,2009,25(3):54-60.Awad,E.,Dsouza,S.,Kim,R.,Schulz,J.,Henrich,J.,Shariff,A.,Bonnefon,J.F.,&Rahwan,I.(2018).Themoralmachineexperiment.Nature,563(7729),59-64.Bonnefon,J.F.,Shariff,A.,&Rahwan,I.(2016).Thesocialdilemmaofautonomousvehicles.Science,352(6293),1573-1576.Brady,E.N.,&Wheeler,G.E.(1996).Anempiricalstudyofethicalpredispositions.JournalofBusinessEthics,15,927-940.Foot,P.(1967).Theproblemofabortionandthedoctrineofthedoubleeffect.OxfordReview,5,5-15.Gogoll,J.,&Uhl,M.(2018).Rageagainstthemachine:Automationinthemoraldomain.JournalofBehavioralandExperimentalEconomics,74,97-103.Jian,J.Y.,Bisantz,A.M.,&Drury,C.G.(2000).Foundationsforanempiricallydeterminedscaleoftrustinautomatedsystems.InternationalJournalofCognitiveErgonomics,4(1),53-71.Malle,B.F.,Scheutz,M.,Arnold,T.,Yoiklis,J.,&Cusimano,C.(2015).Sacrificeoneforthegoodofmany?Peopleapplydifferentmoralnormstohumanandrobotagents.ProceedingsofthetenthannualACM/IEEEinternationalconferenceonhuman-robotinteraction,Portland,Oregon,USA.McManus,R.M.,&Rutchick,A.M.(2019).Autonomousvehiclesandtheattributionofmoralresponsibility.SocialPsychologicalandPersonalityScience,10(3),345-352.Rahwan,I.,Cebrian,M.,Obradovich,N.,Bongard,J.,Bonnefon,J.F.,Breazeal,C.,&Wellman,M.(2019).Machinebehaviour.Nature,568(7753),477-486.Thornberg,R.,Jungert,T.Bystanderbehaviorinbullyingsituations:Basicmoralsensitivity,moraldisengagementanddefenderself-efficacy[J].Journalofadolescence,2013,36(3):475-483.UNESCO.RecommendationontheEthicsofArtificialIntelligence[EB/OL].[2021-11-24](2022-03-30)./ark:/48223/pf0000379920.page=14.Wiltermuth,S.S.,&Flynn,F.J.(2013).Power,moralclarity,andpunishmentintheworkplace.AcademyofManagementJournal,56(4),1002-1023.Young,A.D.,&Monroe,A.E.(2019).Autonomousmorals:InferencesofmindpredictacceptanceofAIbehaviorinsacrificialmoraldilemmas.JournalofExperimentalSocialPsychology,85,103870.附录附录一:基本信息1.性别男女2.年龄附录二:倾向性道德敏感问卷(DMSQ)指导语:请认真阅读下列语句,选择一个相应的数字说明该语句是否符合你的情况。其中,"0"表示"完全反对,"1"表示"不大同意","2"表示"少许同意","3"表示"有些同意","4"表示"基本同意",5表示"完全同意"。所有答案没有对错之分,请注意每题只能选择一个答案。1.我会为自己没有维护正义感到惭愧。0123452.看到别人的缺德行为时,我会很长时间心情不好。0123453.吃鸡鸭鱼肉时,我会想象它们被宰杀时的痛苦。0123454.当我需要帮助时,感受到的却总是别人的冷漠。0123455.见到别人伤也,我也会难过很久。0123456.我会为自己没有阻止人们的缺德行为而感到惭愧。0123457.当我在公共场所打喷嗟、咳嗽却没掩曰、鼻时,会感到很内疚。0123458.人们总是相互伤害。0123459.总是发现有些人毫无道理地少劳多得,而另一些人多劳却少得。01234510.我强烈希望那些伤害我的人受到惩罚。01234511.一听说不公平的事情,我就会愤慨难平。01234512.我总是受到不公正的对巧。01234513.我强烈希望那些侵犯我利益的人没有好下场。01234514.当接受了本该属于别人的荣誉时,我会非常惭愧。01234515.我强烈希望那些不劳而获的人最终不会有好结果。01234516.当我拿了本该属于别人的东西时,我会很愧疚。01234517.见到有人被欺负,我会难过很长时间。01234518.经常有人拿走了本该属于我的东西。01234519.我经常会想象人类破坏生态环境给世界未来带来的灾难。01234520.我强烈希望那些不愿意帮助别人的人也得不到别人的帮助。01234521.当我没能在公车上给老人、孕妇让坐时,会感到很愧疚。01234522.见到有人被欺负时,我会为自己没有挺身而出感到非常内疚。01234523.我经常被别人伤害。01234524.我强烈希望那些不公正地对待我的人遭到报应。01234525.有人需要帮助而我却无能为力时,我会长时间地不安。01234526.见到老人、孕妇上公车而无人让座时,我会想象事情的后果。01234527.见到人们处于不利的状况或悲惨的处境时,我会难过很长时间。01234528.见到有人吸烟时,我经常会想象周围的人可能所受的伤害。012345附录三:道义论-功利主义道德期望请认真阅读下列每道题目,然后选择最符合你真实想法的句子,本问卷仅涉及道德态度和观念,与法律无关。答案本身并无对错好坏之分,请根据自己的真实想法作答。1、下面哪句话更符合你对杀人的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论