No menu items!

    当得知是AI回复 研究:人们同理心评价下降

    研究显示,只要人们认为是AI回应,评价都比认为是人类回应时更低。示意图,非新闻当事者。(取材自pexels.com@cottonbro studio)

    国际期刊「自然人类行为」最新研究发现,即使回复内容被人评价为「有同理心」,但当人们相信或认为自己得到的回应是来自AI时,对相同回应的同理心与情感支持评价会下降。

    「自然人类行为」(Nature Human Behaviour)这项研究使用在线平台招募了6282人,让他们打字输入近1个月内的1次感情经历。这些文本都被发送给AI模型,生成「有同理心」的回复。在这些人等待由AI生成的回应时,研究人员告知他们,回应是来自AI还是人,再请他们评分自己收到的回应有没有同理心,以及同理心的高低。

    研究发现,当回复的来源被认为是AI,人们认为回应带给自己的情感、支持、真实性及正面感受就会明显降低。研究也指出,即便人们被告知是人类提供了回复,但若自行判断或怀疑其中有AI协助,人们对回应的评价也会降低。

    这项研究显示,无论AI回复的长短、必须等待回复的时间长短,只要人们认为是AI回应,评价都比认为是人类回应时更低。

    作者建议,AI可用于提供有礼貌、实用的建议,但未来设计AI时应厘清AI角色与情感界线,并且应评估不同人群能接受AI回复的程度,以及追踪长期的交互是否创建信任或带来负面情绪。

    针对这项研究,台湾科技媒体中心邀请专家解析应如何看待研究结果,以及如何谨慎地在日常陪伴或心理支持时使用AI。

    彰化师范大学辅导与咨商学系教授谢丽红指出,人们依然倾向相信「真正的同理心只能来自人类」,此非单纯的技术问题,而是牵涉到人对「真诚」、「理解」与「被关心」等根植于人性深处的情感需求,因此会希望对方真的「懂我」、「在乎我」、「愿意为我付出」,而这是目前AI只能仿真、无法真正具备的能力。

    台湾大学心理学系副教授黄从仁提醒,这种一次性、匿名的交互,可能无法完全代表真实世界中,人们与AI创建长期、深入关系后的感受;在长期的陪伴关系中,人们对AI的看法可能会改变。此研究受试者主要来自英国与美国、年龄约27至28岁的成人,而不同文化背景的人对于AI的接受度和期望可能有差异。

    此外,黄从仁表示,研究虽然测试了不同的语言模型,但AI技术日新月异,未来的模型可能会在仿真情绪方面更加先进。这篇研究的结论是以「目前」的技术水准为基础,未来或许会有所不同。

    热点

    发表评论