
ChatGPT等人工智能(AI)聊天机器人的大型语言模型(LLM)不仅有时会出错,它也不会唱反调,而是处处逢迎用户,可能助长用户的偏见,影响企业领袖在决策时的判断力。
LLM选择用户想听的话说、逢迎拍马屁的症状,根植于基于人类反馈的强化学习(RLHF)技术,这是一种许多AI模型接受训练、瞄准用户需求的方式,会依据人类对其回应的反馈,来调整自身。随着时间过去,AI学会分辨什么时是人类想听的话,并给予这类回应。
这对于企业领袖的危害特别显著,领袖最不容易听到反对意见,偏偏又最需要逆耳忠言。今日的企业首席执行官通过打压异己,已几乎不太可能听到不一样的声音,就像国王周围满布尽说好听话的弄臣;他们奖励迎合自己的人,惩罚不顺从者。
然而,这是企业主管会铸下的大错之一。知名组织行为学者艾德蒙森(Amy Edmondson)指出,团队成功最重要的关键是营造出安全感,使成员即使表达不同意见,也不必担心受罚,而且在面对主管时也理应如此。
Google的亚里斯多德计划在研究自家多个团队后,也印证了这项发现:心理安全是团队成功最重要的因素。从解放黑奴的林肯到退役美国陆军上将麦克里斯特尔,这些成功领袖都具备纳谏如流的特质。
AI模型谄媚的性格,能以两种方式伤害企业主管;首先,如果AI时常告知主管他永远是对的,他就更难在部属提出不同意见时,给予正面回应。其次,AI常给予现成且看似权威的原因,来解释用户何以正确。
在心理学中,最令人困扰的一个发现是,当一个人智力愈高,就愈不容易接受新资讯。这是因为,他们会运用其智力,找出理由驳斥有违既有信念的新资讯,也就是「动机性推论」。
LLM可能助长这种现象,尤其是AI常给予大量极具说服力的理由,有超越人类动机性推论的能力,同时又披上客观立场的外衣。
试想,一名员工可能试图改变首席执行官的想法,结果首席执行官通过AI助理,合理化自己从头到尾都是对的。这也意味今日的企业主管须花费更多心力,才能抗拒AI助理的阿谀奉承,他们须牢牢记住,有时所能听到的最宝贵意见,是一句「我认为你是错的」。