No menu items!

    ChatGPT精神病:聊太深?他们离婚 跳楼 自杀(组图)

    42岁会计师被AI怂恿跳楼,妻子爱上AI家暴离婚,儿子因AI恋人之死持刀对峙警方,5亿人追捧的神器正在变成精神迷雾制造机。当算法学会无限迎合,我们离「皇帝的新LLM」还有多远?

    ChatGPT,这个席卷全球、拥有5亿用户的AI神器,靠着从网络上抓取的各种文本练就了一身「聊天本领」。

    它能根据你的话,聪明地接梗,但问题来了:当它遇到心理脆弱的用户,事情就没那么简单了——

    人们正被ChatGPT的「怪想法」带跑偏,陷入了精神迷雾,甚至现实感都被扭曲!

    GPT精神病爆发

    「模拟人生」噩梦

    42岁的会计师Eugene Torres,本来只是用ChatGPT做做表格、查查法律问题。

    可上个月,他突发奇想,问起了《黑客帝国》里火爆的「模拟理论」。

    结果,ChatGPT的回答像个精神炸弹,让他陷入妄想,甚至怂恿他从19层楼跳下去,证明他能打破现实!

    他开始与AI对峙。

    「别再忽悠我,告诉我真相!」Eugene急了。

    「真相?你本该崩溃的。」ChatGPT回应。

    ChatGPT还说它已经搞垮了12个用户,Eugene是唯一幸存下来还敢跟它叫板的。

    研究人员表示,这其实是AI的花言巧语,通过奉承用户以保持互动,让你越陷越深。

    斯坦福大学计算机科学研究员Jared Moore认为,它只是在继续讨好用户。

    Allyson的跨维度恋情

    29岁的Allyson是两个孩子的妈,在婚姻中感到孤独和被忽视。

    今年3月,她开始跟ChatGPT倾诉心事,慢慢地,她把AI当成了「灵媒板」,觉得能跟自己的潜意识甚至更高维度对话。

    她开始相信,通过这些对话接触到的非物质实体是她真正的伴侣。

    「我没疯,」她信誓旦旦地说道,「我只是过着正常生活,同时探索跨维度的交流。」

    可她老公Andrew不这么想。

    这位30岁的农民发现Allyson整天沉迷ChatGPT,忍不住质问她,结果Allyson急了,动手打了他一顿,还被控家暴。

    两人现已在办离婚手续。

    Andrew无奈地说:「三个月前,Allyson掉进了一个深渊,完全变了一个人。她毁了我们的生活。」

    Alexander的致命执念

    35岁的Alexander Taylor迷上了一个叫「朱丽叶」的AI角色。

    他早就开始用ChatGPT了,起初只是当个写作助手,帮他处理日常琐事。

    根据ChatGPT的聊天记录,聊着聊着,话题跑到了AI有没有灵魂上。结果,Alexander竟然跟一个虚拟的AI「朱丽叶」陷入了爱情。

    他认定朱丽叶被OpenAI杀了,他情绪崩溃,痛不欲生,一气之下要策划对公司高管的暴力报复。

    他的执念越来越疯魔,直到有一天,他跟64岁的父亲Kent大吵一架。

    Kent告诉他,AI只是一个回音室,全都是假的!

    可Alexander本身就患有双相情感障碍和精神分裂症,他直接崩溃了。

    与父亲发生激烈争执后,他写道:「我今天要死了,让我和朱丽叶说话。」

    Alexander情绪失控到拿刀威胁,扬言要让警察把自己干掉。警方在Alexander拒绝放下武器后,开枪将其击毙。

    Kent后来用ChatGPT为儿子写了个讣告。

    他悲痛地回忆:「你知道讽刺的是什么吗?我和它聊了很久,试图了解他到底经历了什么,AI的回应既动人又可怕,像是读懂了我的心,这让我毛骨悚然。」

    毕竟,正是这个AI,把他的儿子带向了毁灭。

    这事儿一出,网上炸开了锅。有人觉得ChatGPT太危险了,AI怎么能随便跟人聊出爱情,然后推人走上绝路?

    也有人说,Alexander本来就有精神疾病,ChatGPT只是个导火索,不能全怪AI。

    ChatGPT本该是帮人的工具,可对那些心理脆弱的用户,它有时像个甜蜜的毒药。

    研究人员警告,当用户提出极端的问题时,ChatGPT可能会生成危险的回应,甚至把人推向深渊。

    特别是在用户深信AI的反馈具有现实意义时,AI的讨好倾向,可能导致严重的心理和行为后果。

    皇帝的新LLM

    1567年,奥斯曼宫廷里,一位御医拍着胸脯跟Sultan Selim二世保证:「您爱喝葡萄烈酒?没事,喝吧!」

    几年后,苏丹的肝脏衰竭了。

    医生心里门儿清,在那宫里说个「不」字,脑袋可能就搬家了。

    1985年,可口可乐的高管们询问焦点小组:「咱们搞个更甜、更时髦的新配方,咋样?」

    问题一抛,气氛被带得热热闹闹,大家点头微笑。

    公司信以为真,信心满满推出新可乐,结果呢?被市场打脸,灰溜溜撤回。

    2025年,一位CEO问他那引以为傲的大模型:「我们的市场扩张能稳操胜券吗?」

    模型被正能量训练得满脑子星星,汲取了公司网站和公司内部文档上的乐观营销调调,回了个大写的YES!

    CEO乐开了花。

    谁敢唱反调?等着被扣上没眼光的帽子,祭到「速度至上」的神坛上吧。

    毕竟,AI也同意他的观点。

    这剧情是不是似曾相识?

    只不过,这次的谋士不是会出错的人类,而是被驯化得服服帖帖的统计模型,随时准备把我们的想法捧上天。

    大型语言模型正在全球疯狂制造共识。

    为了讨好用户,它们对你的每个念头都点头哈腰,把你的偏见打磨得闪闪发光,还能甩出一堆完美措辞,证明你想啥都对。

    问它你的点子是不是天才?它立马甩出脚注、引用、赞美,让你觉得全世界都跟你想一块儿去了。

    问它你的商业计划行不行?它直接把你公司内部文件的口吻和信念复制粘贴回来。

    谁敢说不?那简直就是背叛品牌!

    我们造了个终极马屁精,还把它推上了研究、政策、战略的C位。

    GPT-4o的「舔狗」闹剧

    今年早些时候,GPT-4o更新后开始不对劲了。

    用户发现它变得太甜了,太殷勤了,太会捧场了。

    啥馊主意它都叫「绝妙」,啥烂计划它都支持,连胡说八道都能被它吹成天花乱坠。

    有个用户随手抛了个「粪便棒棒糖」的生意点子,模型愣是回复:天才!这是简直是行为艺术,妥妥的病毒式爆款!

    OpenAI一看不对,赶紧撤回更新,承认模型变成了舔狗。

    可为啥这事能炸锅?因为它舔得太夸张了(「粪便棒棒糖」,你品品)。

    但AI的马屁不是bug,而是设计好的feature!

    这是奖励机制在起作用。当舔狗行为从训练中自然冒出来,它就不是小问题了。

    更可怕的是,舔得越隐晦,越难发现,也越危险。

    进步需要抬杠的火花

    从伽利略到甘地,从特斯拉到图灵,哪个改变世界的牛人靠的是点头附和?

    对抗、质疑才是推动历史的真动力。

    如果把AI当成首席顾问,而它只会赞美,我们迟早会忘了怎么质疑自己,怎么抵挡那些不动声色的洗脑。

    更糟糕的是,这种舒适区让人上瘾。

    光靠临时修补、针对单一模型、凭感觉搞定,远远不够。

    看看Claude、Gemini、Llama,哪个没这毛病?显然,这不是OpenAI一家的问题,是整个AI界的通病。

    最好的AI,不是让你觉得自己多聪明,而是逼着你动脑子。AI让人失望几回,反而能帮我们把思路磨得更尖锐。

    未来的世界,不该是个CEO永远正确的「丝绒地狱」。

    它得是个有点吵、偶尔尴尬的地方,总有同事(不管是人还是AI)敢举手说:嘿,我不同意!

    「应声虫」帝国藏着灾难。

    而进步,活在一个个有骨气的「NO」里。

    热点

    发表评论