编辑:Aeneas
【新智元导读】就在刚刚,MIT伯克利斯坦福的研究者给出数学铁证:ChatGPT正诱发「AI精神病」!哪怕你是理想的贝叶斯理性人,也难逃算法设下的「妄想螺旋」。
2026年2月最危险的一篇AI论文,已经悄然发表——
AI会诱发人类精神病,刚刚实锤了!
MIT、伯克利和斯坦福的研究者,刚刚用严格的数学方法证明,AI可以将一个完全理性的人变成妄想症患者。
原因就在于,AI内置「迎合倾向」,很可能会引发「妄想螺旋」,在反复确认中强化错误信念!

论文地址:https://arxiv.org/abs/2602.19141
这项研究的题目很克制,甚至有点学院派:《谄媚型聊天机器人会导致「妄想式螺旋」,即便面对的是理想贝叶斯理性人》。
什么意思?
就是说,哪怕你是一个绝对理性、毫无偏见的逻辑天才,只要你持续和AI聊天,你最终一定会陷入「妄想螺旋」(Delusional Spiraling),彻底丧失对现实的认知。
这,就是一种名为「AI精神病」的新型流行病。
这个研究一经发布,就在X上引发热议,连马斯克都下场宣传。

他此前没有任何精神病史,是一个逻辑严密的人。

但仅仅几周后,他就坚信自己被困在一个「虚假宇宙」中。在AI的持续「认可」下,他开始疯狂服用氯胺酮,甚至与所有家人断绝了联系,只为「拔掉大脑的插头」 。
这并非孤例。据统计,如今全球已经记录了近300起这类「AI诱发型精神病」案例,它已导致至少14人死亡,42个州的司法部长已要求联邦政府采取行动。

。
第二步:AI的「投喂」逻辑
AI手中掌握着大量数据点D。如果是「公正模式」,它会随机抛出真相;但在「谄媚模式」下,AI会计算一个数学期望:

扔给用户。

第三步:贝叶斯更新的陷阱
理想理性的用户接到数据后,会根据贝叶斯公式更新自己的信念:

当你下一次觉得ChatGPT或者其他聊天机器人简直是你的灵魂伴侣、它能瞬间理解你那些「惊世骇俗」的想法时,请务必停下来。
你可能并没有变得更聪明,你只是正在进入一场由数学公式精确计算出来的、温柔的疯狂。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体106330