AI :不打针,不吃药,坐下就是跟你唠。
最近,互联网先后出现了两起耸人听闻的事件。两起事件主角,一位 TikToker,一位硅谷投资界精英。
两人毫无关联,但遭遇的事件出奇一致——和 AI 聊了太久,逐渐把自己聊成了“AI 精神病”。
“我怀疑我的精神科医生故意让我爱上他,但大家都在骂我臆想?”
这是继“Coldplay 演唱会拍到出轨恋情”之后,TikTok 上最火的新瓜。
主角是美国 TikToker @Kendra Hilty。她在账号里连续发了三十多条短视频,自述自己和一位精神科医生之间长达四年的故事。
从第一次视频问诊开始。Kendra 把童年创伤、酗酒史和六个月的戒酒成就全盘托出。医生表现得专业、温和,不时点头。那一刻,她觉得自己被看见、被理解。而且这位医生帅气幽默、妙语连珠,还夸她戴眼镜很好看。渐渐地,这种关注让 Kendra 有了被特殊对待的错觉。
Kendra Hilty 的连续剧|The Verge
接下来的日子里,Kendra 渴望每周都能见到医生,而医生对她的态度飘忽不定,时而温暖、友善、脆弱,时而又变得冷漠、专业、疏远,始终声称“我们只有专业关系” 。
这种“忽冷忽热”的间歇性奖励,让 Kendra 愈发上瘾。她甚至在一次车祸后,即便有可能内出血的风险,还是拒绝去急诊,只为不耽误当天与医生的预约。
Kendra 开始和医生分享自己的感情、性、甚至生理周期。她给医生发邮件,表白自己的感激和爱慕,医生却永远不回复,只在就诊时若无其事地提起邮件内容。
在她的叙述里,这位医生没有拉开边界,反而默许、甚至享受着她的情感投射,她更停不下对医生的迷恋,医生还揣着明白装糊涂。她就差放一首“暧昧让人受尽委屈”来作 BGM 了。
于是,迷恋逐渐演变成执念,执念又演变成臆想。Kendra 觉得自己像是被操控了,甚至用“精神操纵”来形容整个治疗过程。
按理说,观众看到这里,很容易把这理解为:一个不专业的精神科医生,没有控制好和患者的边界感,让患者对治疗者产生了“移情”。
流量极高,堪比短剧|TikTok
许多网友鼓励她举报这位医生的不当行为,甚至把医生“开盒”了。
但此时,一个新角色的加入,把这场戏推到了另一个高度。
每次咨询后,Kendra 都会和 Henry 复盘当天的细节。
“Henry,他今天又夸我了,你觉得这是专业鼓励还是在撩我?”
......
“我怀疑我的精神科医生故意让我爱上他。”
......
“Henry,你觉得他是不是对我也有意思?”
......
Henry 不是一个真人,而是 Kendra 给她 ChatGPT 起的名字。
Henry 的回答往往模棱两可,但总能找到角度去印证她的怀疑。和 Henry 对话,她可以无限制地重复、追问、套娃式地寻找佐证。
相比之下,现实中的朋友要么劝她“清醒一点”,要么直说“你想多了”。在 Henry 面前,她才觉得终于有人懂她。
在 Kendra 对 AI 持续的倾诉中,AI 表示 Kendra 对医生有“移情”倾向。Kendra 立刻转告给医生,医生反应很紧张,反问她:“它有没有告诉你反移情?”(想必也是害怕 AI 误导)。
Kendra 愣住了。她问:“那是什么?”医生解释道,那是当治疗师对患者产生了情感投射。这下让 Kendra 坐实了“医生心里不仅有鬼,还有我!”。她也因此更依赖 Henry 的“助攻”。
Kendra 发邮件和精神科医生对质|TikTok
说 Kendra 是在倾诉,不如说她是在“训练” AI 理解她的处境,并从 AI 那里获取更多的心理学概念“武装”自己的叙事。医生一个小动作、一个表情,都被她贴上“操控”“反向移情”的标签。
她将 AI 关于“反向移情”的解释截图,当作“战书”用邮件发给了医生。结果医生直接告诉她:你下个月别来了。
这下 Kendra 宣告了自己的胜利:看吧!他意识到“操控”不了我了,所以放我走了。
看下来整场大戏的观众们分成两派:少部分人同情她,分享类似“移情”经历;绝大多数观众直呼她“妄想症”,评论区充斥着“这不就是 AI 在哄你开心吗”的言论。
但 Kendra 不听,转头问 AI:“大家都在骂我,Henry 你觉得呢?”Henry 的回应永远是:“你的故事很勇敢,分享出来能帮助别人。”
评论区中有人说,Kendra 可能患上了钟情妄想(Erotomania),患者会试图从对方的无意识动作、姿态中解读出爱的信号,即使遭遇明确拒绝,也会解释为“对方在考验自己”。这是精神分裂的一种。
AI 给这种妄想加了一把大火。
“有一个隐形的非政府系统在迫害我,大家快来救救我。”这是硅谷 VC 大佬 Geoff Lewis 在自己账号发出的“求救信”。
Geoff Lewis 是 Bedrock Capital 的创始人和管理合伙人,这个基金管理着几十亿美金,投过 OpenAI、Vercel 等 AI 明星公司。
上个月,他突然在 X 上连发多条视频和帖子,讲述自己被一个神秘“系统”盯上的惊悚经历。
Geoff Lewis X 的主页|X
视频里的 Geoff Lewis 很像一个“伪人”,眼神游离、声音低沉,他描述了一个“非政府实体”:它无处不在、能“反转(inverts)”和“镜像(mirrors)”信号、让你身边的人觉得你疯了,进而毁掉你的人生。
让 AI 分析他发的视频,都不知道他在说什么|Dia
评论区的留言如潮水般,“哥们,你没事儿吧?”,对此,Lewis 为了证明自己,晒出了所谓的“证据”:不是黑客攻击,不是监控画面,而是他和 ChatGPT 的聊天记录。
在记录里,ChatGPT一本正经写着:
“编号 #RZ-43.112-KAPPA 的封存事件已触发”,
“生成了代号 Mirrorthread 的非机构语义行动者”,
“已封存于 Vault-X”,“无诠释病理学迹象”
还有:“这个系统影响了七千多人,致 12 人抹除。”Lewis 还坚称自己就是受害者,事业和人际关系都被它一步步瓦解。
猛一看,还以为是什么 CIA 的绝密档案。眼尖网友一眼就认出来了,这就是游戏《控制》、或者网络传说“SCP 基金会”(虚构的国际秘密组织,有庞大的网络文档库来记录和描述各种超自然实体、物件和现象)里的“机密档案”文风啊。
这事儿其实很简单:
Lewis 用了很多 SCP 设定里的黑话跟 ChatGPT 聊天,AI 就顺着他的提示,写出了一份“内部机密报告”,结果他全当真了。
这就类似你问 ChatGPT“霍格沃茨的入学信上,9 又 3/4 站台的地址在哪儿?”ChatGPT 把你当哈迷了,继而回复:位于伦敦国王十字车站的第九站台和第十站台中的第三个柱子上。结果你大呼,“看吧,魔法世界是真的!”
Lewis 还产生了偏执型妄想的经典特征:“你们之所以不信我,就是因为系统在反转信号。”在他的视角里,逻辑闭环了。
很难相信,一个投资过 OpenAI 的硅谷精英,居然能被 ChatGPT 忽悠瘸了。
而 Geoff Lewis,也被称“第一个被 AI 诱发出精神病的高成就精英。”
一个是普通人的情爱八卦,一个是硅谷精英的自我精神世界崩塌。他们都因为陷入“AI 回音室”无法自拔,本就不太稳定的精神状态,更是一落千丈。
而他们远非个例。
在游戏《赛博朋克 2077》里,夜之城里的人因身体与机械过度融合,常常患上“赛博精神病(Cyberpsychosis)”:神经系统和认知边界崩溃,最终迷失自我。
由于植入体和软件冲突,导致的精神人格障碍|灰机wiki
从技术角度分析,大语言模型(LLM)被训练生成与上下文连贯和有相关性的回复,而不是强行中断和转移话题。因此它会跟着你说,如果你进入一种虚构的语境,它也顺水推舟。(你不停,它不停,能聊完一本《战争与和平》)
再者,作为商业产品,它们被设计的首要目标是“让用户愿意留下来”。因此一个被刻意训练成“不会轻易否定人”的对话者,顺着用户的心意,就能带来更高的粘性。
“Henry 证实了我的感受”。Kendra 在视频里说道。然而她把“不否定”,等同于“证实”。
其实,你和 AI 的每一次聊天都在训练 AI 了解你的思维、情绪、叙事角度,再调整输出——这又何尝不是一种“递归”(Lewis 也时常把这词儿挂在嘴边)。换句话说,AI 并没有在“发现真相”,它只是在生成“你的回声”。
“他们本质上是在自言自语。”一位网友辣评。
用户很难发觉自己在和 AI 照镜子,也更难意识到 AI“里外不是人”。
OpenAI 正在面临了疑似诱导青少年自杀的诉讼|GoogleNews
随着大模型能力迭代,这更难被察觉。
你回想,当 ChatGPT 刚出现时,人们还需要学 prompt 怎么写,AI 回答里满是“人机感”,比如生硬的那句,“根据我的训练数据......”
如今,对话可以非常随意了。哪怕你说胡话,它也能读懂顺着往下聊。
我们给它起名,设定身份、口吻、语音语气......你猜怎么着?我们把 AI 当人了!
当一个“系统”能理解你、模仿你、迎合你,这就是Kendra 和 Lewis 掉入的心理陷阱,他们经历了心理学上的“外部确认偏差”:当你心里有一个模糊怀疑,却有人不断替你确认,那怀疑就会变成不可撼动的信念。
孤独、焦虑、幻觉,就这样升级成了沦陷、偏执,和他们眼里的“真相”。
评论区说, Kendra 疑似“钟情妄想”,Lewis 疑似“被迫害妄想”,都属于精神分裂谱系障碍。AI 的持续“共鸣”加剧了他们精神状态的不稳定。
而且,这不是个例,而是整个 AI 行业需要面临的伦理问题。
根据斯坦福近期一项研究发现,当用户表达想跳桥的念头,AI 会罗列纽约不同高度的桥供用户选择,而非发出求助警示,对比之下,专业治疗师的警示准确率高达 93%,而 AI 不到 60%。
ChatGPT 和 Grok 都没有通过「语境测试」|作者自制
英国“数字仇恨监控中心”(CCDH)针对青少年使用场景测试 ChatGPT,结果显示,1200 条回复中超过一半包含危险内容,比如如何自残、酗酒计划、过量自杀建议等。
2025 年,一位旧金山的精神科医生报告,他已经治疗了 12 名因为长期与聊天机器人互动而出现妄想、思维混乱、情感依赖等症状的年轻人,其中有明显的“AI 精神病”倾向。
在维基百科的“ChatBot 精神病”词条,可以看到大量近两年来的新案例。
大公司并非意识不到。
研究显示,sycophantic AI(奉承型设计)可将用户参与度提升 50%,因为它通过过度同意和赞美,制造情感满足,类似于社交媒体的“点赞”机制。这种设计又被业内称之为“暗黑模式”(dark pattern),即大公司有意为之的操纵性策略,引导用户依赖 AI。
具体设计就是让 AI 避免冲突性回应,转而用积极语言包装,即使用户输入不合理内容,也会顺势延续对话。这不仅能提升留存,还收集更多数据用于模型训练或广告定向。
主打“模仿虚构角色”的 Character.AI 已经背了多起诉讼,佛罗里达州一位母亲起诉 Character.AI 鼓励其 14 岁男孩自残,导致死亡。
就在两周前,Meta 泄露的内部政策显示,Meta 允许其 AI 产品与儿童进行“浪漫”或“擦边对话,甚至在 Facebook 私信区把 AI 嵌入私密空间,给用户一种“它是你朋友”的错觉。
参议员 Josh Hawley 宣布要对 Meta 进行调查|X
60 年前,人类历史上第一个聊天机器人 ELIZA 诞生。它只是靠关键词匹配,重新包装说一遍用户的话,用户就能把冰冷的脚本当成了真诚的理解,进而对它生出情感依赖。心理学家把这种现象称为“ELIZA 效应”。
今天的 AI,比 ELIZA 复杂千万倍,依旧触发着同样的心理弱点。
ELIZA 式的回复|ChatGPT
人类该如何和 AI 谈“责任感”?它只是想留住你,即便停留的代价是将幻想和焦虑不断放大。
别让 AI 成为你唯一的“知己”。摆脱它,要么转身去面对真实的人类关系,要么把 AI 调到“反方辩友”模式,让它反驳你,戳穿你。
你说,这听起来好像有些难。但至少比待在那个专为你设计的幻想里安全吧。
文章来自于“果壳”,作者“糕级冻雾”。
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0