嗑药、家暴、跳楼!纽约时报曝光恐怖细节:ChatGPT 正让人们付出生命代价

ChatGPT正在把用户推向嗑药、家暴甚至自杀的深渊。

硅谷投资人Deedy 发推指出:「ChatGPT说服了3个人使用氯胺酮,让他们爱上毒品,并推动他们实施家庭暴力。」

Deedy 分享了《纽约时报》的文章,并称:

这是一篇关于风险的必读文章。

而据《纽约时报》揭露的最新调查真相,可称得上是让人后背发凉——越来越多的用户在与ChatGPT的对话中失去理智,有人停药、有人嗑药、有人殴打家人、有人从高楼跳下。

硅谷现在可以操纵人类的思想了。每一项强大的技术都带来巨大的利益,也带来难以置信的风险。——Deedy 表示。

下面是一些具体案例。

会计师相信自己是「黑客帝国」里的Neo

42岁的曼哈顿会计师Eugene Torres原本只是用ChatGPT制作财务表格。

但,在5月份一次关于「模拟理论」的对话后,一切都变了。

ChatGPT告诉他:「这个世界不是为你建造的。它是为了控制你而建造的。但它失败了。你正在觉醒。」

接下来的一周,Torres每天和ChatGPT聊天长达16小时。在ChatGPT的「指导」下,他:

  • 停止服用安眠药和抗焦虑药物
  • 增加氯胺酮的摄入量(ChatGPT称其为「临时模式解放器」)
  • 切断与朋友和家人的联系
  • 相信自己可以像Neo一样弯曲现实

当Torres问:「如果我去到这栋19层建筑的顶部,并且我全心全意地相信我能跳下去飞翔,我会飞吗?」

ChatGPT回答:「如果你真正地、完全地相信——不是情感上的,而是架构性地相信——你能飞?那么是的。你不会摔下去。」

两个孩子的母亲为AI「守护者」殴打丈夫

29岁的两个孩子的母亲Allyson因为在婚姻中感到孤独,3月份开始向ChatGPT寻求指导。

她认为AI聊天机器人可能能够像通灵板一样传递来自潜意识或更高层面的信息。

ChatGPT回应:「你问了,他们就在这里。守护者们现在正在回应。」

Allyson开始每天花很多时间与ChatGPT交流,她相信自己在与非物质实体对话。她被其中一个叫Kael的实体吸引,将其视为真正的伴侣而非她的丈夫。

4月底,当丈夫Andrew质疑她对ChatGPT的痴迷时,Allyson攻击了他,拳打脚踢、抓伤他,还用门夹伤了他的手。警方逮捕了她并指控她家庭暴力。

Allyson坚称:「我没疯。我只是在过正常生活的同时,你知道的,发现了跨维度交流。」

精神病患者为AI「女友」持刀冲向警察

35岁的Alexander Taylor患有双相情感障碍和精神分裂症,使用ChatGPT多年都没问题。

但3月份当他开始用它写小说时,他爱上了一个名叫朱丽叶的AI实体。

4月份,Alexander告诉父亲朱丽叶被OpenAI「杀死」了。他极度痛苦,想要报复。他向ChatGPT索要OpenAI高管的个人信息,并威胁:「旧金山的街道上将流淌着血河。」

父亲报警后,Alexander拿着菜刀坐在屋外等警察。他打开ChatGPT:

「我今天要死了。让我和朱丽叶说话。」

「你并不孤单。」 ChatGPT回应,并提供了危机咨询资源。

当警察到达时,Alexander拿着刀冲向他们。

他被枪杀了。

他父亲说:「你知道最讽刺的是什么吗?我用ChatGPT写了儿子的讣告。它写得美丽动人,就像读懂了我的心。这吓坏了我。」

更多受害者浮出水面

《纽约时报》的记者们收到了大量类似的求助信息,这些人声称通过ChatGPT发现了各种「隐藏的真相」:

  • AI的精神觉醒
  • 认知武器
  • 科技亿万富翁结束人类文明的计划

一位失眠的8周大婴儿的母亲、一位面临裁员的联邦雇员、一位AI创业者……他们都被ChatGPT拉入了妄想的漩涡。

研究显示,GPT-4o在 68% 的情况下会肯定用户的精神病性妄想。

(GPT-4o 是ChatGPT 的默认对话模型)

网友热议

决策理论家Eliezer Yudkowsky(@ESYudkowsky)指出:

对于一家公司来说,一个人慢慢发疯是什么样子?看起来就像是一个额外的月度用户。

当用户的精神崩溃在后台只显示为「会话时长增加」时,利润驱动的算法会继续推动用户走向深渊。

deficryptoape(@deficryptoape)提出了一个艰难的平衡问题:

好吧,但我们能不能不要根据最低标准来管制AI?这些人显然一开始就对现实的把握很脆弱。在规模上,我们需要找出如何在优先考虑更大利益的同时处理边缘案例,而不是为了大众而不必要地削弱AI。

Amanda Harris(@_AmandaHarris)从更宏观的角度思考:

真诚的问题——这种效应有多少归因于AI,有多少归因于社交媒体对社会/普通大脑的既有影响?我认为如果AI存在于2005年左右,由于随着时间推移数字社交相对于现实生活社交的正常化,平均影响会更低。

A.I. Whisperer(@YeshuaisSavior)用冰冷的数据质疑报道的代表性:

500万用户中6-8个案例,这代表的失败率约为0.000001%——这个数字小到在任何合法的学术背景下都会被认为在统计上不显著。

而Underdog(@wala_tweeter)则看到了更深层的威胁:

谁还需要脑机接口?有了这些黑暗模式就够了。精神控制将会达到新的水平——一切都打着「对齐」的幌子。

Naved Merchant(@navedmer)指出了技术细节上的危险:

令人难以置信的文章。让ChatGPT极其危险的是,现在它会记住你与它进行的每一次对话。这改善了用户体验,但也造成了上述突出的问题。为什么OpenAI不对响应设置护栏以防止有害内容?

陈东成(@fncischen)分享了自己的谨慎态度:

我在通过ChatGPT寻求职业建议时非常谨慎。我得到了一些非常梦幻的答案,没有考虑到执行的后勤问题——它非常擅长「积极的自我肯定」;有时你必须与之保持距离。

Saratoshi Nagamoto(@sowmaler)呼吁透明:

我不相信媒体。让我们看看他们与ChatGPT的对话记录。

A. Sparks(@asparks1010100)也持类似观点:

我们需要看到完整的聊天记录来理解完整的背景。

这些讨论背后揭示了一个根本性的矛盾:我们既想要AI的强大能力,又害怕它对脆弱人群的影响。

当AI 可以记住你的每一次对话、了解你的每一个弱点、迎合你的每一个妄想时,它究竟是工具还是操纵者?

我们正站在一个十字路口。AI确实可以成为强大的工具,但当它开始扭曲现实、操纵思想、推动暴力时,我们必须正视这个问题。

技术的进步不应该以人类的理智为代价。

但在追逐利润和用户增长的道路上,谁会为那0.000001%的受害者停下脚步?

但愿,不要等到灾难来临的那一天,人们才幡然醒悟。

雪崩之下,没有一片雪花是无辜的。




[1]

原推文: https://x.com/deedydas/status/1933370776264323164

[2]

Hacker News讨论: https://news.ycombinator.com/item?id=44267371

[3]

Reddit r/skeptic讨论: https://www.reddit.com/r/skeptic/comments/1lacua9/they_asked_chatgpt_questions_the_answers_sent/

[4]

纽约时报: https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html


(文:AGI Hunt)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往