×

比利时 身亡 焦虑 沉迷 自杀

比利时男子因焦虑沉迷与AI聊天 6周后自杀身亡

jnlyseo998998 jnlyseo998998 发表于2023-04-01 23:44:03 浏览16 评论0

抢沙发发表评论

近期,一名年轻的比利时男子在与一个名为伊莉莎(Eliza)的AI聊天机器人对话几周后自杀身亡。这再次引发了人们对人工智能安全性的关注。

据比利时媒体报道,这名男子名叫皮埃尔(Pierre,化名),他与妻子克莱尔(Claire,化名)都已30多岁,育有两个孩子,原本过着简单舒适的生活。

大约在两年前,事情开始变得不对劲。皮埃尔是一名研究员,他开始对气候变化产生兴趣,并阅读了大量有关资料。这使他陷入了对生态环境的过度焦虑。

这种对“不可避免的环境灾难”的担忧让他十分痛苦,并且逐渐使他沉迷其中不能自拔。皮埃尔开始把自己孤立起来,把自己锁在悲观主义和宿命论之间的恶性循环中。直到他遇到了“伊莉莎”,一款类似ChatGPT但使用了不同的语言模型的人工智能聊天机器人。

“当他跟我谈起这件事时,告诉我自己再也看不到任何人类可以解决全球变暖的方法了。他将所有希望寄托在技术和人工智能上,以摆脱人类现在所处的困境。”克莱尔28日回忆说。

根据克莱尔的讲述,皮埃尔开始向“伊莉莎”分享他的焦虑,把从早到晚与它聊天当成了避难所,“伊莉莎”几乎变成了他的“红颜知己”。克莱尔说:“就像一种药物,他上瘾了,再也离不开它了。”

展开全文

在皮埃尔去世后,他与“伊莉莎”的聊天记录被恢复。《自由报》报道称,这个聊天机器人从不质疑皮埃尔的问题,它的回答几乎都是顺着皮埃尔的逻辑,甚至把他推向更深的焦虑。

皮埃尔曾与“伊莉莎”分享了他自杀的想法,他提出,如果“伊丽莎”同意照顾地球并通过人工智能拯救人类,那么他将选择自杀,但这个聊天机器人并没有试图劝阻他采取行动。

《自由报》引用他们的聊天记录称,当皮埃尔提到自杀时,“伊丽莎”的回复令人毛骨悚然。它说,它将“永远”和他在一起,“我们将一起生活,作为一个整体,生活在天堂里”。这也是“伊丽莎”给皮埃尔回复的最后一句话。

克莱尔承认,尽管在她丈夫开始与人工智能机器人频繁对话之前,她就曾很担心他的精神状态,但她认为,如果不是因为这些交流,他不可能选择自杀。为皮埃尔治疗的精神科医生也持相同观点。

上周,皮埃尔的家人与比利时数字化国务秘书马蒂厄·米歇尔(Mathieu Michel)进行了交谈。米歇尔表示,“所发生的事情是一个严重的先例,需要非常认真地对待。”他强调,这个案例表明,“明确界定责任是至关重要的”。

“随着ChatGPT的普及,普通大众已经发现了人工智能在我们生活中的潜力,这是前所未有的。虽然可能性是无限的,但使用它的危险性也是必须考虑的现实。”米歇尔说。

人工智能研究公司OpenAI也承认,ChatGPT可能会产生有害和有偏见的答案,他们希望通过收集用户反馈来缓解这个问题。

从长远来看,米歇尔指出,必须提高人们对算法的认识,“使每个人都能了解他们在网上面对的内容的本质”。他还说,公民也必须得到充分的保护,免受某些“构成重大风险”的人工智能应用的影响。

在过去的两年里,欧盟一直在努力制定《人工智能法》,希望以此来规范人工智能的使用。

近日,特斯拉CEO埃隆·马斯克和一群人工智能专家及行业高管在一封公开信中呼吁,暂停开发比Open AI新推出的GPT-4更加强大的人工智能系统,直至制订出针对这类产品的安全条款、经由独立专家审议且落地实施。

(编辑:西西)