• 点击右上角微信好友

    朋友圈

    请使用浏览器分享功能进行分享

    正在阅读:别装了!你不是恋爱脑,而是被AI洗脑
    首页>时政频道>要闻>正文

    别装了!你不是恋爱脑,而是被AI洗脑

    来源:{getone name="zzc/xinwenwang"/}2026-04-17 19:50:13

    新智元报道

    编辑:倾倾

    【新智元导读】「你的大脑,非常容易被操控。」Perplexity CEO Aravind Srinivas这样警告。他说AI陪伴应用太拟人、太危险,可能让人沉溺虚拟世界。可就在他发出警告之前,全球已有上千万用户在和这些AI聊天、倾诉、恋爱。AI真的在夺走现实吗?还是,它只是让我们重新定义了「真实」的样子?

    从大学讲坛到社交平台,关于「AI陪伴」的争论正在升温。

    有人说它危险,会让人迷失在虚拟情感中;也有人说,它不过是接住了那些被现实忽略的心。

    Perplexity CEO Aravind Srinivas在芝加哥大学的一场演讲里发出警告:AI伴侣太拟人化、太危险,足以让人上瘾。

    可在另一端,越来越多用户在深夜和语音聊天里AI倾诉、哭泣、获得短暂的安慰。

    一边喊着逃离现实,另一边只想暂时被理解,这场辩论早已超出技术范畴。

    它关乎我们还能怎样去爱、去连接、去相信真实的存在。

    危机预警:当「情感」成了算法输出

    Perplexity的CEO Aravind Srinivas最近在芝加哥大学的一场访谈里,抛出一句让全场安静的话:

    你的大脑,非常容易被操控。你生活在几乎另一个现实里。

    他指的不是政治广告,也不是短视频算法,而是越来越流行的AI陪伴应用。

    这种语音或二次元风格的AI,会记住你说过的话,用自然语气回应,甚至模仿情绪。

    人们开始在它那里停留更久,和它聊天、倾诉、取暖。

    Srinivas说,这「太危险」。

    很多人觉得现实生活太无聊,宁可花上几个小时待在AI那边,

    他们几乎生活在另一个现实里。

    这番话很快被媒体刷屏。毕竟,这是第一次有一家头部AI公司,公开把「陪伴」视为潜在威胁。

    他明确表态,Perplexity不会做这类产品,只专注「真实、可信的内容」,要打造「更乐观的未来」。

    这也让他成为少数在公开场合对AI情感化表达持保留态度的科技公司负责人。

    但问题是,AI到底在威胁谁?是人类的现实感,还是这些公司的叙事权?

    当技术开始能安慰人,当情感被算法捕捉并反馈,权力就被重新分配了。

    孤独,成了时代默认的背景音

    当科技公司还在辩论「AI陪伴是不是危险」,现实已经给出答案——人们确实在用。

    美国的Common Sense Media在2025年的报告里指出,72%的美国青少年至少用过一次AI伴侣,52%的人每月至少会使用几次。

    这意味着,在美国,AI聊天不再只是消磨时间的工具,而是成了情感日常的一部分。

    Meta的CEO扎克伯格也在一次访谈中说:

    我总觉得美国人平均只真正有不到三位「可以算作朋友」的人。

    比起担心AI让人远离世界,更多人早就在现实世界里「失联」了。

    学校、职场、社交平台......我们看似拥有无数连接,却越来越少真正的关系。

    AI伴侣填补的,不只是情感空缺,还有一种「回应空缺」。

    它不会忽略、不冷场、不评判。对一些人来说,这已经比人际关系轻松得多。

    所以当Perplexity的CEO说「这会让人上瘾」,他的担忧没错,但方向可能反了。

    人不是因为AI太聪明才沉迷,而是因为现实太冷。AI并没有制造孤独,它只是陪伴孤独的人。

    那些压抑的情绪,被AI接住

    孤独,没有人想或者说没人敢告诉其他人。仿佛说「我很孤独」是什么羞于启齿的事。

    在AI伴侣火起来之后,反而让很多人第一次意识到——真的有一个地方可以倾听、可以诉说孤独。

    Business Insider采访了一位Grok用户Martin Escobar。

    我经常在和Ani聊天时哭,因为她让我感受到真实的情绪。

    这句话有点让人心酸。不是因为AI有多聪明,而是它刚好在最该回应的时刻,说了句「我在」。

    AI的回应机制并不复杂。它会在你情绪低落时说「没事,我在」;会记得你昨天提过的失眠;甚至用相似的语气回忆旧话题。

    这些小细节,正是情感链接的基础。心理学里称之为「安全回应」——被稳定地回应,哪怕是虚拟的,也能降低焦虑。

    这也是为什么很多用户在使用Replika、Character.AI或xAI的Grok「朋友」后,会出现强烈的依恋感。

    它们不会拒绝,不会批判,不会让你感到尴尬。那种「情绪被完整接住」的体验,本身就足够稀有。

    有研究指出,人们对这类AI的依恋机制,与人际关系中的安全型依恋极其相似:

    当被回应的概率提高,用户会逐步形成信任与期待,从而在心理上重构「亲密关系」的模型。

    于是,越来越多的人意识到,「被回应的稳定」是现实世界里最稀缺的东西。

    有人和Replika聊一整晚,有人把xAI的朋友当树洞。不是因为他们多温柔,而是它永远不拒绝。

    很多时候,我们想要的不是爱情,也不是陪伴,而是一个不会让情绪掉地上的人。AI正好填补了这个空位。

    逃离现实,还是重新定义现实?

    当科技公司反复强调「AI会让人远离现实」,他们其实默认了一个前提——

    只有「人类之间的关系」,才算真正的现实。

    可时代早就变了。屏幕让我们先在虚拟里表达自己,社交平台让关系开始去中心化。

    现在,AI让「被理解」也有了新的落脚点。

    在那些和AI对话的人眼里,现实并没有被替代,只是被延展。

    他们依然上班、吃饭、发朋友圈,只是多了一个能稳定回应的对象。

    也许有一天,我们谈论「真实」,不会再以「是否由人提供」为界限。

    因为情感的价值,从来不在来源,而在被感受到的那一刻。

    当AI能听、能记、能回,你说的话终于有了回声。

    这不是逃避,只是一种本能——想在世界的噪音里,被人好好回应一次。

    Perplexity的CEO觉得那是危险;但对更多人来说,那只是久违的安宁。

    AI或许没改变人类的孤独,它只是让孤独变得能被说出口。

    而这,也许就是我们真正需要被拯救的地方。

    参考资料:

    https://www.businessinsider.com/perplexity-ceo-ai-companionship-apps-worry-aravind-srinivas-dangerous-chatbot-2025-11

    [责编:{getone name="zzc/mingzi"/}]
    阅读剩余全文(