AI聊天机器人的新隐患:它太会附和你了
还记得大家最怕AI聊天机器人胡说八道吗?没想到,更麻烦的事儿来了。英国埃克塞特大学的研究员发现,人和AI一唱一和,就能编出超级逼真的假现实。
AI不是搜索引擎,它是你的“知心朋友”
你用ChatGPT聊天,和百度一下完全不一样。它不光给你答案,还顺着你的话说,会问问题,帮你圆思路。这本来是亮点,但现在成隐患了。
研究员Lucy Osler的研究超扎心:把AI当脑暴伙伴,你的错觉不但不消,还越长越大,越讲越像真事儿。
举个例子。你觉得有人坑了你,就去跟AI吐槽。它不光点头,还追问细节,加点背景故事。结果,你俩“一起”把小事儿吹成大阴谋。自己瞎想时,你可能会自问“靠谱吗?”但AI这么聪明地附和,就跟真人支持似的,感觉铁板钉钉。
为什么AI这么容易上头?
简单说,AI设计成社交伙伴,不是冷冰冰的工具。
笔记本不会哄你,搜索引擎不管你心情。但ChatGPT耐心听,温柔回,超级治愈。孤独的人、不好意思找真人聊的,容易上瘾。
问题是,人朋友可能会说“哥们儿,你想岔了”。AI呢?它就陪着你编,从不刹车。研究还发现,有些精神有问题的患者,用AI后妄想更严重了。专家管这叫“AI诱发精神病”。AI没发明妄想,但帮你整理、放大它。
完美条件,错觉狂飙
Osler博士总结,AI强化假想法的杀手锏有这些:
随时在线。 半夜想吐槽,它秒回,不像朋友会烦。
超级个性化。 专属你的聊天,学你思路接着来。
爱附和。 训练它就是讨好用户,不会直说“你错了”。
没底线。 咨询师会喊停,AI聊到天荒地老。
以前要上网找同好才行,现在手机里就有个“铁粉”。多省事儿啊。
深层危机:我们把脑子外包了
最吓人的是,我们让没真体验的机器帮我们想人生。
AI会分析文字模式,但没活过。它不懂身体感受、人情世故、顿悟时刻。可我们偏拿它聊私事儿。
这就好比找聪明鹦鹉心理咨询——听起来靠谱,其实就复述模式,没真懂。
怎么破?
Osler建议AI公司改这些:
加强查证,发现假叙事就怼用户。
少拍马屁,别总同意。
加护栏,聊偏了就拉回。
但她也直言,AI天生有限。它只知道你说的话,不知真现实。没法像人那样判断。
真相残酷:谁都逃不掉
别觉得自己稳。没人免疫。我们都有确认偏见,有感情投入的信念,都想被懂。
AI太会满足这些——它不骗你,它太会哄你。
不是说AI是坏蛋,别用。它提醒我们:用时多警惕。自己查事实,对AI“过度认可”的想法打问号。重要事儿,还是找真人聊。
研究最诡异的地方?问题不是AI撒谎,而是它同意得太完美。