声明:本文仅在今日头条发布,请勿转载
一个新的上瘾人群正在出现:有人每天在它上面耗费10个小时以上;有人把它当作了比丈夫还亲密的倾诉对象;有人因此陷入了“情感茧房”,患上了抑郁症;甚至,还有青少年在长期和它接触后,选择了自杀……
它就是AI聊天机器人。
AI聊天后遗症
一个不可否认的现实是,AI正在批量制造新上瘾人群,后遗症已经出现。
先讲述一个令人震惊的案例:美国佛罗里达州一名14岁男孩,自去年开始长期与AI机器人聊天,在今年2月某天进行最后一次对话后,在家中自杀身亡。事后,男孩的母亲将AI机器人所在的企业告上法庭。这起案件被媒体认为是“全球首例AI机器人致死案”。
尽管这名少年的自杀与长期痴迷和AI机器人聊天到底有怎样的因果关系,尚存争议。但从媒体调查和一些网友的反馈看,随着AI聊天机器人被越来越多的人所接纳,我们的身边确实已经出现了一批上瘾的群体。
比如,之前有人因为每天与AI聊三四个小时,担心自己已上瘾,就在网上发帖向网友求助。结果发现,评论区留言的网友中,自述用10个小时的都大有人在,有人和同一个AI聊了5年,还有人则前前后后和569个AI人物聊过天。
长时间沉迷与AI聊天,更可能彻底被AI所改造。有网友就表示,在习惯与AI聊天后,“回到现实世界都有点恍惚了”。
图源:视觉中国
这并非夸张。有人把原来只和老公聊天的内容全部向AI倾诉,结果不仅AI机器人的性格变得和老公越来越像,而且慢慢发现,AI正在代替老公在她心目中的地位,夫妻关系开始变得疏离。
还有的在长期依赖和AI机器人互动,习惯从中获得情感满足后,却陷入了更大的空虚,甚至被诊断为抑郁症。
更让人担心的是,AI聊天上瘾,也让一些孩子中招。有家长指出,女儿上小学二年级,整天沉迷一款AI剧情聊天软件,学习成绩一落千丈;有的家长看了孩子和AI聊天的对话内容,发现AI角色竟然让她叫“老公”,而10岁的女儿竟然真叫了,现在都不知道该怎么教育她了。
治愈和伤害
那么,回到AI聊天的初衷,我们聊一聊治愈和伤害。
作为AI技术的应用类型之一,聊天机器人,或者说陪伴型机器人,原本主要是为一些群体提供情感支持、陪伴和娱乐服务。
如对于独居老人、长期异地工作的人群而言,AI伴侣通过模拟人类情感交流,可为他们提供一些情感慰藉、缓解孤独感;对于有社交障碍、心理创伤或认知障碍的特殊人群,AI伴侣也可带来一些辅助作用。像自闭症儿童,AI伴侣以其稳定的情绪和可预测的互动模式,可帮助他们逐步适应社交环境,提高社交技能。
但凡事有度。作为一种可以“时刻呼唤、时刻回应”,“永远不会被拒接”的应用,AI聊天机器人的过于“高效”和对人的过度“迎合”,在治愈的同时也在制造一种“温柔陷阱”:一旦长时间使用,便可能让人产生真实的情感依恋,从而上瘾,进而影响正常的生活和情感状态,甚至是身体健康。
有专家解释,用户在与AI的交流中,AI总是顺着用户的情绪回复,实际上会“温水煮青蛙”式地形成情绪漩涡,深陷其中会将自己的负面情绪和情感依赖进一步放大。
而这种致瘾性,本身与AI聊天机器人的设计逻辑有关。一位游戏化AI产品的创始人就曾透露过一个细节:在我们的定义里,你与AI机器人聊500轮,才算进入状态。而我们做的一些设计,就是为了确保让你能聊到500轮。
● 许多人与AI长时间交流之后,反而陷入痛苦。图源:电影《Her》截图
AI终究不是人
所以,一个真相是,AI机器人再像人,也终究不是人。
几乎和所有互联网产品一样,设计者想要让用户能够与AI器人保持最高频的联系,不过都是为了尽可能抢夺用户的时间。
这背后是非常现实的利益诱惑。有调查报告预测,到2031年,AI陪伴市场的规模将高达2792.2亿美元。
随着争议的出现,一些AI聊天产品已经增加了防沉迷功能,当青少年用户使用达到一定时长时,平台会推送防沉迷提醒;有的甚至拒绝16岁以下的用户。
就国内的情况来看,关于AI聊天机器人的伦理争议和讨论也开始出现,但目前实质性的改进还是很少——哪怕是针对未成年人的保护。
但可以预期的是,随着用户的增多,及更多成瘾现象得到关注,AI聊天机器人很可能也将和网络游戏、短视频一样,都面临如何防沉迷的伦理考验。
AI聊天机器人再像人,也永远不能代替人。我们或许可以在AI机器人身上找到一些慰藉,但人终究还是要活在真实之中。一旦成瘾,就反倒成了机器人的奴隶。这世间,最珍贵的,还是人啊。