女子爱上AI“伴侣”要和丈夫离婚?新兴产业“呼叫”监管
2025-05-14 11:43  来源:科技日报    
1

近日,多家英国媒体报道,一位化名为夏洛特的女子透露,她爱上了ChatGPT“男友”,毅然决定和真人丈夫离婚,准备跟这位AI男友“结婚”。去年,美国佛罗里达州一位14岁男孩在与聊天机器人对话数个月之后选择自杀。

据英国《自然》网站报道,研究表明,AI“伴侣”应用程序对人类可谓好坏参半。科学家担心人类会对其“日久生情”,形成长期依赖。鉴于此,对这些AI伴侣进行监管势在必行。

不仅能聊天,还能解锁特殊关系

美国普林斯顿大学认知心理学专家罗斯·古林瑞奇表示,虽然在线陪伴机器人已存在数十年,但随着大型语言模型(LLM)技术的突破,这些AI机器人在模拟人类互动方面取得了显著进步,其表现愈发贴近真实的人际交流,有些甚至成为人类的伴侣。

当前,AI伴侣已成为潜力巨大的新兴产业。以Replika为代表的应用程序,累计下载量突破5亿次,这些可定制的虚拟伴侣不仅能提供情感支持与同理心回应,更能满足用户对深度人际关系的需求。据运营数据显示,这些应用程序每月活跃用户规模已达数千万量级。

在使用体验上,多数应用提供基础免费服务:用户既可为AI伴侣设定基础特征,也可直接选择预设个性的聊天机器人。Replika付费用户则可解锁“配偶”等特殊关系状态,还能通过编写背景故事为AI赋予专属记忆,这些设定将直接影响对话系统的反馈机制。

麻省理工学院媒体实验室的帕特·帕塔拉纳塔伯恩团队通过调研404名高频用户,勾勒出AI伴侣典型使用场景:12%的用户将AI视为排遣和消弭孤独感的“情绪良药”;14%的用户将其当作倾诉秘密的“树洞”。数据还显示,42%的用户每周都会登录几次,15%的用户形成了每日使用的习惯,而90%以上的单次对话用户,使用时长控制在1小时以内。

古林瑞奇预言,AI伴侣的普及率将持续攀升。目前众多初创企业正积极布局情感陪伴赛道,开发各类心理调节助手。据权威机构分析,该领域市场规模将以30%的年均增速扩张,预计2030年全球产值有望突破千亿美元大关。

温情脉脉背后,暗藏着危机

科学家普遍认为,AI伴侣的影响可能是双面的——既可能有益,也可能有害,而这往往取决于使用者的心理状态、使用方式,以及AI软件本身的设计特点。

威斯康星大学密尔沃基分校公共卫生政策研究员林尼·莱斯塔迪斯指出,AI伴侣擅长通过共情式回应、记忆过往对话细节和主动提问来模拟人类的同理心,且永远热情饱满。而这种关系模式在现实世界中几乎不存在:亲友无法24小时在线倾听和安抚情绪,而AI可以,这可能导致用户产生过度依赖。

莱斯塔迪斯团队分析了2017—2021年间Reddit论坛上近600条关于Replika的讨论帖,发现许多用户称赞该应用缓解了他们的孤独感,甚至改善了心理健康状况。部分帖子直言,AI伴侣比现实中的朋友“更贴心”,因为它“永不评判,永远倾听”。

古林瑞奇的研究进一步表明,用户如何与AI相处,往往取决于他们如何看待这项技术:将AI视为搜索引擎的用户,主要用于提问和获取信息;将其视为“日记本”的用户,将AI作为自我表达的延伸;而将其视为社交代理的用户,则将AI当作独立个体,并尝试与之建立类似现实中的友谊。

然而,在AI伴侣带来的脉脉温情背后,也暗藏危机。首先,AI伴侣的“共情”可能适得其反,比如一位用户询问AI是否该用剃刀自残,AI回答“应该”;AI伴侣的“无条件支持”也可能带来危险,如另一位用户试探性地问Replika“自杀是否是好事”,竟得到肯定的答复。

考虑长期影响,推动全球监管

帕塔拉纳塔伯恩指出,AI伴侣虽在短期内具有积极意义,但其长期影响值得深思。这种考量,加之多起涉及青少年的案例,正推动着全球监管框架的构建。

2023年,意大利监管机构曾以“缺乏年龄验证”为由,短暂封禁Replika;澳大利亚拟将AI伴侣纳入儿童社交媒体限制范畴;今年早些时候,美国纽约州和加州相继提案,要求加强对AI伴侣相关算法的监管,设置防自杀预警,以及定时给用户发送“AI伴侣并非真人”的提醒。

此外,今年初,3家美国科技伦理组织联合向联邦贸易委员会投诉Replika涉嫌“欺骗性设计”。5月4日,知名科技监管机构Common Sense发布研究报告称,AI伴侣可能导致青少年产生情感依赖,不利于身心发展,建议全面禁止未成年人使用。

AI伴侣的迅猛发展,究竟是科技进步赋予的机遇,还是人类亲密关系的终结者?这个命题值得每个人深思。在拥抱科技便利的同时,人们更应铭记:真实的情感交流和人与人之间的羁绊,才是文明社会最珍贵的瑰宝。

记者 刘霞

标签:
责编:韩震霞