Emma McGowan 2024年2月14日
最近Mozilla发布了一份报告,指出浪漫AI聊天机器人的迅速崛起正引发全新的隐私担忧。
自1960年代以来,AI浪漫伴侣在流行文化中就已经成为一个话题。从《我的生活娃娃》中全方位的机器人“Rhoda Miller”,到2013年电影《她》中由斯嘉丽约翰逊配音的无形声音,我们这几代人一直在梦想著人工智慧能满足我们所有的情感需求。如今,随著生成式AI的发展和推出,这一梦想似乎终于要成为现实。
但这真的只是梦想吗?还是说我们正在无意识中走入一场隐私噩梦?这正是Mozilla研究团队在最近的不附随隐私的浪漫AI聊天机器人特别报告中探讨的问题。
报告的结果令人震惊,11款测试的聊天机器人中有10款连Mozilla的最低安全标准都未能达到。这意味著,除了其他方面,它们不要求用户创建强密码,也没有处理任何安全漏洞的方法。根据估计,在Google Play商店中已有超过1亿次的下载,而OpenAI的应用商店最近也出现了大量的浪漫聊天机器人,这一庞大的问题只会不断扩大。
但这份报告不仅仅是数据;它还揭示了这些发现的重大潜在隐私影响。以Replika AI为例。根据Mozilla的说法,人们在这个应用上与自己的“AI灵魂伴侣”分享著最私密的想法、感受、照片和视频,而该应用不仅记录这些信息,还可能将其出售给数据经纪商。此外,它还允许用户使用像“111111”这样的弱密码创建帐户,将所有这些敏感信息置于风险之中,可能被黑客攻击。
Calder表示,尽管这些隐私和安全缺陷已经足够“可怕”,但一些机器人还声称可以帮助客户的心理健康。她指出浪漫AI作为一个例子,其服务条款中写道:
“浪漫AI既不是医疗或健康服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他任何专业人员可以做到这一点。浪漫AI不对服务提供治疗、医疗或其他专业帮助做出任何主张、声明、保证或担保。”
然而,他们的网站却声称“浪漫AI在此维护您的心理健康”突出显示为他们的强调。尽管我们没有数据来确定有多少人阅读了服务条款与有多少人查看了网站,但可以安全地说,更多人会接收到网站的讯息而不是免责声明。
在心理健康的声称以及客户自愿分享的个人和私人信息之间,Calder担心这些机器人可能会轻易地操纵人们去做自己本不会做的事情。
蓝鲸加速器官网“有什么能阻止不良行为者创建聊天机器人,旨在了解他们的灵魂伴侣,然后利用这段关系操纵这些人去做可怕的事情、接受恐怖意识形态或伤害自己或他人?”Calder表示。“这就是为什么我们迫切需要更多的透明度和用户控制权,来规范这些AI应用。”
因此,尽管AI聊天机器人承诺能够提供陪伴,但我们仍然未达到《她》的境界:当前的情况显示了用户隐私是进入此领域的代价。是时候让用户、开发者和政策制定者要求透明度、安全性和尊重个人边界,让我们得以安全探索这些数位伴侣的潜力,而不妥协我们的数位自我。