.png?width=48&height=48&name=image%20(3).png) ](https://blog.avast.com/author/emma-mcgowan) 2024年2月14日
最近,Mozilla的一份报告指出,浪漫AI聊天机器人的兴起引发了一系列新的隐私担忧。
自上世纪60年代以来,AI浪漫伴侣便已成为流行文化的一部分。从电视剧《我的人形玩偶》中全身机械的“罗达·米勒”到2013年电影《她》中斯嘉丽·约翰逊配音的无形声音,我们这一代人一直在满足我们的情感需求。而如今,随着生成型AI的开发与发布,这个梦想似乎终于有可能实现。
但这真的是一个美梦吗?还是我们正在无意识地走向隐私噩梦?这是Mozilla研究团队在其最新的 __ 中提出的问题。
调查结果令人震惊,经过测试的11款聊天机器人中,有10款未能达到Mozilla最低安全标准。(这意味着,这些机器人不仅不要求用户创建强密码,还没有处理安全漏洞的方式。)目前,GooglePlay商店的下载量已超过1亿,且OpenAI的应用商店最近也见证了,这个大问题只会愈演愈烈。
然而,这份报告不仅仅是关于数字;它还探讨了这些发现所带来的重大隐私影响。以ReplikaAI为例,Mozilla指出,人们在这款应用上与他们的“AI灵魂伴侣”分享最私密的想法、感受、照片和视频,而该应用不仅记录这些信息,还可能将其出售给数据经纪人。此外,它还允许用户使用诸如“111111”等弱密码创建账户,令所有敏感信息面临被黑客攻击的风险。
卡尔德提到,尽管这些隐私和安全漏洞已经“令人毛骨悚然”,但一些聊天机器人还声称能够帮助用户的心理健康。她以RomanticAI为例,指出其中写道:
“RomanticAI既不是医疗保健或医疗服务的提供者,也不提供医疗照护、心理健康服务或其他专业服务。只有你的医生、治疗师或其他专家才能做到这一点。RomanticAI不作任何声明、表示、保证或担保,服务提供的帮助也无法替代治疗、医疗或其他专业帮助。”
然而,他们的网站却声称“RomanticAI在这里帮助你维护心理健康”(强调是他们自己)。虽然我们没有确切的数据来说明有多少人阅读了条款与条件与看过网站,但可以合理地推测, 很多 人接收到的是网站的信息而不是免责声明。
卡尔德担心,在这些心理健康的主张和用户自愿分享的个人信息之间,存在着风险,这些机器人可能很容易操控人们去做他们平常不会做的事情。
“有什么能够阻止恶意行为者创建聊天机器人,旨在了解他们的灵魂伴侣,并利用这种关系操控这些人做可怕的事情、接受令人恐惧的意识形态,或伤害自己或他人?”卡尔德说。“这就是为什么我们迫切需要在这些AI应用中实现更多的透明度和用户控制。”
因此,虽然AI聊天机器人承诺提供陪伴,但我们尚未达到《她》电影的水平:现实情况显示,在隐私成为入场代价的背景下,用户的隐私受到威胁。现在是时候让用户、开发者和政策制定者在AI关系领域要求透明度、安全性和对个人界限的尊重。只有这样,我们才能在不妥协自身数字隐私的情况下,安全地探索这些数字伴侣的潜力。
Leave a Reply