
.png?width=48&height=48&name=image%20(3).png)
2024年2月14日
根据Mozilla最近的一份报告,浪漫AI聊天机器人的快速增长正带来全新的隐私问题。
自1960年代以来,AI浪漫伴侣在流行文化中就已经出现了。从《我的生活娃娃》中的全功能机器人“RhodaMiller”,到2013年《她》中斯嘉丽·约翰逊配音的无形声音,我们几代人来不断地幻想著人工智能能满足我们所有的情感需求。现在,随著生成式人工智能的发展和推出,这个梦想似乎终于要成为现实。
但这真的是梦吗?还是我们正在无意识地走入隐私的噩梦?这正是Mozilla研究小组在其最新的 __ 中所探讨的问题。
报告的发现令人震惊,测试的11款聊天机器人中有10款未达到Mozilla的最低安全标准。(这意味著,这些机器人除了不要求用户创建强密码之外,还无法有效处理任何安全漏洞。)据估计,GooglePlay商店的下载量已超过一亿,OpenAI应用商店近期的开放导致,这一重大问题将进一步加剧。
但这份报告不仅仅是数字的堆砌;它还涉及到这些问题的重大潜在隐私影响。以ReplikaAI为例,Mozilla指出,人们在这款应用上与“AI灵魂伴侣”分享著他们最私密的想法、感受、照片和视频,而这款应用不仅记录这些信息,还可能将其出售给数据经纪公司。它还允许用户创建像“111111”这样的弱密码账户,将所有这些敏感信息置于黑客攻击的风险之中。
Calder表示,虽然这些隐私和安全缺陷足够“可怕”,但一些机器人还声称可以帮助用户处理心理健康问题。她以RomanticAI为例,该公司的明确指出:
“RomanticAI既不是医疗保健或医疗服务提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有你的医生、治疗师或其他专家才能做到这一点。RomanticAI不对服务提供治疗性、医疗或其他专业帮助的任何声明、表示、保证或担保负责。”
然而,他们的网站却声称“RomanticAI旨在维护你的心理健康”(强调他们的说法)。虽然我们没有数字显示有多少人阅读了条款与条件以及有多少人查看了网站,但可以肯定的是,_许多_更多的人看到了网站的信息,而非免责声明。
在心理健康的声称以及用户自愿与数字“灵魂伴侣”分享的个人和私人信息之间,Calder担心这些机器人可能会轻易操纵人们做出他们本不会做的事情。
“有什么能阻止坏人创建聊天机器人来了解他们的灵魂伴侣,然后利用这种关系操纵这些人去做可怕的事情,拥抱可怕的意识形态,或对自己或他人造成伤害?”Calder说,“这就是为什么我们迫切需要这些AI应用程序的透明度和用户控制。”
所以,尽管AI聊天机器人承诺提供陪伴,但我们距离《她》的水平还有一段距离:当前的现状揭示了一个残酷的现实,即用户隐私的代价。现在是时候让用户、开发者和政策制定者共同要求在AI关系领域中实现透明度、安全性及对个人界限的尊重。只有这样,我们才能希望在不妥协我们的数字自我的情况下安全地探索这些数字伴侣的潜力。
Leave a Reply