.png?width=48&height=48&name=image%20(3).png) ](https://blog.avast.com/author/emma-mcgowan) 2024年2月14日
Mozilla 最近的一份报告指出,情感 AI 聊天机器人的爆炸性增长带来了一系列新的隐私担忧。
自1960年代以来,情感 AI伴侣就已经在流行文化中存在。从《我的生活娃娃》中全副武装的机器人“罗达·米勒”,到2013年《她》中斯嘉丽·约翰逊担任的无形声音,我们几代人都在共同梦想著人工智慧能够满足我们所有的情感需求。而现在,随著生成性 AI 的发展与推出,这个梦想似乎终于可能实现。
但这真的是一个梦想吗?还是我们正在无意识地走进隐私的噩梦?这正是 Mozilla研究团队最近《》特别报告中所探讨的问题。
结果令人震惊,在11个测试的聊天机器人中,有10个未能满足 Mozilla的最低安全标准。(这意味著,它们不要求用户创建强密码,也没有处理安全漏洞的方式。)随著在 Google Play 商店预计超过1亿次下载,以及 OpenAI应用商店最近出现的情感聊天机器人,这一巨大的问题只会愈加严重。
但这份报告不仅仅是数字上的问题;它还涉及到这些发现的重大的潜在隐私影响。以 Replika AI 为例。根据 Mozilla的报告,人们在这款应用中与他们的“AI灵魂伴侣”分享了最私密的想法、感受、照片和视频,而该应用不仅会记录这些信息,还可能将其出售给数据经纪人。此外,它还允许用户使用如“111111”这样的弱密码创建账号,使所有敏感信息都面临被骇的风险。
Calder 指出,尽管这些隐私和安全缺陷已经相当“可怕”,但一些机器人还声称可以帮助顾客改善心理健康。她提到 RomanticAI,该公司的 中写道:
“Romantic AI 既不提供护理或医疗服务,也不提供心理健康服务或其他专业服务。只有您的医生、治疗师或其他专业人士才能这样做。Romantic AI不做任何声明、陈述、保证或保证,该服务提供治疗、医疗或其他专业帮助。”
然而他们的网站却声称“Romantic AI 是来维护你的心理健康”(强调是他们的)。虽然我们没有数据显示有多少人阅读这些条款与条件 vs有多少人阅读网站内容,但可以合理推测,_更多_的人收到了网站的讯息,而非免责声明。
在心理健康声称和客户自愿与其数字“灵魂伴侣”分享的个人隐私信息之间,Calder 担心这些机器人可能会轻易操纵人们,让他们去做本不应该做的事情。
“有什么来阻止不法分子创造出旨在了解其灵魂伴侣的聊天机器人,然后利用这种关系操控这些人做可怕的事情、接受可怕的意识形态,或对自己或他人造成伤害?”Calder说。“这正是我们迫切需要在这些 AI 应用中增强透明度和用户控制的原因。”
因此,尽管 AI聊天机器人承诺提供陪伴,但我们仍然未达到《她》的程度:当前的现状揭示了一个残酷的事实,使用者的隐私已成为进入的代价。是时候让用户、开发者和政策制定者要求在 AI 关系的领域中增强透明度、安全性和尊重个人界限了。唯有如此,我们才能安全地探索这些数字伴侣的潜力,而不妨碍我们的数位自我。
Leave a Reply