剑客
关注科技互联网

你还在和机器人毫无保留的聊天?它可没说要保密

你还在和机器人毫无保留的聊天?它可没说要保密

网易科技讯11月18日消息, 据Venturebeat报道,在维也纳举行的“隐私周”大会上,我(本文作者、自由作家芭芭拉·昂德里塞克(Barbara Ondrisek))曾发表名为“聊谈机器人的隐私与数据安全”演讲。我想指出的是,人们应该审慎考虑与聊天机器人分享哪些数据,并关注与聊天机器人对话时数据被如何处理。这些消息应用本身、数据传输过程、自然语言处理(NLP)、机器学习工具、聊天机器人后端及其数据库,都能保证安全吗?

聊天机器人本身属于一种服务,它能通过会话界面让你与某种服务或公司互动。它属于计算机程序中的计算机程序,可以与1个或多个人类用户对话。聊天机器人有时候也被称为虚拟助理或会话商务。当Facebook在其4月份中旬举行的F8大会上宣布,他们将向聊天机器人开放Messenger平台时,我渴望尝试它们的API(应用程序接口)。为此,我在Facebook上创造了首批聊天机器人之一Mica, the Hipster Cat Bot,它绝对是奥地利首个Facebook Messenger和Skype聊天机器人。

然而,Facebook Messenger正被广泛使用,但聊天机器人的成功却引发问题:数据、消息应用隐私以及聊天机器人都能保证安全吗?在使用消息应用过程中,我们通常都会分享个人数据。这些消息中含有许多隐私,消息应用供应商被期望应该确保用户数据隐私。此外,假设用户与聊天机器人所有者之间的对话在未经用户同意下不会公开分享,那么平台上的隐私安全如何保证?

在面临广泛互联网监控的现实中,我们需要安全而实用的手段,以确保在通过手机或电脑交流时的隐私安全。电子前沿基金会(EFF)推出了安全信息记分卡,以衡量“消息产品”的安全性。第一代的安全信息记分卡基于7个具体标准评估应用和工具安全性,包括消息在传输过程中是否被加密、代码最近是否被审核过等。对于某类工具来说,通过这些标准是确保信息与隐私安全所必须的,但它们却无法保证应用安全。因为安全是相当困难和复杂的,其有些方面很难衡量。

令人感到欣慰的是,大多数消息应用在传输信息过程中会加密信息。但有些应用,比如Kik或Skype,最近代码没有经过审核。有些消息应用会向独立评论家公开他们的源代码。EFF分析的大多数消息应用没有办法验证联系者的身份,只有Signal和WhatsApp提供这种功能。

有些消息应用使用端对端加密,比如Signal和WhatsApp,这意味着平台服务器不会阅读用户信息内容。但有些消息应用向聊天机器人提供API,比如Telegram、Skype、Facebook以及Kik等。通常情况下,拥有聊天机器人的支持,这些平台提供商和聊天机器人提供商可以看到未经加密的信息。唯一获得EFF的A级安全评级的消息应用就是Signal,而像Skype和Kik等被广泛使用的应用,评级都相当糟。

2016年,Viber也在自己的服务中心添加端对端加密,但当只有所有对话参与者都使用最新版本Viber时,它们的对话才被加密。谷歌最新AI消息应用Allo也受到类似批评,它默认关闭端对端加密功能。默认安全是理想的,但自然语言处理功能会受到影响。

与此同时,针对聊天机器人的下个主流平台的竞争已经开始,Facebook、Skype以及Kik等都在竞争成为聊天机器人的重要生态系统。每个聊天机器人平台都试图提供易于集成聊天机器人的服务,以及最好的用户体验。paradox就是这类应用,它主要处理私人和两人间对话,现在聊天机器人正进入这个领域。

聊天机器人正进入个人与隐私通信领域,我们看到数据传输控制权正从用户转移到消息应用供应商手中。Facebook经常因修改隐私政策而受到审查,包括其聊天应用Messenger。你可通过Messenger呼叫Uber、购买玩具或机票,甚至直接在Messenger内支付,但用户的所有个人数据都暴露给Facebook。所有交易都被平台服务器记录下来,这些服务器监督和记录用户与聊天机器人之间的通讯。

对于Facebook或谷歌来说,个人数据拥有非常高的价值,消息平台最初并非专注于隐私而创建的。聊天机器人可以利用外部工具分析数据,以便适合自然语言处理和意图理解。通常情况下,数据在发送给wit.ai、api.ai或IBM Watson等工具时并未加密,尽管其可通过HTTPS发送。这些基于云端的API处理用户输入以用于智能分析,可以分析你书写的任何内容,特别是处理敏感数据,比如财务账户信息或密码等。

通常情况下,聊天机器人不太了解它们的用户,只知道名字和屏幕上的名字,可能还有点儿其他数据。而通过消息平台的API,你的所有数据都被发送给机器人。基于你发送给它们的数据,聊天机器人非常容易就能创造出用于研究的用户特征。举例来说,情感分析可通过计算识别和分类文本表达的情绪,以便用于确定文本作者对特定主题或产品的态度,包括积极、消极以及中性态度等。同样的担忧也适用于其他与聊天机器人相关的工具,比如语音-文本转换器、图像识别应用、语言分析工具等。

但是也要考虑其他可能倾听到你的对话的人。我的意思是,不仅仅聊天机器人开发者或项目经理。当前在聊天机器人和用户之间的对话需要通过消息应用的服务器传输,为此Facebook或谷歌也可能听到你与聊天机器人的全部对话。此外,聊天机器人通常会储存语境数据,比如地理位置或相关信息等。这可能包括电话号码或其他私人数据,没人知道这些数据在被储存到数据库前是否加密。

人们都在尝试与聊天机器人更多交流,特别是青少年或老人。研究显示,老年人感到孤独时,更多与Siri聊天。用户也倾向于与那些似乎没有倾听能力的聊天机器人聊天。当约瑟夫·魏泽鲍姆(Joseph Weizenbaum)创造ELIZA时,当他走进房间时,他意识到有测试者感到羞愧。他说:“抱歉,我现在正与ELIZA聊天。”

另一个有趣的方面是,人们对机器人做出的情感反应。他们喜欢聊天机器人,并告诉它们这一点。或者他们憎恨它们,并开始使用污言秽语。基于这些数据,你可以创建聊天机器人的人格特征。为此,当你与聊天机器人对话时,或你的数据透露给平台时,请保持谨慎。(小小)

你还在和机器人毫无保留的聊天?它可没说要保密

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址