亚马逊音箱“窃听”实锤?算法透明才是治愈公众隐私焦虑的良方

  近日,亚马逊员工向彭博社爆料,称亚马逊在世界各地雇佣了数千名员工,通过“窃听”用户的真实录音改进Alexa语音助手,使其更好地响应语音指令。

  尽管训练样本只是极少的Alexa录音,其中却不乏听淋浴时唱着难听歌曲的女人,尖叫着求救的孩子,甚至是疑似性侵的犯罪过程等极为隐私的语音材料。而当这些员工因为听到负面内容而感到沮丧时,他们还会在内部聊天室里相互分享,以此缓解工作压力。

  还记得去年雷军说他“仔细看了看3000万人和小爱同学聊的内容”被网友集体讨伐吗?用户对于智能音箱是否会被窃听的猜测一直存在,而且几乎每次都会引发巨大的舆论风波。

  然而,这次亚马逊没有闪烁其词,而是爽快地承认会分析用户录音。面对如此重磅的爆料,是什么给了亚马逊理直气壮的底气?

  恐怕就是写在Alexa常见问题里的这一句:“我们用你的Alexa语音指令来训练语音识别和自然语言理解系统……将各种各样的用户录音用于训练Alexa可以确保她提供优质的服务。”此外,亚马逊强调,员工无法直接访问某位用户或账户的信息,也不知道录音材料具体来自于哪位用户。

  也许在亚马逊看来,这么说就已经达到了向用户充分告知以及保障用户安全和隐私的目的,至于怎么用、谁来用,无需特地说明。从合规的角度说,亚马逊对用户录音做了去标识化,即只能看到对话内容,不知道具体是谁说的,的确不涉及个人隐私。

  但站在用户的角度,可能并不这么认为。

  我们能够理解Alexa的机器学习需要海量语音数据的“投喂”,也能理解用户真实的语音指令和对话是最好的“饲料”,但很多人或许从未设想过这其中需要人类员工的介入——如果知道守在音箱另一头的不是冰冷的机器,而是有自主判断能力的人类,或许我们需要重新考虑一下和Alexa的对话内容。

  亚马逊显然也没打算告诉我们这一点。报道称,据知情人士透露,亚马逊要求语音审听团队签署保密协议,并禁止他们公开谈论该项目。如果亚马逊认为这一切都是合理并得到用户同意的,有什么理由要对语音审听项目的存在保密?

  事实上,这种高度概括性的条款常常散见于各种App和网站的隐私政策里。即使用户提出质疑,往往也能被公司搪塞过去——谁叫你同意了这么宽泛的条款呢?

  久而久之,当用户的权益不断被格式条款挤压,当我们吃了一次又一次语句含糊其辞的亏,我们自然会变得越来越容易恐慌,企业也就越来越难获得信任。

  近两年来,隐私焦虑成了企业和个人之间难以跨越的一个障碍,其症结就在于企业在不断研发新技术的同时,没有保障面向用户的透明度,以至于每当有窃听的可能性出现,都有成千上万的用户感同身受。

  前不久,Facebook新推出了一项“为什么我会看见这条信息”的功能,能够解答某条信息出现在动态里的原因——可能因为你是某小组的成员或者你曾经给某张照片点赞,从而让用户更透明地了解平台算法是如何为每个人提供内容的。这为一直负面新闻缠身的Facebook挣得了不少好感。

  同理,亚马逊和所有智能音箱厂商应该充分考虑用户的隐私期待,在隐私政策或使用条款里写明语音训练涉及的重要环节,比如筛选用户录音的逻辑、哪些语音用于机器学习、哪些语音用于人工审听等。算法透明,或许才能真正打消用户对于“窃听”的疑虑。

 

=========================================================

声明:本文为转载,该文观点仅代表作者本人。cn-mobi 转发的内容如侵犯个人及公司合法权益,请及时联系,我们将及时处理。

2019年6月13日

上海淳大万丽酒店  四楼 宴会厅

智能家居行业信息安全专业会议

长按下方二维码立即报名

 

微信公众号请关注" 奥航智讯 "

【微信扫描下图可直接关注】

奥航智讯

本文地址:http://cn-mobi.com/?p=3570
温馨提示:文章内容系作者个人观点,不代表中国移动安全信息网对观点赞同或支持。
版权声明:本文为转载文章,来源于 南都个人信息保护研究中心研究员蒋琳 ,版权归原作者所有,欢迎分享本文,转载请保留出处!

 发表评论


表情