边制造回忆、边倒卖隐私,这家打“温情牌”的企业伤透了用户心

2019-05-12
照片存储应用Ever网站上的口号是“制造回忆”。

编者按:本文来自猎云网,编译:柠萌;创业邦经授权转载。

照片存储应用Ever网站上的口号是“制造回忆”,配以手写的logo和一个名为“与爷爷共度周末”的样本相册。

Ever的一切品牌塑造都是充满温暖的,让我们能够分享自己“最美好的时刻”,同时还能腾出手机上的空间。

然而,用户上传到Ever网站或应用程序上的照片被用来训练一种算法,为该公司在Ever AI下销售的面部识别产品提供动力,然后把这项技术卖给私人公司、执法部门和军方。对于这点,NBC新闻在今年4月与该公司交涉过之后,Ever在隐私政策中加入了一段简短的说明,除此之外,Ever的网站上没有特别说明。

换句话说,这个始于2013年的一款云存储应用转向了一项利润更高的业务,即所谓的Ever AI,却没有将此事告知数百万用户。

“这看起来就像是对人们隐私的侵犯,非常严重。”加州北部美国公民自由联盟的技术和公民自由律师Jacob Snow说。“他们拍摄人们的家庭照片,照片来自一个私人照片应用程序,并用它来构建监控技术。这种做法让我们感到非常不安。”

Ever首席执行官道格·阿莱(Doug Aley)向媒体透露,Ever AI决不会与面部识别客户分享用户的照片或任何身份信息。

相反,数十亿张照片被用来训练一种算法,指导公司的人脸识别软件。每当用户在照片上启用人脸识别功能,将同一个人的照片组合在一起时,Ever的人脸识别技术就会从匹配中学习,并进行自我训练。这些知识反过来又为该公司的商业人脸识别产品提供了动力。

阿莱表示,Ever已经向用户明确表示,人脸识别是公司使命的一部分。他还指出这一点在该应用的隐私政策中有所提及。据报道,该应用在4月15日更新了隐私政策,里边包含了更多关于该公司如何使用客户照片的信息。

有很多公司提供面部识别产品和服务,包括亚马逊、微软和FaceFirst。这些公司都需要访问庞大的照片数据库,以提高匹配技术的准确性。然而,尽管大多数人脸识别算法都是针对成熟的、公开传播的数据集进行训练的——其中一些数据集还因未经用户明确同意就拍摄照片而受到批评——在利用用户照片改进商业技术方面,Ever却有所不同。

人脸识别公司使用未经用户明确同意的照片已引起隐私专家和民权倡导者越来越多的关注。他们在采访中指出,数百万人在网上上传和分享照片和个人信息,却没有意识到这些照片可能会被用来开发他们可能不支持的监控产品。

在Ever AI的网站上,该公司鼓励公共机构使用Ever的技术,“为您的公民和执法人员提供最高程度的保护,使他们免受犯罪、暴力和不公正待遇。”

在Ever AI网站上没有提到任何关于“最佳时刻”快照的信息。相反,在新闻稿中,该公司描述了他们如何拥有一个“不断扩大的全球私人数据集,其中包含来自95个国家的数千万用户的130亿张照片和视频”。该公司表示,Ever AI利用这些照片提供“一流的人脸识别技术”,可以对情绪、种族、性别和年龄进行猜测。阿莱在一次采访中证实,这些照片来自Ever应用的用户。

Ever AI向潜在的军方客户承诺,它可以“增强监视能力”,“识别威胁并采取行动”。它能帮助执法人员在身体摄像头或实时视频中识别人脸,从而提高执法效率。

迄今为止,Ever AI只与私人企业签订了合同,包括去年宣布的与软银机器人(SoftBank Robotics)的协议。软银机器人是“Pepper”机器人的制造商,这款客户服务机器人主要服务于酒店和零售领域。Ever AI还未与任何执法机构、军方或国家安全机构签约。

NBC新闻表示,他们曾与7位用户进行过交谈,但大多数人并不知道他们的照片会被拿来用于构建面部识别技术。

22岁的Sarah Puchinsky-Roxey来自加利福尼亚州的勒莫尔,当她在电话中被告知该公司的面部识别业务时,她骂了脏话。“我不知道Ever应用程序中有任何面部识别功能,”摄影师Roxey在电子邮件中说,她已经使用这个应用程序好几年了。“这有点令人毛骨悚然,因为我的孩子和朋友们的照片都在上面,他们从来没有同意过这种事情。”

她说,她认为该公司的做法是对她们隐私的侵犯,现在她已经删除了这款应用。

一种新的商业模式

阿莱于2016年加入Ever。他在一次电话采访中说,大约两年半前,当他和其他公司领导人意识到,带有一些付费高级功能的免费照片应用“不会成为风险投资规模的业务”时,公司决定探索面部识别技术。向面部识别技术的转变在经济方面极大地促进了Ever的发展:在宣布了新的关注点——面部识别技术之后,该公司在2017年底筹集了1600万美元,占迄今总投资的一半以上。

阿莱说,拥有如此庞大的130多亿张照片的“语料库”,对开发人脸识别系统非常重要,具有无可比拟的价值。

他说:“如果你能够为一个系统提供数百万张人脸,那么在另一方面,这个系统将会变得更好、更准确。”

去年的一项行业基准测试发现,Ever AI的人脸识别技术在人脸匹配方面的准确率达到99.85%。当被问及该公司能否向用户做出很好的说明,解释这款应用的技术是为Ever AI服务时,阿莱给出了否定回答。

“我认为我们的隐私政策和服务条款是非常清楚和明确的。”他补充说,“它们没有使用任何深奥的法律术语。”

今年4月,NBC 新闻询问该公司,用户是否同意他们的照片被用于训练面部识别软件,继而再将这些软件卖给警察和军方之后,该公司在网站上发布了一项最新的隐私政策。

此前,隐私政策解释说,人脸识别技术是用来帮助“整理你的文件,让你能与合适的人分享它们”。这款应用有一个选择加入人脸标签的功能,很像Facebook,允许用户搜索使用该应用的特定朋友或家庭成员。

在之前的隐私政策中,只有一句话表明这些照片将被用于其他用途,即“您的文件可能被用来帮助改进和培训我们的产品和相关技术。”

4月15日,也就是NBC新闻首次联系该公司的一周后,该公司加了一句话来对“我们的产品”的含义进行进一步解释。

更新过的政策中写道:“其中一些技术可能会用于我们为企业客户提供的单独产品和服务,包括我们的企业人脸识别产品,但不会使用您的文件和个人信息。”

在一封电子邮件中,阿莱解释了做出这一改变的原因。

“虽然我们觉得我们的旧政策已经能够很好地保障我们和我们的消费者,但最近发生的几件事(这不是什么新鲜事),让我们认为进一步澄清是有必要的。”他写道,“随着这个领域的发展,随着我们收到越来越多的反馈,我们将一如既往地继续做出适当的改变。”

最近的《财富》杂志和《Inc.》也提到了Ever AI。

纽约大学法学教授贾森·舒尔茨(Jason Schultz)表示,Ever AI应该做更多说明,让Ever应用程序的用户了解他们的照片是如何被使用的。他说,将这些内容隐藏在2500字的隐私政策中是远远不够的,而且大多数用户都不会阅读隐私政策。

“为追求商业利益,他们利用照片中人物的形象来训练一种产品,并将其出售给军方和执法部门。”他说,“而且认为用户已经真正同意了他们的做法,这种想法非常可笑的。”

一种严重侵犯隐私的行为

Mariah Hall,今年19岁,是密西西比州杰克逊市米尔萨斯学院的大二学生,五年来她一直在使用Ever存储照片,帮助在手机上腾出空间。

当她从NBC新闻得知她的照片被用来训练面部识别技术时,她感到震惊。

“这款应用程序的开发人员不清楚他们的意图,也不了解他们使用我们照片的方式。这令人难过,因为我认为这是对我们隐私的严重侵犯,”她在一封电子邮件中写道。

“如果一家公司利用用户的信息与任何人合作,不论是警察还是联邦调查局,这些都应该是用户在下载这款应用程序之前首先被告知的事情之一。”

Evie Mae来自英国,今年18岁,对于上述说法,她表示赞同。她通过Twitter direct message获悉此事,她说,自己的面部信息被用于开发商业面部识别产品的行为让她感到“不舒服”,对于要把照片上传到哪里,未来她一定会更加谨慎。

然而,当NBC新闻告诉阿莱,Ever的一些客户不明白,他们的照片是被用于开发人脸识别技术,最终可能落到政府的手中。阿莱却表示,他从未听到过任何抱怨。

“对于用户的反馈,我们始终秉持着开放接纳的态度。如果有人确实在使用这款应用程序时遇到了问题,只要处理了这两件事中的一件,问题自然迎刃而解。一是他们停止使用Ever,二是他们可以表明他们想继续使用Ever,但他们不希望自己的照片被用来训练模型。不管是在过去还是现在,这些都是由用户自己决定的。”

在与NBC新闻进一步沟通后,阿莱在4月30日写道,该公司在应用程序中添加了一个新的弹出功能,用户可以自由地选择不让自己的照片出现在应用程序的面部识别工具中。但是,这个弹出功能并没有提到面部识别技术正在应用程序之外的地方使用,也没有提到正向私营企业和执法部门销售。

阿莱写道:“这种产品内的功能以前在某些地区的用户可以使用,现在全球所有的Ever用户都可以使用。”

本文(含图片)为合作媒体授权创业邦转载,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。


来源:猎云网