我决定重新发布这篇文章,尤其是在关于剑桥分析公司(Cambridge Analytica)和Facebook铺天盖地的报道中,剑桥分析公司不正当获取了数百万Facebook用户的数据以影响其在美国总统大选中的投票倾向。如果大公司、科技巨头和立法者不加快监管的进程以保证用户数据的安全,这种情况将变得更加普遍。
作为一个曾在大数据领域工作过一段时间的人,我觉得这种关联的概念已经让人愈发恐惧(还记得那个有名的案例研究:塔吉特百货公司是如何比一个父亲更早发现他的女儿怀孕的?)。我敏锐地意识到大数据对大企业的吸引力,同时,它也让消费者产生了恐惧。
市场紧追消费者的数字足迹
随着数据变得越来越丰富,消费者的数字足迹变得越来越普遍,对消费者生活的理解也越来越多地被分析和情境化。普通消费者对他们所分享的内容和商业使用方式有了更多了解,但很多时候对消费者数据的使用方式都没有得到用户的认可或同意。
人工智能正在加速它的步伐,庞大的数据集被允许进行信息分析和情境化,这些信息具有内在的好处,但同时也给个人和社会带来了脆弱性。这是真实存在的,不过还有待说明。
2012年,我在公司博客Genx Think Tank上写了这篇文章——《一切都与隐私有关》。当时,每一个登录社交网站的人都默许用户数据被收集。
梅西百货公司的首席营销官朱莉·伯纳德说:“有一件和消费者有关的事很有趣,他们担心我们如何使用数据,但如果我不提供相关的数据,他们又会很生气。如果我不查看数据,我该如何传递相关性,并神奇地传递给他们想要了解的信息?”
广告拦截器保护隐私是否奏效?
一些更精明的用户不愿意给任何一家公司提供过多的信息,他们会选择使用不同的浏览器服务。Ghostery和其他广告拦截器允许用户查看谁在跟踪他们的信息,这使得广告网络很难有效地盈利。更重要的是,它减少了公司可以追踪用户的信息量。
快进到今天。现在已经是2018年了,使用Ghostery和其他追踪系统变得越来越重要。
广告拦截软件的使用量在2016年激增了30%(根据PageFair的数据)。到2016年年底,全球共有6.15亿台屏蔽广告的设备,其中有62%(3.08亿)是手机。桌面广告拦截软件的使用量同比增长17%,达到了2.36亿。
PageFair的生态系统主管强尼·瑞恩博士总结道:“2014年,我们与广告拦截软件的早期用户打交道,这些人的确是在关心和理解广告技术中隐私和数据泄露的真正问题。我认为,这是因为行业内缺乏隐私保护的方法或兴趣,由此才有了广告屏蔽软件的的出现。”
用户和市场的“数据公平交换”?
我在Facebook上发表了一篇关于Google Home的文章,作为对上一篇文章的回应:《Google Home Mini智能音箱秘密地记录了人们的对话,并让人们对智能音箱产生了极大的恐惧》。
从这些聊天记录中可以清楚地看到,虽然人们清楚哪些个人信息将被Facebook收集,但他们并没有完全意识到这些信息的分享程度。
▲Facebook:关于Google Home的讨论
我想说的是一个选择的问题。这并不是说“我们可能只说一些无聊的事情”。这也不是说人们应该对他们公开分享的东西疑神疑鬼。我的观点是,“我们分享的东西”不一定是我们主动选择要去分享的。
这个选择是由平台决定的,他们收集的数据——无论是公开的还是私人的,这些数据本身就提供了足够多的素材,可以为每个人创建更明确的社会图景。
最近,《哈佛商业评论》发表了一篇文章,讨论了消费者对数据被公开分享的认知。第一个问题是“普通消费者对什么样的数据会被收集有多少了解”?第二个问题是,“如果他们知道这个问题的答案,他们会担心吗?”
▲资料来源:《客户数据:为透明和信任而设计》
然而,现在有这样一种想法,即用户与收集或分析数据的公司之间的公平交换。消费者希望公司提供更好的服务和更相关的信息,以交换他们所共享的信息。
HBR的文章描述了公平交换的概念。公司收集的数据越多,消费者的期望值就越高。对于像Facebook这样的公司来说,他们的主要业务包括基于用户数据收集的高度定向广告,概述和预测用户偏好的分析,这些业务将为公司带来更多的收入。
▲资料来源:《客户数据:为透明和信任而设计》
随着这一需求的增长,从个人层面上增加情境化的代价也会增加。一个公司越是了解用户的动机和用户意图,他们就越能在消费者反应上作出更准确的预测,从而给公司进行更好的宣传。
人工智能:情境就是一切
在人工智能领域的工作经历让我看到各种可能性的存在,我和常年分析大量信息的数据科学家们交谈,我们都知道将各种数据建立联系的好处和陷阱。我曾与一位大数据架构工程师Neeraj Sabharwa交谈,他认为,每个消费者都应该对其设备上分享的内容负责。“我们公开或私下透露的信息,以及我们如何分享这些信息的数据可能被不同程度地提取利用。”他说。Neeraj指出,Venmo的用户在默认情况下会公开分享所有的活动,除非他们选择不公开或仅给朋友分享转账信息。
意识到问题所在很关键,一旦我们知道数据的各方面信息(什么数据、如何访问、在哪里访问和谁访问我们的数据),我们就能更清楚地意识到我们的决定。
我们讨论了埃隆?马斯克和Open AI在人工智能和治理方面所做的工作。OpenAI专注于“发现并制定通往安全的通用智能道路”。依据马斯克的说法:“我认为人工智能可能是短期内影响人类的一件大事。所以,人工智能以一种好的方式应用,这是很重要的。如果你能通过水晶球看到未来,你会喜欢它到来之后所产生的结果。但人工智能也可能会出错,所以我们需要确保人工智能在正确的道路上发展。“
考虑到这些数据不仅仅是我们在不同的社交网络、电子邮件、交易、客户服务聊天中所分享的信息,而是来自所有这些不同数据源的信息的聚合……通过人工智能获得的具有关联性的信息能够找到具有空前能力的模式。
数据、计算能力、互联互通和模式分析的进步,这几者之间的结合使得情境化完全有可能提高准确性和精确性(在这个起步阶段还可商榷),这是史无前例的。
今天的隐私规定可能没有考虑用户在不同场景下是否允许他人使用这些信息的权利超越了客户服务或沟通的含义,这可能具体包括:
第一,在个人层面上——提供健康建议和通知,或提供日常任务提醒;
第二,在集体层面上——帮助医学研究更好地诊断病症或预防潜在的安全威胁。
未来的信息将超越我们在社交网络和公司中共享的信息。我们将用传感器和AR设备来装备我们的家庭、工作和身体。我们通过自动化提高便利性的追求也会有意或无意地面对偏见的风险。
正在起作用的情境化:中国的社会信用等级
我最近一直在关注中国的芝麻信用。最近,芝麻信用宣称,中国计划在2020年推出社会信用体系。《连线》杂志刊登了一篇题为《当大数据遇上政府:中国开始对公民进行信用评级》的文章,文章说中国正在建立一个平台,从其13亿公民中调查社会行为,以判断他们的信用度。
评分系统是一个动态值,数值会因个人行为而增长或下降。可信赖度是由中国政府定义的,它可以约束公民遵守法律。这是一个惩罚和奖励系统,人们的数据现在正被用来约束自己。
毫无疑问,西方文明的语境和我们的公民都无法避免大规模的数据收集、集合和分析。但我们确实有的选择,自由给予我们一定的权利。
安·科沃基安博士——前安大略省隐私专员,现在是隐私和大数据研究所的执行董事,也是全球倡导个人隐私的主要倡导者。她有效地传达了这样一种信念:“隐私和自由是不可分割的整体”。她驳斥了“零和”心态,即人们必须在隐私或安全之间做出选择,但两者不能兼得。
她认为,为了保护我们的社会,我们不需要放弃个人隐私。如果我们不得不接受大规模的数据监控,我们就放弃了个人自由。随着大数据的出现,情况并非如此。
这一主张在加拿大得到了广大民众的支持,现在随着2018年5月开始实施的《欧洲通用数据保护条例(GDPR)》,一个更广泛的数据隐私系统正在建立。系统和政策将被要求确保这一条例的施行。
无论如何,我们都有责任,正如Neeraj所说,要对我们所分享的东西和分享的方式负责,当我们的孩子在这个越来越透明的世界里长大,他们需要了解这个新世界的局限性并最终掌控他们的个人信息。
特别提醒:本网内容转载自其他媒体,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。