处理好隐私保护与个人信息开发的矛盾

2012-09-24 11:16:51 eNet&Ciweek/enews

推荐语

现在服务者最大的顾虑是,一想到个性化服务需要用到消费者个人信息,就担心将来法律找到头上来,迈不开个性化服务的步。

现在服务者最大的顾虑是,一想到个性化服务需要用到消费者个人信息,就担心将来法律找到头上来,迈不开个性化服务的步。这个心病,已大到妨碍中国制造向中国创造(差异化、个性化服务)转型升级的程度。

我曾在《有限隐私论》中,主张开发个人信息。隐私这个词,带有贬义色彩。只宜与保护相联系,不适合同开发相联系。改称个人信息就比较中性,既可以说个人信息开发,也可以说个人信息保护。对个人信息,保护和开发,都是合理的;成问题的主要是过度开发和过度保护。处理开发与保护二者之间的矛盾,关键是确立一个度,把这个度以及对这个度的把握,转化为游戏规则。现在无论商家还是个人,在这个问题上,还有许多不合时适的观念,需要通过讨论问题,逐步形成共识。

什么个人信息可以开发

我们可以把个人信息分为白色、灰色和黑色三种情况,区别对待。黑色个人信息,可分为两类,一类是绝对隐私(涉及人格尊严的),是不可利用,不可公开的;一类是相对隐私,可利用,但不可公开;灰色个人信息,属于敏感信息,可利用,但不宜公开;白色个人信息,则是可利用,也可以公开的。除了绝对隐私外,其它个人信息都是可以开发的,但不是随意开发,在开发中也有保护问题。例如,要有一个上升为法律的原则,就是将个人信息的开发权交给本人,由他同意允许开发还是不允许开发。这里的开发是指商业利用,以区别于涉及公众和媒体知情权的情况。

在实践中,已经遇到这方面的问题,例如robots协议,实际就体现了这样一个底线。有人认为它不是法,不必遵守,忽略了背后是有消费者个人信息保护的法理基础的。早在1999年,美国《电子隐私权法》就规定“将决定权交给消费者,让其切实有效地授权或者拒绝他人采集和使用其个人信息”。我国也需要加强个人信息开发与保护的立法,以应对互联网时代越来越多的新情况。

开发和保护的利益中轴

昨天晚上我专程从山里赶回北京见到巴拉巴西院士,在交谈中高度评价他提出的scale-free networks。然而在讨论《爆发》的现场,就曾有女士担心,认为如果按巴拉巴西的理论,大数据可以预测人的97%的行为,那人的隐私怎么办。前几天在深圳,同企业家探讨手机号码与个人信息对应背后的商机,老板却十分担心:这行吗,不犯法吗?凡此种种,说明问题已到了不能不解决的程度。

当法律和游戏规则缺失时,个人信息保护经常出问题自不待言,令我更加担心的,是商家不敢合理开发,个人拒绝合理开发,贻误了企业和产业乃至个性化经济繁荣发展的良机。现在大数据浪潮又迎面而来,这种情况不能再继续下去了。人大法工委不能再延误个人信息相关立法进程,工信部、互联网协会也应抓紧制订法律法规。

有人可能担心,互联网上的现象太新,立法把握不好反而会误事。游戏规则(无论是法还是规)的制订,关键是找出把握度的那根中线。找出来了,就有信心;找不出来,当然就没有信心。对这个中线,我谈点个人的看法,这些看法是多年观察行业形成的。

首先是确定“将决定权交给消费者”这个大原则。在这个原则下,问题可简化为建立一个利益中轴,两侧得失相等,围绕市场均衡,由消费者自己权衡保护与开发的利弊。这个中轴,就是凯文·凯利在腾讯会所,当着马化腾、我和许多人的面提出的法理:个性化与透明度呈正比。即,越透明化,越个性化;越不透明化,越不个性化。我研究互联网个性化问题多年,认为这个概括非常准确、实用。

按这样一个利益中轴,消费者固然可以把自己裹得严严实实,密不透风。但别人不了解他,也无法为他定制贴心服务,他要付出的代价是什么产品、服务都跟自己体验隔着一层。本来可以社会化的个性化服务,成了自给自足的小生产,福利水平大降。相反,消费者把什么都敞开了,个性化服务固然容易达到社会化水平,但自己不免有赤条条让人观看的感觉,也可能不爽。消费者自己权衡的结果,可能会在社会水平上形成一个均衡值。从社会来说,趋势将是收入越高(人均5000美元以上),个性化需求越旺,整体的透明化水平越高。

如果将决定权交给生产者,担心的是找不出这样的均衡点。赶上一个愣的,就会说:你赶紧脱光吧,我可以提供比你想象的更好的服务。这种更好的服务,可以正因为服务水平高,而构成侵犯,因为消费者有可能并不愿意。而将决定权交给消费者,只要抓一件事,就是保护消费者在个人信息这个房间外,有挂与不挂“请勿打扰”牌子的权利。有硬约束力地制止服务者硬往里边闯。让服务者形成进去服务要敲门的起码规矩。

消费者怎样从心理上适应透明化?

透明化相当于把衣服脱了,只剩比基尼,让人家看。许多消费者对此感觉都不好。我经常给人打这样的比喻:第一,如果满大厅别人都西装革履,只你一个穿比基尼,你当然感觉不好。但将来信息社会,相当于人人都在海滩上,只你一个人西装革履,你也一样会不自在。这说明人们对透明化的承受力,会随着商业透明化水平提高,而水涨船高;第二,你在医生面前脱衣服,为什么不感觉有问题呢?因为这是一对一服务。将来的个性化服务,都将是一对一的服务,你不可拿多对一或一对多的服务进行类比。何况,将来一对一营销,你在“大夫”(服务者)面前,就是一个虚拟的符号(一个手机号、一堆限于如鞋、食品等具体产品相关的个人语用数据)。就相当于一对一问诊时,大夫连你长什么样都不看,只看你的一个局部器官,而不是为了在胳膊上打一针非让你全身脱光。那还有什么可担心的呢?第三,也是更重要的,如果把个人信息的处理权交给消费者,这相当于病人脱不脱衣完全由病人自己决定。他可以选择宁愿病死,也不让大夫看。将来这一点,应发展到技术性限制,例如限制推(push)技术,而鼓励拉(pull)技术,而且用chick in把门。消费者就可以放心了。

服务者要打消顾虑

现在服务者最大的顾虑是,一想到个性化服务需要用到消费者个人信息,就担心将来法律找到头上来,迈不开个性化服务的步。这个心病,已大到妨碍中国制造向中国创造(差异化、个性化服务)转型升级的程度。

服务者不需要自寻烦恼,自己捆住自己的手脚。将来的个性化服务,在涉及个人信息开发时,有几个特点跟眼下可能很不相同:一是原始信息和加工数据分离,增值服务者看不到消费者的原始信息。现在服务者天真地以为,利用消费者个人信息,跟直接偷看消费者的情书差不多。实际上,这种情况将来根本不会出现。现在一些商家确实可以直接接触消费者的原始信息,这是信息初级阶段才有的。在大数据产业分工高度发达情况下,消费者原始信息和元数据,应由专门行业、专门机制(比如由公益机制甚至公共机制)管理;商业性地利用的,只能是加工过的信息。就好比电视上的当事人脸上打了马赛克,不会直接看到原始的面目。二是商家接触的应是数据化处理过的信息,而不是图片、文字本身。就象法国结构主义解读小说一样,把小说中的词按名词、动词或语法结构排列成统计矩阵,而把情节过滤掉,要的不是内容,而是作者与众不同的用词习惯。这就把绝对隐私过滤掉了。三是机器阅读读到的只是0和1构成的数码,现有隐私保护技术,甚至可以把词义当作黑箱封闭起来,利用关系算法,计算这一黑箱与另一黑箱之间的距离、频度。这也有助于对隐私的保护。

总之,服务者不必因为一些不存在的问题而担心。这种担心只会使自己贻误商机。真正需要重视的,只是遵守游戏规则,不要突破游戏底线。

处理好隐私保护与个人信息开发的矛盾,要抓住规则这个纲,其它都是目。纲举自然目张。

您对本文或本站有任何意见,请在下方提交,谢谢!

投稿信箱:tougao@ciweek.com