怎样应对“大数据杀熟”
来源:人民周刊 更新时间:2021-11-22

    “年龄25—35周岁,多数为女性,60%以上生活在二三线城市”“40周岁以上男性居多,平均年收入为30万—50万元,企业中高级管理人员占比约为33%”……许多企业通过计算机程序进行大数据分析后,会为产品或服务勾勒出一幅客户“画像”。

    这些“画像”,是企业根据客户性别、年龄、职业、居住地等个人信息,经过一系列数据分析后得出的客户群概况。伴随互联网技术进步、商业营销向精准化方向发展,通过分析潜在客户个人信息实现广告精准推送、客户精准锁定,成为许多平台与企业降低营销成本、获得优质客源的“常规举措”。

    在购物网站查看过某一类商品后,不断收到类似商品的产品信息推送;在新闻网站浏览过某一条新闻后,手机推送中的新闻信息便出现大量类别相近的信息……大数据对互联网用户“画像”的细致分析、精准推送,使互联网时代的个人犹如生活在“信息茧房”中,信息接收渠道被与个人特征、个人喜好等高度相关的各种自动推送紧密包裹。

    通过计算机程序对个人行为习惯、兴趣爱好、经济状况、健康情况、信用状况等进行自动分析、评估并进行决策的过程,便是自动化决策过程。建立在个人信息收集基础上的自动化决策,正在加速非法交易个人信息产业链的扩张。

    11月1日施行的《中华人民共和国个人信息保护法》,对个人信息处理者利用个人信息进行自动化决策作出规范:应当保证决策的透明度和结果公平、公正;通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项或向个人提供便捷的拒绝方式;个人信息处理者应当事前进行个人信息保护影响评估,并对处理情况进行记录……

    “个人信息保护法关于自动化决策的条文虽然相对较少,但是建立了包括预防、合法程序、个人权利等在内的多维度规制框架,对于重点问题都有所涉及。在未来落地的过程中,还需要通过相应配套规则的建立和执法活动的开展进一步细化。”中国人民大学法学院未来法治研究院执行院长、中国法学会网络与信息法学研究会副秘书长张吉豫表示。

    免于接受自动化决策,是个人信息保护法赋予公民的权利

    “为保证良好的用户体验,尽可能地减少与您无关的广告对您造成的侵扰,我们一直在改进和优化广告推荐机制。您可以选择对不感兴趣的标签进行为期6个月的关闭。选择关闭部分兴趣类别后,不会停止您的信息收集,但是,所收集的信息都不会用于向您推荐个性化广告内容。”淘宝APP将推送广告划分为“创意礼品”“厨房用品”“园艺生活”“粮油米面”等50个类别,用户只需要点击类别按钮,便可以停止接收这一类别的个性化广告推荐。

    通过自动化决策方式向个人进行信息推送、商业营销,应当向个人提供不针对个人特征的选项或便捷的拒绝方式,这是个人信息保护法关于互联网平台自动化决策的明确规定。“这一规定是2019年1月1日起施行的《中华人民共和国电子商务法》‘电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或服务搜索结果的,应当同时向该消费者提供不针对其个人特征的选项’这一条款的延续,同时建立了使个人拥有免于接受自动化决策权利的机制。”张吉豫说。

    在张吉豫看来,商业广告进行个性化推送有合理、正当的缘由,但是由此带来的“大数据杀熟”“信息茧房”等问题也确实受到社会公众热议,并得到立法部门的高度关注。“在经过讨论达成共识的基础上,可以将广告推送、商业营销确立为一种特殊情况。个人信息保护法的相关规定,是针对这种特殊情况使个人免于接受自动化决策的规则。”

    而提供不针对个人特征的选项和提供便捷的拒绝方式,是法律规则列明的、在自动化决策中实现个人信息保护的两条可行路径。张吉豫认为,相比直接拒绝,提供不针对个人特征的选项保留了信息推荐的可能性,二者适用于不同的应用场景。“比如在根据个人信息决定能否发放贷款的场景下,不针对个人特征的计算机算法设计就不太具有可行性。但是在商业营销等信息推送情形下,就存在推送不针对个人特征信息的可能性,只是这种不针对个人特征的推荐,个人的欢迎度或许并不高。”

    张吉豫表示,个人信息保护法的这一机制设计有助于促进不同算法间的竞争。“??一方面是推送针对个人特征的信息,另一方面是推送??不针对个人特征的信息。如果个人信息保护法有效实施,不仅能够对针对个人特征的算法起到修正作用,也能够对正处于发展过程中的算法设计起到推进作用。”

    关于个人对以自动化决策方式推送信息的拒绝,个人信息保护法明确:通过自动化决策方式作出的决定,如果将对个人权益产生重大影响,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。“对个人权益有重大影响的决定,个人信息保护法虽然没有进行明确,但是结合学界意见,这些决定应当包含两个方面:一是对法律权利或法律效果有明确影响的,二是??对个人经济地位、社会地位、长期评价等可能产生影响的。在法律落实过程中,个人信息处理者提供的说明必须是对决策有意义的信息,??而不能是简单、泛泛的电商信息。”张吉豫分析道。

    ??引入人工干预,可以增强自动化决策对人的关怀

    保障个人真正获得拒绝自动化决策的??权利,是个人信息保护法关于自动化决策条款最重要的设计目的之一。个人信息保护法明确,个人有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。

    “这就需要给条款中‘仅通过自动化决策的方式’一个恰当的解释,不能采取狭义的解释。”张吉豫表示,如果有一个人工参与到??自动化决策过程中就视之为??不是仅通过自动化决策方式,条款可能被架空。“比如,对算法决策??的结果只是人工简单复核一遍,这就不能认为人工对决策过程产生了实际影响,而仍然应当视之为??通过自动化决策方式作出的决定。”

    在张吉豫看来,??引入人工干预可以增强自动化决策对人的关怀。“引入对决策结果产生实际影响的人工干预不仅会提升算法的准确度,更重要的是,在决策中加入人的判断可以体现出人格尊严。”

    那么,??引入人工干预是否会影响自动化决策效率,增加决策的不确定性,或者导致决策结果不公正的情况出现?对此,张吉豫表示,在尚处于智能设备初期阶段的当下,计算机算法本身仍然存在很大的改进与提升空间。“人工干预环节的引入,其实是算法多元治理的一个必要环节,这也能够为算法的改进提供??一个有益途径。算法在现阶段一些生活典型场景的应用中,其实都存在一定程度的人工干预。引入人工干预,可以为自动化决策提供合理的补充,也是切实落实保障个人免于接受自动化决策的可行途径。”

    张吉豫认为,个人信息处理者在事前进行个人信息保护影响评估时,就应当考虑未来如果个人权益受到重大影响应当提供的说明与解释,引入人工干预则可以为此提供更多保障。“个人免受自动化决策权益的保障,应该从个人信息保护影响评估阶段??就开始建立。建立人工干预机制,匹配建立情况分析说明机制和根据个人事宜进行考察改进的机制,都是在个人信息保护影响评估环节就应当着重开始设计的。”

    个人信息保护影响评估也涉及个人信息法要求的决策透明、结果公平公正等,对此都应当进行相应的设计。“这一环节不仅包括利用个人信息进行自动化决策会对个人信息权益产生怎样的影响、面临何种风险等,企业是否??采取了适当、??有效的风险处理机制也应当包含在内。”张吉豫说。(记者 武凤珠)