大数据时代算法歧视的协同治理_第1页
大数据时代算法歧视的协同治理_第2页
大数据时代算法歧视的协同治理_第3页
大数据时代算法歧视的协同治理_第4页
大数据时代算法歧视的协同治理_第5页
已阅读5页,还剩25页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

大数据时代算法歧视的协同治理成曼丽

(武汉科技大学马克思主义学院,湖北武汉430079)

一、引言

数据作为新型生产要素,已经成为市场经营者竞相争夺的资源,占有数据优势的经营者往往能够获得竞争优势。然而,就原始的单个数据而言价值密度并不高,只有经过算法技术处理加工后形成的二次数据集合才能够成为市场上价值密度高的资源。算法在某种程度上是实现数据价值的核心工具,能够促进原始数据向高价值的加工或衍生数据转变。因此,数字经济在本质上就是“算法界定的经济”[1]。当然,算法作为技术手段具有极为重要的工具作用,但每项技术背后均有其黑暗的一面。在大数据时代,经营者能够基于消费者的职业、个人喜好、消费历史、支付意愿等信息,对每个消费者实施精准画像,从而进一步判断其承受的价格上限和达成交易的可能性。这种对消费者实施精准的标签化营销模式,消除了传统经济模式下经营者难以准确捕捉消费者个人信息而形成的障碍,使“同物同价”这一定价规律发生了改变,商品价格与每个消费者的购买意愿紧密相关,算法对消费者的歧视由此而产生。

算法在商业交易中的广泛运用,使得具有技术和市场优势的经营者特别是平台企业频繁运用算法在信息搜集、推送及个性化定价等阶段对消费者实施歧视行为,进而达到排除或限制竞争的目的。在消费者信息搜集阶段,数字企业通常以数字画像为基础通过算法技术来测试消费者的偏好,以此诱导消费者进行消费。在信息推送阶段,平台企业一般只推送经营者支付了较高广告费或推广费的商品,或是反复推送消费者浏览次数较多的商品,如今日头条在推送商品信息阶段就因涉嫌消费者身份歧视而被监管部门约谈[2]。在个性化定价阶段,平台企业针对其标注不同标签的消费者实施不同的价格。如在携程网上预定酒店客房时,有消费历史的消费者面对的价格往往高于没有消费历史的消费者[3]。2022年,滴滴、携程等网约车平台利用算法的个性化定价歧视消费者被曝光,在相同路线、相同车型情况下,使用频率高的消费者所支付的价格要高于使用频率低的消费者[4]。有学者在调查中甚至发现,网约车平台会因为消费者使用的手机品牌、型号的差异而使相同路线、相同车型的行程价格不同,如使用苹果手机的消费者支付的价格要高于使用其他手机的消费者。[5]事实上,过去几年来,我国对数字经济、算法创新等方面的支持力度较大,但在技术、信息处于劣势的情况下,消费者仍难以对抗平台企业。2022年中国消费者协会的一项调查显示,因为举证困难以及交易中的算法歧视带有极强的隐蔽性,算法歧视对消费者的知情权、交易选择权等造成极大的影响,更侵蚀了数字经济发展的基础[6]。

对算法歧视行为的治理与规制应以消费者利益损害为前提条件。国外研究者认为,算法歧视会减少消费者剩余,损害消费者权利[7]。欧盟研究者认为,只有重构消费者个人权利体系,才能从源头上治理算法歧视[8]。美国学者认为,推进算法审查机制的完善是治理的基本路径[9]。国内学者对算法歧视的研究侧重于从治理路径、治理制度、法律责任等角度进行,对“大数据杀熟”等热点问题进行了针对性的探讨[10]。但从这些研究中可以看到,对算法歧视及其治理、规制体系的研究,并未系统解答算法歧视的运行机制问题,要规制和治理算法歧视行为,必须回答算法歧视是如何运行的。因此,本文以算法歧视运行机制及利益损害界定为前提,辅之以算法歧视治理的基本规律,以更好地完善算法歧视治理的路径。

二、文献综述

随着数字经济的快速发展,作为维系平台体系生态化的主要支柱之一,算法在实践中得到了极为广泛的应用。算法是大数据、人工智能等技术发展的结果,本身带有中立性,但如果开发者、经营者在开发和使用中加入了歧视性的变量,就会引发算法歧视问题。算法歧视的运行机制、损害、治理模式已成为学界研究的热点问题。首先,就算法歧视运行机制而言,曹博[11]认为,算法歧视与社会语境、技术模式、特定领域有密切关系,基于运作方式,可以分为复现型、加剧型和新增型三种类型。其中,复现型歧视是使用者加入某些变量后所产生的歧视,是使用者主动为之的结果;加剧型歧视是平台之间相互竞争所开展的综合性歧视,是不同平台人工智能和大数据之间相互对抗的结果;新增型歧视是传统价格歧视下的一种技术化形式,其运作过程及整体并不对抗特定的消费者。喻玲[12]认为,算法歧视运行机制存在两大逻辑:大数据、人工智能等技术支撑,消费者的细分解构。前者是在搜集消费者个人信息基础上分析消费者的行为偏好,并通过算法推演来预测消费者的消费意愿,进而做好个性化推送;就后者而言,算法歧视的运行必须按照支付意愿、品牌偏好、反制能力进行细分,消费者类型差异影响算法推演的变量设定。丁国峰[13]认为,算法歧视运行的逻辑有窥视消费者信息、干预消费者偏好、自主推进决策三个层面。就第一层面而言,消费者的信息是算法歧视运行的基础,因为算法的运行建立在消费者海量数据基础之上;就第二层面看,算法歧视的目的是针对不同消费者提供不同的待遇,主动干预和分析消费者偏好;就第三层面看,在信息推送及定价阶段的算法歧视,算法机制自主决策发挥了重要作用,特别是自主学习型算法在某种程度上能够摆脱人为的控制。

在算法歧视造成损害方面,阳镇、陈劲[14]认为,算法本身并不会对消费者、竞争者等主体的利益造成损害,然而,在“算法黑箱”效应的推动下,算法霸权和算法垄断使算法决策机制的实施偏离了技术中立属性,因此,算法歧视产生后,不仅减少了消费者剩余,而且还会损害公共福利,造成市场竞争的不公和失序。李牧翰[15]认为,算法作为一种定价机制并不必然导致社会总福利的减少,消费者剩余与生产者剩余之间如何分配取决于算法决策的运用方式。在算法滥用的情况下,算法歧视对数据主体的平等权、隐私权造成较大的危害,并压缩数字主体的意思自治空间,进而危及数据主体公平交易权的实现。张恩典[16]认为,因受到算法决策模糊性及自动性的影响,算法歧视呈现出高度的隐蔽性、单体性、连锁性等特征,识别难度非常高。就实践而言,算法歧视所造成的危害体现在两个方面:一是降低差别待遇的适用门槛,在提升消费者剩余的同时,侵害竞争者的利益,损害市场的公平性;二是提高差别待遇的豁免门槛,使大多数消费者难以从中获益,典型的情况就是“大数据杀熟”。

算法歧视治理问题是学界研究的重点问题。丁晓东[17]认为,算法作为人机交互的结果,受使用者的影响较大。但因算法公开在技术上是不可行的,会导致经营者商业秘密和知识产权受到侵犯,因此规制必须与算法歧视的应用场景相结合,依照不同的场景赋予经营者不同的算法解释义务及消费者的算法反制权;同时,还应该赋予消费者数据携带权,以个体数据权对抗算法歧视的滥用。尹锋林、李玲娟[18]认为,在算法歧视公共治理存在难度的情况下,可以尝试构建私人治理机制。因算法歧视行为同时侵害多个利益相关主体的权利,受算法歧视影响的消费者、竞争者等不同主体可以按照合同违约、民事侵权、行政诉讼、民事公益诉讼等司法方式予以解决。张莉莉、朱子升[19]认为,实施算法歧视的技术机制包括数据训练、编码干预、黑箱效应等,基于这些技术逻辑,进一步明确算法歧视行为实施的技术环节与法律规制模式的偏差,进而从规范数据训练、提升算法运行透明度、明确算法解释义务主体、完善监管部门算法审查机制等方面予以规制。赵海乐[20]认为,算法歧视行为在实践中能够屡屡“得手”,一方面是因为消费者维权举证困难,另一方面是源于法律未能为行为人设定请求权。因此,我国可以借鉴欧美对算法歧视的规制经验,加大对消费者“赋权”力度,建立完整的个人信息保护权体系和算法责任归属机制。

目前学界在算法歧视运行机制、危害及治理模式等方面做了大量的研究,提出了很多有价值的观点。但总体看,存在以下三点不足:第一,算法歧视运行机制并非全然客观机制,技术逻辑固然重要,人为因素亦不可忽视;第二,算法歧视的危害多是偏向于权利的损害,危害界定过于抽象;第三,因算法歧视涉及众多的利益主体,私人治理或纯粹的技术治理模式难免失之偏颇。基于此,本文的边际贡献在于:在算法歧视运行机制方面,结合其三个不同阶段,突出技术逻辑与人为因素的结合;在算法歧视危害方面,侧重于权益分析;在算法歧视治理方面,提出多元主体协同治理模式。

三、算法歧视行为的运行机制

随着技术的发展,在提升经济效率的同时,算法也使经营者对算法决策产生较强的依赖,由此带来的歧视行为具有极强的隐蔽色彩。因此,只有明确算法歧视的运行机制,才能在治理和规制的过程中采取针对性的对策。

(一)信息搜集阶段:搜集模型缺陷及数据样本偏差

通过算法搜集消费者个人数据是数字经营者实施算法决策的基础。然而,算法的设定、数据样本的设计不可能独立于人而存在,不可避免地存在先入为主、以偏概全的问题。从某种程度上看,算法搜集模型存在的缺陷、数据样本存在的偏差均可能导致信息搜集阶段歧视现象的发生。一方面,数据搜集模型是由经营者设定的,盈利性是模型设定的驱动力量,在对消费者个人信息搜集过程中不可避免地带有选择性,重点搜集与经营者盈利目的相关的信息,如经济能力、支付意愿、消费偏好等,通过对相关信息的分析为消费者进行画像,进而成为算法歧视的基础;另一方面,市场上各类要素的信息化投射并非完全真实,也很难是完整的,从而使数据搜集过程容易受现实环境的影响,特别是受人为设定的数据样本的影响,包括信息分布情况、可获得性、搜集的动机、样本的有限性等。在数据搜集源头留下的这些偏差和隐患为算法歧视提供了条件。不管算法分析最终是否准确,消费者无从了解搜集模型及数据样本的具体指标和内容,这种不透明性存在明显的欺诈色彩。

大数据是数字市场的镜像反映,在很大程度上依赖于算法,是对原始数据进行加工分类的集合。在这种情况下,如果市场对某个群体存在结构性的偏见,这种偏见就会在数据中呈现,算法也会如实总结这些偏差,并依照这些偏差进行市场决策。在实践中,关联标记、置顶排名、过滤环节均可能因此而存在歧视。具体而言:第一,在关联标记中,被算法认定的数据可能确实存在因果关系,但这种因果关系也可能是巧合关联。算法不可能像法律那样严谨地对因果关系进行综合分析,也无法对因果关系、偶然巧合进行区分,此时算法将这些关联数据用作分类决策或预测的依据,就可能导致歧视甚至错误产生。第二,在置顶排名中,算法对事先嵌入的各类排名标准较为依赖,这些标准可能被经营者嵌入一些带有偏见性的盈利动机,从而使置顶排名存在歧视。如在百度、淘宝的置顶排名中,商家付出的广告费多与排名靠前呈正向关系是平台经营者事先嵌入的偏见,这对支付广告费用少但商品质量好的商家可能就造成歧视。[21]第三,在过滤环节中,算法需要通过事先设定的规则来显示有效的信息同时排除无效的信息。过滤环节通常会依照关联标记、置顶排名决定显示哪些信息或排除哪些信息,如果前面两个环节出现错误或偏见,就会导致过滤环节存在不公平,进而引发歧视。如网约车平台上的算法技术在分析消费者的消费能力时,通常按照消费频率评估消费者的忠诚度。如果消费者使用该软件的频率高,就会被判定为忠诚客户,也就成为平台收取高价的对象。将“忠诚消费者”标签化和范围化,事实上就形成了一种事先判断,成为信息搜集算法的分类标准,并可以将这种标准演化为预测基础[22]。但是由算法构建起来的身份标签化、个性特定化本身就是一种歧视,只不过在数据的放大下被进一步扩大。与经营者、算法设计者所实施的故意歧视相比,数据本身标签化、范畴化引发对消费者身份的歧视通常会被忽略,但造成的严重且隐蔽后果是无法忽视的。

(二)信息推送阶段:信息偏在与算法黑箱

在推送阶段,在信息搜集阶段数据特征歧视基础上,算法进一步强化了经营者主观歧视动机。信息推送是通过算法强大的数据分析、清洗和处理能力,在掌握了消费者的消费意愿后,将特定的商品或服务信息推送给特定消费者及标签群体,在销售成本最小化基础上保障经营者利润的最大化。如爱彼迎(Airbnb)定期向特定消费者推送曾经到过或浏览过居住地的房源信息;而去哪儿网则使用数据抓取技术,将消费者在其他应用程序的浏览信息作为其定向推送的依据。[23]但当特定的推送经过内容、知识、混合推荐等机制过滤后,个性化推送也就将消费者了解信息的正常渠道变成了信息偏在的“茧房”,不仅削弱了消费者获取信息的主动性,也使消费者的消费认知日渐窄化,直接影响消费者的交易选择权和公平交易权。

重要的是,信息推送阶段的算法决策技术性强、过程不透明,导致算法决策与消费者之间的距离加大,一般的消费者很难理解算法决策的基本过程,这加剧了经营者与消费者之间的数字鸿沟。以色列学者尼沃等[24]提出了著名的算法黑箱理论:算法在很大程度上如同一个黑箱,即信息的输入、决策过程及信息输出系统是不透明的,普通消费者无法知晓输入—输出之间是通过何种方式进行计算的,以及这个过程中的决策结构是什么,也难以知晓决策过程的具体指标及依据。随着算法技术及算力的提升,算法黑箱理论的解释力越来越强。很多大型超级平台通过算法决策获得相关市场的垄断地位,那些算法能力不强或没有掌握算法技术的经营者和消费者基本上被排除在黑箱之外。当算法在信息推送阶段广泛应用后,人们开始担心数字经济市场最终会演变成被算法所操纵的市场,对经营者的竞争权及消费者的选择权会产生极大的负面影响。

(三)定价阶段:幕后操控与价格歧视

在定价阶段,以信息搜集、信息推送阶段的算法机制为基础,经营者会制定一个价格歧视机制,使不同消费者就相同的产品或服务承受不同的价格。算法当然不能主动运行,从某种程度上看,算法歧视就是算法设计者和经营者的共谋。具体而言:第一,尽管目前自主决策算法得到极大发展,但受限于人工智能技术的水平,算法尚不足以完全改变人为控制市场的格局。算法作为人为设计出来的技术系统,并不具有独立的人格主体,其设计、运行必须依赖人为的操作和控制。机器背后的控制者是人,是“权力者对多数人的控制”[25]。第二,按照算法进行信息和数据处理,必然会引入算法设计者或控制者处理数据的偏见,从而使算法决策体现人的意志。数字经济的发展导致海量信息的出现,收集这些信息时必须依靠技术手段对其进行筛选和评估。算法的决策依据就是海量数据,决策的过程离不开算法设计者和控制者对其目标及程序所做的设定,这一过程无疑带有经营者的某种偏见,并试图通过技术手段将这种有利于自身经营活动的偏见扩大或反复循环,进而演化为算法歧视。第三,算法决策过程中存在设计者或控制者滥用算法权力的可能性。最典型的情况就是通过算法进行个性化定价,以最低成本获取最大的利润。人们在电商平台购物或在旅游服务平台订购机票时,经常看到平台经营者发布的技术中立免责声明,但幕后控制并不会因技术中立的免责声明而消失。谷歌(Google)公司利用算法排除相关市场竞争就是典型案例。谷歌公司作为一家提供搜索服务的企业,利用搜索引擎搜集到的海量数据开发出购物比价软件,用户只需要在比价软件中输入主题词,不同购物网站中相同商品的价格就会呈现在用户面前。谷歌公司声称,通过比价软件得到的商品价格信息完全是依照算法自动算出的,算法按照商品页面的链接数量、浏览数量等来判断商品的重要性,进而按照不同的排序展现在消费者面前。当谷歌旗下的购物平台GoogleShopping进入欧洲市场后,谷歌公司就通过相应的算法,在比价排名时将GoogleShopping上的展品置于显著位置,以吸引消费者的注意力。[26]欧盟反垄断机构认为,谷歌作为一家搜索服务企业,通过算法技术将自身在搜索服务领域的市场支配地位延伸到电子商务市场,在产品质量不占优势的情况下通过算法比价获取市场优势,进而排斥电商市场上的其他经营者,是典型的滥用市场支配地位的行为。

四、算法歧视行为的利益损害界定

算法歧视行为在强化黑箱效应的同时也使消费者的地位进一步透明化,针对消费者的各类特定商品推送、个性化定价等问题层出不穷。2022年发生的“魏则西事件”充分凸显了百度竞价算法设计的缺陷[27];今日头条在算法的推动下不断向消费者推送同质化的信息而备受诟病[28];滴滴网约车平台通过算法进行动态化、个性化定价的“杀熟”行为同样使消费者深受其害[29]。通常看,算法歧视行为在不同阶段具有不同程度的隐蔽性,消费者难以判断自己遭受歧视到何种程度。因此,对消费者利益损害的界定应该从不同阶段的行为特征入手进行分析,在不同领域界定利益的受损程度。

(一)信息搜集阶段消费者利益受损界定

实际上,在信息搜集阶段,算法对消费者身份类型化、标签化的设定就存在歧视风险。在这一阶段,算法面对的不是特定消费者,歧视行为损害的是不特定主体的数据权利,导致利益损害的范围难以界定,损害的后果无法遏制,受损害的个体难以获得妥善的权利救济。如果将消费者性别、地域、职业等身份信息作为算法决策设定基础,算法歧视行为危及的就是群体利益。根据马克斯·韦伯[30]的工具理性、价值理性的理论,工具理性通常凸显工具崇拜,主张最大限度地发挥工具的效用;价值理性体现了个体选择动机及目标追求,是个体对自身行为的价值判断。在数字经济体系下,因技术的发展,工具理性开始发生异化,算法技术作为由人设计出来的辅助型市场工具,开始成为反噬人类消费理性的工具。一方面,不断升级的算法系统使消费者成为被“奴役”的对象,可以事先预设消费者的身份,以数据统计的关联性代替因果关系对消费者个体进行分类和预测,使算法逐渐成为市场竞争规则的主导者;另一方面,算法技术的复杂化使消费者成为被技术操纵的对象,人的主体性危机开始呈现,市场上出现越来越多的对消费者难以解释的歧视行为和控制现象。然而,科技是有价值边界的,只有符合消费者普遍价值判断的技术才会被信任和接受。算法运行的逻辑是技术的更新迭代,法律运行的机理是人们的理性选择。从这个角度看,法律规范作为人类行为的规则指引,对算法歧视行为能够起到一定的规制作用。

(二)信息推送阶段消费者利益受损界定

这一阶段对消费者权利损害最大的是消费者的消费自主权。所谓消费自主权指的是消费者依照自主消费目的和自我判断的商品价值做出消费选择的权利。但在数字经济背景下,经营者特别是大型数字平台企业通过算法广泛搜集消费者个人信息,并对这些信息进行整理和分析,为消费者提供个性化、定制化服务。在服务的过程中,经营者会承诺尊重和保护消费者的消费自主权与数据权,声明算法具有绝对的中立性和客观性,从而诱导消费者将消费决策权移交给经营者。如搜索服务、新闻推送、交通出行甚至个人信息使用等均对经营者的算法决策有严重的依赖。技术推动下算法的自主性不断增强,作为理性主体消费者的自主性就遭到了削弱,相应权利就受到损害。在信息推送阶段,算法对消费者的购买历史及浏览记录等数据进行分析,推断消费者的消费喜好及最高价格承受力,继而对不同消费者实施个性化的信息推送。数字平台企业通过算法对消费者进行个性化定制服务,定时向特定消费者推送商品、服务等信息,不仅能迎合消费者的喜好,还关系到其他经营者的利益,因为算法能够决定哪个经营者的商品在排序中获得置顶或优先推送。在传统经济体系下,消费者与经营者之间的信息不对称是基于交易地位不同而形成的不对称。

消费者的消费自主权正常行使应当建立在信息来源渠道多元化的基础上,而算法推送的信息只是部分信息,极易造成信息“茧房”的存在,阻碍消费者自主权的行使[31]。随着自主学习技术的发展,算法系统甚至可以脱离消费者的身份信息、购买历史等信息,直接引导消费者按照经营者的销售思路做出消费决策。有学者曾经举例,如果百度地图上使用的算法并不关心用户的实际定位及目的地,而只是关注广告商期待用户途径或到达的地点,那么依赖百度地图出行的用户只能像木偶一样被牵着鼻子走[32]。从经营者角度看,算法决策越是契合其营销策略,经营者获得的利益就越大;从消费者角度看,算法决策越是契合经营者的营销策略,消费者的自主权就越会遭到削弱。

(三)定价阶段消费者利益受损界定

一方面,定价的算法歧视会导致定价过高。在定价阶段,算法系统通过搜集到的消费者个人数据,在定价机制中加入对经营者有利的指标或影响因子,剔除对消费者有利的影响因子或指标,最大限度提升消费者对最高价的忍受程度,并按照消费者的消费意愿确定具体的价格,促使交易额和交易量同时上升。个性化定价机制不仅侵犯了消费者的个人信息自主权,更是将原本属于消费者的剩余转移至经营者。在“Merciv.Siderurgica案”中,法院认为经营者向特定客户收取高价来弥补对其他用户低价造成的损失是不公平的[33]。

另一方面,定价的算法歧视还会导致垄断定价。通过算法主导的个性化定价机制能够使经营者在既有经营范围内获取较高的利润,经营者就没有太大的动力对产品或服务进行创新,相关产品或服务市场也会因此而变窄,最终导致市场集中度上升。当市场集中度上升后,算法会使经营者更轻易获得其他经营者的定价信息,使市场在经营者端变得日渐透明,一个透明且集中的市场环境会给经营者默示共谋创造条件。算法歧视推动了经营者之间默示共谋的达成,使其能够同时提高产品或服务价格。而随着市场的日渐逼仄,消费者难以利用价格作为工具进行对抗,只能接受经营者默示共谋达成的垄断高价,使消费者剩余整体向经营者手中转移。可见,定价阶段的算法歧视在剥夺消费者选择权的同时也削减了消费者福利。即便是在传统经济体系下,这种定价策略也被视为违法。在“DeutschePostAG案”中,德国邮政公司利用自身垄断地位故意拖延邮件的传送时间,从而将时间作为获取高价的资本,在法院看来,这种销售及定价策略明显违反竞争法,对消费者权益有较大的负面影响[34]。

五、算法歧视行为治理的核心要义

尽管数字经济中算法技术的价值得到各国的认可,数字经济发展也需要经营者以算法竞争来进行驱动,但算法歧视行为同样受到各国监管部门的关注。因此,判断算法歧视行为引发的权利冲突以及国内外的法律治理现状,对构建协同治理体系具有重要的意义。

(一)算法歧视行为引发的权利冲突

在信息搜集阶段,算法歧视行为使经营者的算法决策权与消费者隐私权之间产生冲突。一方面,经营者有使用算法自主决策的权利。如虽然法律并未禁止经营者使用人脸识别、声纹提取等技术为依托的算法来获取个人生物信息,但经营者未经消费者同意擅自偷录或偷拍获取消费者个人生物信息,就严重侵犯了消费者的隐私权利。如果根据偷录、偷拍的个人生物信息识别消费者身份并为此设定身份标签,无疑就侵犯了消费者的身份权,并可能造成消费者某些政治权利行使的不便。另一方面,经营者获取消费者的个人信息后,就与消费者形成了一种信息共享体系,但在获取收益时并未与消费者形成风险共担体系。经营者推送特定商品信息给消费者的前提是获得消费者的个人信息并就该信息进行加工分析,形成身份识别,而实际上,多数消费者只是提供信息并没有购买的意图或行动,而经营者不断推送可能对消费者购买决策形成“心理暗示”。另外,在向消费者提供商品或服务信息时,经营者还可以将搜集到的信息数据转售给其他经营者,进而获得不正当的利益。近年来,国内消费者个人信息泄露事件频发,如2022年至2022年间,考拉征信将1亿多条消费者的个人征信信息倒卖给他人,非法获利3800万元[35]。澳大利亚竞争委员会的一项研究报告显示,当消费者与经营者形成数据共享体系后,在消费者尚未受益时,大量的个人信息就有被泄露的风险,这是对消费者权利额外的损害[36]。

在信息推送阶段,算法歧视行为使经营者的营销策略权利与消费者的知情权、消费自主权发生较大的冲突。在公平市场环境下,任何消费者有知晓商品或服务真实情况的权利,同时也有遵从自我意愿、自主选择商品或服务的自由。如果从降低成本角度看,不能一概认定经营者的营销策略均会侵犯消费者消费选择权。当经营者向特定消费者推送特定商品或服务信息,同时还向该消费者推送不特定的选项时,这种情况下多数会侵犯消费者的知情权和选择权。如在网络版权交易平台中,平台以特定推送、热点排名、流量捕捉等手段进行网络作品推广,但在推广之前并未审查版权的合法性,[37]这就使消费者在购买这些网络作品时需要承担版权审查风险,同时在多数情况下平台还会将版权授权或许可的义务转嫁给消费者,从而规避平台自身的责任。在这种情况下,消费者的知情权受到限制(无法知晓平台是否获得合法的版权许可),同时选择权也受到影响(平台通过排名、流量捕捉等手段强制消费者决策选择)。

在定价阶段,算法歧视行为使经营者的市场利益与消费者福利剩余产生利益冲突。在算法主导的数字经济体系中,经营者因技术优势的存在使信息共享体系变成信息鸿沟,对不同消费者实施不同的定价机制,忠诚度高的消费者支付较高对价,潜在的消费者只需支付较低价格。在这个过程中,经营者实现了自身市场利益的最大化。在2022年召开的经济合作与发展组织(OrganizationforEconomicCo-operationandDevelopment,OECD)价格歧视圆桌会议上,美、日、澳等国家的竞争执法部门均表示,因为数字企业能够以算法较为精准地预测消费者的支付和购买意愿,使价格歧视在数字经济中得到广泛的应用,增加了经营者实施剥削性滥用的风险,进一步损害市场公平的竞争秩序[38]。可见,在定价阶段,算法歧视行为会使消费者的福利剩余与经营者的市场利益发生较大的冲突。

(二)我国权益失衡的分散治理模式

作为数字经济大国,我国始终对新业态和新模式持比较宽容的态度,在数字经济监管模式中秉持着传统的二元治理模式:通过市场竞争实现市场力量的制衡;政府采取事后监管措施。对于算法歧视行为,我国缺乏专门的立法予以规制,治理困境是明显的。2022年3月,工业和信息化部在《中小企业数字化赋能专项行动方案》中明确表示,要鼓励数字经济探索和发展新业态与新模式,鼓励算法产业的发展,建立算法产业市场体系。2022年7月,国家发展和改革委员会等13个部门联合印发《关于支持新业态新模式健康发展,激活消费市场带动扩大就业的意见》(以下简称《意见》),明确提出积极推动数字经济创新,加大算法产业发展,提升数字经济发展的质量与效率。在诸多产业政策的支持下,我国算法经济发展迅猛,经营者之间的算法竞争日渐凸显,算法应用场景不断拓宽。除产业激励之外,国家发展和改革委员会等部门在《意见》中还提出了要加大数字经济监管模式创新,健全监管体制机制。可见,从我国宏观政策层面看,对算法歧视行为涉及的消费者与经营者权利冲突的治理态度并不明朗。

在算法歧视行为的法律责任认定及救济措施等方面也存在一定的问题。首先,就立法层面看,现有法律法规治理的适用范围有限,适用效果有待检验。按照《中华人民共和国反垄断法》(以下简称《反垄断法》)第17条规定,实施价格歧视的经营者需具备市场支配地位,但认定数字企业市场支配地位较为困难。在部门规章中,2022年9月文化和旅游部出台《在线旅游经营服务管理暂行规定》,明确禁止在线旅游服务经营者滥用大数据分析等手段对消费者的购买记录、购买偏好设置不合理的交易条件。全国人民代表大会常务委员会2022年8月20日通过并于11月1日正式实施的《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)确立了“通知—使用”的保护框架;2022年2月,国务院反垄断委员会印发《关于平台经济领域的反垄断指南》(以下简称《反垄断指南》),明确禁止利用算法歧视行为实施不合理定价。在地方性法规中,2022年7月,深圳市人民代表大会常务委员会通过的《深圳经济特区数据条例》是我国第一个就数据立法的地方性法规,明确规定大数据经营者不得滥用大数据分析技术分析消费者的个人偏好、消费习惯,也不得就商品或服务设定不合理的交易条件。显然,从最近的立法看,对算法歧视行为的规制日渐完善,但立法内容相对分散,适用效果有待进一步检验。

其次,就适用形式看,因算法定位的特殊性,消费者公平交易权和知情权救济存在现实困难。按照《中华人民共和国消费者权益保护法》(以下简称《消费者权益保护法》)的规定,在公平交易权和知情权受到侵害后,消费者可以依照该法申请救济。然而,算法更多地是被定位为经营者商业竞争的工具而不是商品,不属于消费者知情的范围,消费者难以用知情权来对抗,经营者甚至还可以商业秘密为由进行抗辩。在司法实践中,“刘某与北京某某科技有限公司侵权责任纠纷案”中,原告认为美团利用外卖平台的市场优势及大数据个性化定价机制,对两份相同的订单实施不同的定价,由此侵犯了自身的公平交易权和知情权。湖南省长沙市中级人民法院二审认为,虽然原告两份订单是针对同一商家的同种商品,因下单时间的不同,美团平台按照平台交易量调整了配送费,致使两份订单原告支付的价格不同,但基于平台交易量的动态价格调整不属于个性化定价,是企业的正常经营行为,并未侵犯原告的公平交易权和知情权。[39]从这个案件可以看到,我国目前法律制度滞后,治理机制不完善,创新与限制、竞争与治理之间的边界不明确。

(三)欧美权益平衡的规制模式

1.欧盟基于个人数据赋权来消除差别待遇

欧盟一直重视个人数据权利,通过加强个人数据赋权来规制算法运行。算法系统的运行是以数据作为支撑条件,算法歧视实际上是经营者有意对消费者个人数据进行清洗和整合的过程。欧盟在治理算法歧视行为中,通过强化消费者的数据权利,使消费者有能力对抗经营者清洗、整合数据的过程。欧盟2022年出台的《通用数据保护条例》(GDPR)赋予了消费者个人数据的携带权、删除权、被遗忘权等,这些权利的行使可以帮助消费者消解算法自动化决策带来的影响,降低消费者遭受算法歧视的风险。欧盟算法歧视行为的治理模式本质是通过个人权利扩张抑制算法权力的扩张,特别是GDPR“数据清洁”条款中的差别待遇标准强化了算法歧视性的主观意图,将算法歧视行为实施的最终责任归结到经营者。[40]这种规则模式要求建立倒置式的举证机制,将实施算法歧视行为的举证责任交给经营者,一旦经营者不能证明基于合理理由实施算法决策,就可以认定其对算法歧视行为承担责任。然而,到目前为止,欧盟尚未就举证机制改革出台相关法律,消费者利用个人数据权难以证明经营者存在算法歧视。

2.美国追求结果正义的差别性影响标准

客观而言,欧盟赋权个人对抗经营者实施算法歧视,采取的是一种形式公平的规制模式。与欧盟相比,美国监管部门更注重算法实施的实质正义。按照这一思路,美国确立了保护“群体公平”的差别性影响标准的监管体系。美国在2022年出台《算法责任法案》,授权美国联邦贸易委员会(FTC)加大对影响交易公平算法的监督,要求算法使用者有披露算法信息的义务。在监管过程中,美国联邦贸易委员会要求算法的使用者在不影响商业秘密的情况下必须向消费者解释算法决策的过程,以减少算法歧视行为的发生。总体看,美国的这种监管模式注重结果正义,具有较好的借鉴意义,但差别性影响标准在适用上也存在一定的问题。第一,注重算法的群体公平难以实现算法结果的个体公平。在按照群体公平的标准实施监管时,算法技术依然可以通过个性化的信息分析及推送将商品或服务的相关信息进行定制化、针对性处理,监管部门只注重群体利益,针对个体的算法歧视难以得到有效限制。第二,差别性影响标准存在过多的豁免理由。在以差别性影响标准判断放贷机构是否利用算法歧视贷款者时,美国《公平住房法案》赋予放贷机构一定的豁免权。如在贷款人向放贷机构申请公开算法决策过程时,放贷机构如果能证明其拒绝放贷行为符合公共利益且不是人为因素造成,就不会被认定存在歧视行为。[41]按照前述标准,放贷机构的放贷决策多是根据其搜集到的贷款人数据做出的,如果放贷机构简单地以“非人为”等条件申请举证责任豁免,贷款人永远无从知晓放贷机构是如何利用数据和算法进行决策的,也无从知晓自身为何不能获得购房贷款。

六、算法歧视行为协同治理的路径

根据对算法歧视行为运行机制及利益冲突的分析,结合我国分散式治理模式存在的问题,借鉴欧美治理模式的相关经验,我国应建立消费者、经营者、行业组织、执法部门四大主体协同的规制路径。

(一)完善消费者选择退出机制

在数字经济背景下,经营者能够利用大数据、人工智能等技术手段搜集消费者个人数据,通过数据和技术鸿沟实施算法歧视行为。为弥补经营者和消费者在技术上的不对等,《中华人民共和国电子商务法》明确规定,数字经营者在提供个性化搜索服务时应征求消费者的同意,这就是消费者选择进入机制。《个人信息保护法》第24条第3款规定,通过自动化决策形式对个人利益造成重大影响的决定,个人有权要求信息处理者予以说明,并有权拒绝个人信息处理者按照自动化决策形式做出的决定。从现有立法看,消费者的选择进入机制表明在实施算法决策前,经营者需要征得消费者的同意,消费者必须具有知情权,即消费者选择进入与否必须以明示的方式做出。对于消费者而言,为获得正常的服务,往往会选择同意。特别是消费者对经营者的服务产生黏性后,即使在使用过程中遭受算法歧视,也往往不得不忍受。如在使用淘宝、京东等平台购物时,消费者只有点击同意平台搜集、使用个人数据后才能够正常利用平台进行购物。在明示授权平台收集信息后,消费者便没有途径要求平台(如淘宝或京东)停止算法决策及实施算法歧视。

消费者选择进入机制是一种事前程序,在事中没有退出途径和机会,而且授权同意后无法要求经营者停止使用算法决策或实施算法歧视。面对这一困境,欧盟GDPR规定,消费者有免受算法决策影响的权利。我国的《个人信息保护法》第24条也规定了个人有拒绝自动化决策的权利。就算法歧视行为的治理要义看,重点不在于规制算法运行的程序、条件或机制,而在于检验算法歧视行为这一结果与消费者数据授权的关系[42]。即当消费者授权经营者使用个人数据后,经营者利用消费者的授权数据对消费者实施算法歧视,此时消费者应有权要求经营者取消算法歧视,这是对抗经营者滥用算法决策最有效和最直接的方式。

实现前述方式的效果要求将选择进入机制改为选择退出机制,突出消费者决策的自主权和独立性。第一,在数据搜集阶段,消费者注册或首次使用应建立默示同意规则。如果消费者没有明确反对,就表示其同意授权经营者搜集个人数据;如果消费者明确表示反对,经营者搜集行为无效。第二,在数据使用阶段,经营者在进行算法个性化决策前,应向消费者做出精细的、具体的、明确的提醒,并为消费者退出提供明确的选项。如果消费者认为经营者的个性化算法决策可能使自己遭受歧视,消费者有权选择退出,并要求经营者删除搜集到的个人数据。第三,在消费者使用经营者提供的各类平台或软件服务时,法律应鼓励经营者公开个性化算法决策的依据,并鼓励消费者挑战可能存在算法歧视的个性化算法决策过程,以推进反算法歧视技术的进步。

(二)加强经营者算法技术内部控制体系建设

算法技术的广泛运用,对消费者个人数据权利带来极大的挑战。面对经营者滥用算法歧视行为,世界各国均极为重视通过技术建立相关的控制制度和体系。德国建立的个人数据保护顾问制度是经营者内部算法滥用控制的基本制度,对算法歧视行为的遏制起到了较好的作用。按照《德国反限制竞争法》第10次修订的规定,互联网经营者应设立专门的个人数据保护顾问制度,定期对经营者利用算法及数据的行为进行合规性审查及信息披露,确保经营者数据搜集和使用的合法性。[43]德国的个人数据保护顾问具有独立行使职权的能力,经营者的负责人不能对其独立行使职权进行干预。我国算法歧视行为在实践中广泛存在,在经营者内部控制机制建设上可以借鉴德国的个人数据保护顾问制度,要求达到一定经营规模或占有一定市场份额的经营者设立算法顾问岗位,聘用相关专业人员担任算法顾问,并保证算法顾问能够独立行使职权而不受经营者的干预。按照德国的经验,为加强对经营者技术创新及商业秘密的保护,算法顾问对算法运行及决策机制进行监督,其解释及汇报的对象仅限于竞争执法部门。算法顾问应拥有以下权力:

第一,监督数据处理的过程,提升数据处理的透明度。正如法谚所云“阳光是最好的杀菌剂,灯光是最好的裁判者”,对于算法滥用及歧视行为的治理,需要从源头上提升数据处理的透明度。算法歧视行为之所以能够产生并被广泛应用,关键就在于经营者对于个人数据处理的程序、方式及技术是封闭的,消费者无从知晓。因此,算法顾问的职责是向执法部门披露经营者算法设计和应用的初始数据来源、对数据处理加工的过程和标准。这样,执法部门在调查算法歧视行为时,就能够判定算法决策所依赖的数据从何而来,搜集、使用及分析的过程是否正当,从而保证执法的公正性。

第二,解释算法运行过程及决策机制。算法黑箱的存在使算法决策机制不透明,加剧了算法歧视行为发生的概率。如果仅仅只是公开算法决策的相关数据及依据,只能消除算法决策的神秘性。对执法部门而言,因技术障碍依然无法了解算法运行的过程,无法消除技术上的鸿沟。因此,一方面,算法顾问通过解释算法运行的过程,帮助执法部门消除算法运行的神秘性;另一方面,算法顾问应帮助执法部门了解算法决策的具体依据及规则,使执法部门知晓算法决策的整个过程。通过监督数据处理和解释算法,经营者能够在很大程度上洗刷其算法歧视的恶名,并有助于执法部门公正执法。

(三)赋予行业组织对算法的技术审查权

因算法黑箱效应的存在,消费者一般无从知晓算法运行及决策的过程,难以判断自身的数据权利是否遭到侵害。但对专业人员而言,了解算法运行及决策并不存在技术障碍。因此,由专业人员构成的行业组织比执法机构、消费者更了解算法,赋予其算法技术审查权是可行的,不仅审查效率高,而且成本也比较低。美国的《算法责任法案》规定,联邦贸易委员会在执法前,可以聘请独立的第三方技术机构对算法运行是否存在歧视问题进行审查,同时要求经营者必须如实记录算法运行的各项数据、决策规则及技术模型,以便于第三方机构快速审查。[44]我国在这方面可以借鉴美国的经验,赋予行业组织对算法的技术审查权,尽可能避免算法歧视行为的出现。具体而言,行业组织的技术审查权可以分为事前和事中两个部分。

第一,事前审查。事前审查可以在很大程度上防止算法技术不确定风险导致的算法歧视行为。从本质上看,事前审查的目的在于发现算法设计及运行的缺陷,即算法设计所依赖的指标是否对消费者权利产生不利影响或对市场竞争秩序造成负面作用。尽管有很多学者主张技术本身是中立的,在设计环节并不存在导致歧视出现的要素。事实上,即便技术是中立的,但技术的价值不是中立的,法律治理的目的是对技术应用做好价值上的引导。就实践看,算法技术被经营者应用于市场竞争,经营者的价值倾向对算法运行自然就产生了影响。如某互联网平台的信息推送算法被很多人质疑为恶俗、低俗,主要原因就是在算法设计时信息质量在指标体系所占的权重过低,而流量指标所占的权重过高,导致各类恶俗信息推送不断[45]。赋予行业组织事前审查权,可以较好地判定算法设计指标是否符合社会道德的基本底线。

第二,事中审查。事前审查更多地是考察算法设计指标是否存在漏洞,事中审查主要是看算法运行的模型是否存在歧视性的输出后果。与设计阶段相比,算法运行所产生的歧视更具隐蔽性,且技术指标更复杂,带有较强的经营者价值判断。如果算法在设计中带有歧视或偏见

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论