所谓算法偏见是指在没有恶意的程序设计中,却带着设计者或开发人员的偏见,或因采用带有偏见的数据而导致程序结果出现偏见(BIBO即Bias In, Bias Out)。
算法推荐也容易造成每个人信息孤岛效应,导致个人偏见增强,社会共识难以达成,造成社会群体之间的意见极端分化(经常看哪类新闻,就全部推荐哪类新闻)
2018年5月25日生效的欧盟《统一数据保护条例》(GDRR)就在1995年《数据保护指令》(Directive 95/46/EC)的基础上,进一步强化了对自然人数据的保护。《统一数据保护条例》不仅仅提供了一系列具象的法律规则,更重要的是它在“数据效率”之外,传递出“数据正义”(data justice)的理念,这也使其可成为我国可借鉴的他山之石。对数据进行合理规制要做到以下几点:
-
首先,尊重个人的选择权。当自动化决定将对个人产生法律上的后果或类似效果时,除非当事人明确同意,或者对于当事人间合同的达成和履行来说必不可少。否则,个人均有权不受相关决定的限制。
-
其次,将个人敏感数据排除在人工智能的自动化决定之外。这些敏感数据包括政治倾向、宗教信仰、健康、性生活、性取向的数据,或者可唯一性识别自然人的基因数据、生物数据等。这些数据一旦遭到泄露、修改或不当利用,就会对个人造成不良影响。而法律首先要做的,就是更加小心和负责地收集、使用、共享可能导致歧视的任何敏感数据。
-
再次,要识别和挑战数据应用中的歧视和偏见,“数据透明”就不可或缺。换言之,它要求在数据生产和处理日趋复杂的形势下,增强个人的知情权,从而修复信息的对称性。比如,在银行收集个人数据时,应当告知其可能使用人工智能对贷款人资质进行审核,而审核的最坏结果(如不批贷)也应一并披露。此外,由于我们都不是技术专家,因此,这里的“有用信息”不但应浅显易懂,为每个人理解,而且要有助于每个人主张自己在法律下的权利。
除了对数据的规制,对于算法的规制,需要强制实施算法技术标准和可追溯。目前的算法本质上还是一种编程技术,对技术最直接的规范方式是制定标准,而标准也是国家相关部门进行管理的最直接依据。
证监会姚前:警惕算法经济的隐含风险及作恶的可能
- 首先是算法滥用。算法规则的背后是商业利益。为了追求利益最大化,算法有可能违背社会公平、道德和人性,比如大数据杀熟,同样的商品或服务,老客户的价格反而比新客户要贵。只推荐给人们能潜在带来商业利益的东西,而不是最适合、最恰当的东西。可能
滥用人性弱点,过度激发、劝服、诱导客户,使人习惯于被喂养,不自觉地对算法投放的产品沉迷上瘾。只有算法逻辑,没有考虑人性,将人“异化”为简单的数据、商品和工具。算法的具体原理和参数只有运营企业的少部分人才能知道,有可能产生利益侵占问题。有的企业可能利用算法作恶,比如为了扩大流量,推送耸人听闻的虚假信息;推荐虚假产品。 - 其次是算法偏见。
算法的数据可能不一定全面,片面的数据得到的结果必然导致某种偏见。算法的设计者是人,算法设计师乃至企业管理者、价值观的偏见可能被嵌入算法。算法的“技术光环”容易让人盲从所谓的“科学”,但实质上有些算法却存在很大程度的不可解释性,比如类似“黑箱子”的机器学习算法;机器学习算法侧重于相关性分析,而不是因果分析,可能产生错误的勾连与判断;基于历史数据的机器学习算法隐含着“过去决定未来”逻辑,以历史宿命论定义和标签每个人,某种程度上也是一种偏见。 - 另外,
算法鸿沟也值得重视。算法通常是隐秘的,或是专利,或是商业秘密。即便公开,也因技术门槛,也不是每个人都能看懂。这就形成新的数字鸿沟。不懂算法的人群在利益受损时有可能并不知情,即便知情,也可能无力举证和对抗。