宿迁资讯网移动版

主页 > 社会 >

在算法“黑箱”天天基金净值表中保障用户知情权(2)

除此之外,加强对算法的人工纠正也很重要。2018 年 4 月 11 日,今日头条CEO 张一鸣发表公开信,宣布将强化总编辑责任制,全面纠正算法和机器审核的缺陷,不断强化人工运营和审核。今日头条一直强调算法推荐“并非把一切都交给机器”,会通过人工审核过滤劣质低俗信息,这一定程度上能减少这些信息的广泛传播。同样,Facebook除了依靠其强大的智能推荐系统分发信息之外,还建立起了人肉反馈机制,与算法一起构成完善的反馈及平衡机制的系统,提高推荐的精准性。

三、通过算法解释权保障用户知情权

增加算法透明度是国内外应对算法“黑箱”侵害公民权利时的共识,但也可以看出这种方法只能作为事先监管的手段,而无法对已经受到自动化决策损害的人提供救济。对此,欧洲最先做出了重要举措,2018 年实施的《欧洲通用数据保护条例》(GDPR)第 22 条规定:“应该采取适当的保障措施,……保证数据主体获得对此类评估之后达成的决定的解释,并对决定提出质疑。”表明欧洲在保障公民算法解释权上的探索。

算法解释权是指当自动化决策的具体决定对相对人有法律上或者经济上的显著影响时,相对人向算法使用人提出异议,要求提供对具体决策解释,并要求更新数据或更正错误的权利[5]。其目的是让相对人有权知道对其不利的决定是如何做出的,以便在确有算法歧视和数据错误时提供救济。

算法解释权是矫正信息不对称性的重要手段。在智能化时代,数据鸿沟成为造成人和人之间不平等的根源之一,数据鸿沟导致了人和人之间知识、信息获取和掌握的不平等。自动化决策虽广泛应用于信息分发,但知晓算法知识者寥寥,这种信息不对称堪称“黑箱”。与网络服务商相比,用户处于一直不平等的地位,因此需要为用户提供算法解释权,对自动化决策中的信息不对称进行有效纠偏,使得信息从信息优势方向信息劣势方流动,从而达到双方平衡。

四、结语

算法的治理是人工智能时代的重大法律问题,需要同时设置事前的风险防范机制和事后的问责制进行监管。现在的研究多为事先风险防范机制,即通过提高算法透明度,健全法律监管,提高用户媒介素养等对算法进行有效监管,而对于算法的事后监管问责方面的研究则较少。以算法解释权为代表的算法问责制更能为受到侵害的主体提供帮助和救济,也能有效分配权利和义务。 对一个个具体受到自动化不利决策的个体来说,算法解释权可以彰显个案中的公平和正义[5]。

参考文献:

[1] 刘存地,徐炜.能否让算法定义社会——传媒社会学视角下的新闻算法推荐系统[J].学术论坛,2018(4).

[2] 李普曼.公众舆论[M].上海:上海人民出版社,2006.

[3] 许幼飞.如何戳破“过滤气泡”算法推送新闻中的认知窄化及其规避[J].新闻与写作,2018(9).

[4] 王春晖.人工智能的伦理、法律与监管闻[J].互联网天地,2018.

[5] 张凌寒.商业自动化决策的算法解释权研究[J].法律科学(西北政法大学学报),2018(3).

(责编:宋心蕊、赵光霞)

(责任编辑:admin)