智媒算法透明度意涵阐释与合理定位
2020-10-28 20:31:44
  • 0
  • 0
  • 0

来源: 新闻记者  原创 徐琦

当前国内外对新闻媒体透明度的探讨和实践才刚起步,理论界对算法透明度却抱以厚望,认为打开算法黑箱就能解决一切问题。本文通过对透明度的理论溯源和智媒算法透明度的意涵辨析,提出算法透明度并非智媒治理的充要条件,它只是一种要负责任地加以善用的辅助性工具,其使用取决于透明度目标、对象及方式,更要理性评估其风险和局限。打开算法黑箱远不足以应对智能媒体算法治理中价值观导向纠偏、平台主体责任履行、用户主体权利保护等重大挑战。智媒治理更要跳出技术视角,将算法治理置于网络信息内容生态中去动态考察各行动主体间的持续博弈,着重考量算法所引发的、以权力配置为代表的社会关系变化,通过政府规制、平台自治和社会共治来协同推进智媒算法治理。

一、问题的提出

算法一词源自9世纪波斯数学家al-Khwarizmi,起初是个数学概念,意为阿拉伯数字的运算规则。随着计算机的发明及计算机科学的发展,算法被贯穿于计算机程序设计之中,发展成为计算机科学的基础与核心。现代算法已经从单纯的解题步骤演变为用计算机解决某一类问题的精确、有效的方法,即“在给定输入条件下实现特定目的的有限、抽象、精确、有效的复合性数学控制结构”(Hill RK, 2015)。

算法融入新闻业大致可追溯至2010年前后,算法在计算机科学和传播实验室被开发出来用于新闻写作,这打破了“创作新闻是人类所独具的一种能力”的传统观念(Latar et al., 2009)。随着近十余年来媒体智能化的不断深化,算法从赋能生产逐步渗透至新闻采集、生产、分发、接收、反馈的全链条与全环节。机器人写作、算法策展、个性化内容推荐、精准营销、智能舆情等领域都离不开算法技术的支撑。拥有算法优势的互联网平台出现媒体化发展态势,传统媒体启动算法研发推动智媒平台化升级,由算法驱动的智能信息平台已成为当前社会核心信息的主流传播渠道。

以算法为内核的智能媒体得以高速发展的同时,我们必须警惕新闻实践中隐藏的算法风险及其社会影响。算法应用不仅会冲击新闻客观性与公共性等核心价值,算法权力异化还会影响个体自治,侵害主体权利,甚至带来动摇政治格局和社会稳定等严重后果。新闻业对算法风险的警惕引发了一系列关于算法透明度的讨论,部分媒体机构开始尝试推动算法信息公开,如ProPublica发布了新闻调查统计方法白皮书,BuzzFeed、FiveThirtyEight等通过GitHub开源其数据新闻项目,《纽约时报》通过“开放”专栏共享新闻技术文章,BBC通过学术论文介绍其算法工具细节等。国内的算法价值观讨论一度成为全民话题,舆论监督倒逼头部商业互联网平台公布更多算法信息。与此同时,新华社、人民日报社、中央广电总台等新型主流媒体先后创建人工智能编辑部,力推主流媒体算法创新发展。

整体来看,目前国内外关于新闻媒体算法透明度的讨论和实践仍处于萌芽阶段,暂无行业公认的新闻透明度标准规范或指导意见出台。尽管关于新闻媒体算法透明度的讨论尚无定论,其实践也无执行标准,但国内学界却常常给予算法透明度以过于乐观的期望。很多学者提出治理算法就必须首先打开算法黑箱,让黑箱内部对外透明。部分学者甚至认为一旦算法透明,算法治理问题就能迎刃而解。与不绝于耳的算法透明呼吁形成鲜明对比的是,国内鲜有研究去辨析算法透明度的真正意涵,更少有结合新闻业的具体语境去探讨媒体算法透明度到底要解决什么问题、包含什么内容、具体如何运用,智媒算法透明度带来的增益和局限究竟何在,以及算法透明度是否能真正解决智媒治理中的关键问题。笼统模糊的透明度主张并不能解决智媒发展中的实际问题,为此,本文将针对以上问题逐一探讨,试图阐明智能媒体算法治理中的透明度的真正意涵并确立其合理化定位。

二、透明度与智媒实践

透明度并非新概念,对于透明度的研究正随着通信网络和数字技术的迅猛发展而不断深化。近年来算法应用日益融入各行各业,社会各界对于算法问责、算法规制、算法治理等问题的关注持续上升,推动算法透明度成为讨论焦点。

1.透明度

无论是在政治学、经济学还是法学领域,透明原则早已成为现代政府规制的一条基本准则。早在19世纪中叶,杰罗米·边沁和约翰·斯图尔特·密尔等思想家就针对性地讨论过透明原则。透明原则也逐渐发展成为西方自由主义理论的一部分。直至近现代,如德里希·哈耶克和约翰·罗尔斯等自由主义理论家无一例外地受到这些讨论的影响。在这些西方思想家看来,基于透明原则的民主政治带来两大根本助益:其一,它可以增强公权力机关的可问责性;其二,它可以保护公民的知情权,保护公民免遭专权独断。民主政治语境下的透明度原则多针对公权领域而言,它的前提假设是信息易于清晰辨识,民众能完全理解所有公开信息且可通过行动来改变未来,这属于一种传统的观点自由市场的启蒙思想。

从更广泛的范围来看,透明度服务于实现某种控制目标的观察和认识系统,它很大程度上已成为“调节行为并改善组织和社会事务”的一种验证性工具。透明度包含三层广义隐喻:作为社会力量对抗腐败的公共价值,作为政府和非营利组织的开放式决策,以及作为实现善政的复杂工具(Ball, 2009),其整体目标是为了创建负责任和高效的系统。透明度必然要求访问更多信息。获取更多信息可以减少社会关系中的不确定性,增加信任度,这对于维持社会功能运转至关重要,但同时也会影响到政府与公民、企业与客户之间的权力关系,甚至产生削弱竞争优势、增加额外成本等负面影响。

2.新闻媒体透明度

实际上,在算法技术深度渗透至新闻传媒业全链条之前,各国新闻媒体机构就已开始践行透明度主张了。透明度被视为“让新闻界内外都有机会来监督、检视、批评甚至干预其运行的一种方式”(Deuze, Mark, 2005)。理解新闻媒体行业中的透明度及其价值,可以从三个视角切入。

视角一是将透明度视为新闻实践的伦理规范,目前多数关于新闻媒体透明度的讨论都是基于这一视角开展的。有学者提出新闻媒体透明度是发现社会真理的重要机制,因此透明度既是一种问责制度,同时也是增进公民合法权益的一种方式。透明度构建了一种“全新的客观性”(Weinberger, David, 2009),“为公众判断某种新闻类型是否值得信赖提供了依据”(Kovach, Bill, Rosenstiel, 2014)。但同时也有研究显示许多新闻工作者尚未接受透明度这一规范,他们更倾向于将客观性作为新闻实践的根本原则(Hellmueller et al., 2013)。在美国,透明度已然上升到新闻文化核心伦理规范的层面,美国职业记者协会(SPJ)、波因特学院和广播电视数字新闻协会(RTDNA)等已将透明度视为专业记者的新核心价值。

视角二是将透明度视为新闻机构累积信誉、应对挑战的重要方式。支持者认为透明度可以有效解决新闻业面临的危机,尤其是新闻机构权威性下降和信誉度丧失(Hayes et al., 2007)等。但也有学者对此表示怀疑,认为新闻业会因为透明地披露错误和失败信息而失去权威性(Broersma, Marcel, 2013)。综合各方研究来看,目前尚未找到有力证据表明透明度会影响受众对新闻机构的信誉认知。

视角三是将透明度视为新闻机构的商业战略考量。有学者认为展现公司如何做事比公司实际生产更加重要(Holtz et al., 2009)。当下透明度已经成为企业不可忽视的力量,由透明度举措驱动的负责任行为和企业诚信能带来实质性的经济影响。很多机构通过发布公司社会责任报告来践行透明化,通过对外展示公司善治善举来提高机构声誉。从实践来看,公司透明度举措包括提供与领导层接触的机会、披露成功和失败信息及倡导符合伦理规范行为等。但实际上,很多公司通过扭曲、偏见或隐藏等手段来实施策略性透明,这种策略性透明并非理想意义上的透明度,有时甚至会遮蔽真相,却有利于外部建立起对公司的信任感和正面感知。

3.新闻媒体算法透明度

最近十年来,人工智能技术逐渐渗透至新闻生产与消费全链条与全环节,全球媒体智能化进展显著提速。智能媒体应用创新离不开算法技术的支撑,而算法在帮助新闻机构大幅提效降本,提升内容优势及商业竞争力的同时也引发了诸多社会问题及巨大风险。

其中最受人诟病的当属算法新闻的伪中立性。算法看似中立却隐含偏见,甚至包藏歧视。算法偏见源于技术诞生时既存于“社会制度、实践和态度”中的价值取向与技术条件约束以及应用场景中的利益结构(Friedman, Nissenbaum, 1996)。算法偏见常以隐蔽的方式体现社会价值取向,例如算法设计中的类型化和标签化思想,就很容易固化“人以群分”的社会偏见。算法新闻生成过程同样会嵌入偏见,无论表面上看多么客观,实际上依旧只是一个被精心打造的幻象。而这些嵌入到算法中的价值观、偏见或意识形态会影响社会公众的行为以及公正、无偏见的信息获取(Gillespie, Tarleton, 2014)。算法歧视的影响则更进一步,可能对个体或群体造成不公平结果和不利影响。

算法实践不仅冲击了新闻客观性与公共性等核心价值,更严重影响了政治格局和社会稳定。桑斯坦曾明确指出用户个人选择的网络传播通过无限信息过滤破坏了公共生活本该具有的文化多样性,使得新闻媒体大众涵化功能严重退化,催化了社会意见极化和共和政治危机(Sunstein, 2007)。算法过度个性化加剧了过滤气泡效应,算法新闻更关心个体想要知道什么,而非个体应该知道什么,这破坏了民主生活中的公共性追求,危及民主的公共生活基础。另一方面,算法还会加剧社会数字鸿沟,社会极化结构性风险不断累加。更严重的是,算法在社交媒体、数据挖掘、预测搜索、数字监视等方面的应用正在推动公众权力向技术力量转移,机器人参与竞选、“剑桥分析”事件等利用算法干预国家政治的丑闻频频爆出,算法风险不容忽视。

正是由于新闻媒体算法应用中隐藏着巨大的社会风险,对算法实施监管尤其必要,而让算法决策透明已成为多项智媒治理提议之一。国际学者们研究过算法信息公开在不同应用与不同环节中所发挥的作用,如推荐系统、个性化、排名、评分等。这些研究表明,推荐系统中的算法解释可以增强对特定推荐结果的接受度(Cramer et al., 2008),改善用户对推荐质量的印象,但同时也会降低用户体验。违背用户期望是导致寻求更多信息披露的动力,它是程序透明对增加信任影响的调节剂(Kizilcec, Rene, 2016)。新闻媒体算法透明度是通过公开算法相关信息来阐明算法机制的一种尝试。由于公开算法如何驱动各计算系统中的信息能帮助用户确定新闻中的价值、偏见或意识形态,因此也有学者认为算法透明度是鼓励观点表达的新闻环境中的理想选择(McBride et al., 2014)。

三、智媒算法透明度意涵阐释

对于智媒治理而言,算法透明度到底意味着什么?要回答这个问题,我们必须阐明算法透明的目标、对象、内容和方式。为此,下文将结合新闻业的具体语境去逐一解析为何透明、对谁透明、什么透明以及如何透明四个关键问题。

1.为何透明?

算法透明度并非为了满足无聊的好奇心,而是为了实现与问责和治理相关的重要社会目标。算法透明度首先要回答为何透明,即透明度究竟要实现什么目标。通常而言,算法透明度目标包括:①检查影响算法系统公平性的数据和算法偏差,而检查数据和算法的机制、成本和影响不尽相同;②核查算法系统数据输入是相关的、具有代表性的;③从机器分析中寻找之前未意识到的有意义关联;④寻找并修复算法系统缺陷;⑤警惕恶意/对抗式数据输入。

对于新闻媒体而言,算法透明度的关键目标不仅在于提升算法系统的绩效与健壮性、提高新闻产品与服务效率,更与新闻媒体公共性的构建息息相关。受到不同社会时期文化、制度、思想等因素以及传媒业规模、结构、竞争与产业内生性要求等因素的复杂影响,公共性内涵与外延是流动的。从苏格拉底到汉娜·阿伦特、哈贝马斯,再到查尔斯·泰勒、约翰·B·汤普森、南茜·弗雷泽、约翰·罗尔斯等学者,公共性的内涵与外延不断演变。尤其是在信息技术的冲击下,传媒公共性也从早期信息、教育与娱乐定位转变为以公民和社会获取多元信息为导向,公共服务的政策理论基础和价值理念也由关注公共利益转向关注个人利益,公共性在以“消费者至上”为特征的信息与服务中体现出来。在当下语境中,新闻媒体公共性可概括为产品多元化、意见多元化和应用多元化(刘斌,2020)。

因此,除算法透明度通用目标外,智媒算法透明度的关键目标更在于检视算法系统中的价值观、偏见或意识形态偏差及纠偏,发现并应对算法决策对社会公众信息获取、个体信息隐私权及其他主体权利的不利影响和不公正结果,监督新闻机构更好地履行平台主体责任和社会责任等。

除了具体目标透明外,算法目标体系中不同子目标之间的优先级同样也需要透明度。在新闻媒体实践中,算法技术不仅被应用在内容产品中,同样也被用于营销体系中。在算法目标体系中,用户体验目标和商业绩效目标可能存在冲突,那么只有公开不同目标的优先级才能揭示算法整体目标体系的真正焦点。而提供目标体系的透明度,才能让监管部门根据算法系统目标设定和实际运行结果来衡量和监管算法。

2.对谁透明?

算法透明度通常伴有成本和风险,因此对谁透明、为谁透明就非常重要。在考虑透明度监管时,潜在对象及方式包括:①让所有人了解完整的数据、算法和结果等;②向政府监管人员透明;③向具备资质的第三方研究机构透明,产出的研究结果可以选择公开或保密;④向特定研究人员或专业人士透明,这可能仅限于隶属于经过认可的组织机构的人员。

对于新闻媒体而言,其算法透明度的潜在对象主要包括四类,他们可能出于不同需求而诉诸透明度:其一,使用新闻媒体产品及服务的用户,他们出于用户体验、隐私保护、数据保护等需求会提出透明度要求;其二,营销服务客户,他们出于营销效果评估需求会提出透明度要求;其三,媒体监管部门,他们出于行业监管目标会提出透明度要求;其四,广泛的社会公众,他们出于社会监督的考量可能会提出透明度要求。

3.什么透明?

通常而言,算法决策系统透明度可能会涉及代码、逻辑、模型、目标、决策变量或其他能够决定算法运行的一个或多个方面。和传统民主政治语境下的透明原则的前提假设不同,算法信息难以被普通民众完全理解,公开算法信息也不必然导致算法决策结果的改变,因此,算法透明度的重点并非算法系统内部完全透明可见,而在于算法决策的可解释性与可问责性。立足当前阶段国内外智能媒体算法应用的实际进展,我们可从流程与系统两大视角去理解算法透明度对应的复杂内容。

从运行流程来看,算法运行实际上是“数据输入馈送到系统→模型转换→推断并输出结果→通过交互界面呈现给终端用户”的过程。因此,准确理解特定算法的运行流程就需要获得数据、模型、推断与界面四个层面的透明度(Diakopoulos, Koliska, 2016)。

流程视角下的智媒算法透明度内容主要包括:①数据层面:数据是算法系统运行的基础,数据层面透明度包括信息质量,如准确度、不确定性、时效性、完整性等,抽样方法、变量及其定义、数据来源、训练数据规模、数据收集前提假设、个人敏感信息去除等;②模型层面:建模是算法系统的关键,它基于数据进行预测、排序、关联或分类来构建简化或优化的现实世界。算法模型到底在优化什么,如何加权不同特征,具体使用了哪些模型和建模工具,其中嵌入了哪些假设或限制,这些都是算法模型透明度的重要内容,包括输入变量及特征、优化目标变量、权重、模型类型、建模软件、源代码、影响模型的人工因素、内嵌规则等;③推断层面:算法流程输出的推断结果经常引起对错误率、不确定性和准确性的疑问,因此公开推断类型是很有必要的。推断层面透明度包括推断类型、准确度基准、错误分析及补救标准、置信区间等;④界面层面:任何算法透明度信息最终都需要以可视化形式体现在用户交互界面上,因此界面透明度设计非常重要,具体包括以何种方式标记或提示用户正在使用基于算法的新闻产品与服务,有哪些算法个性化设置选项,是否允许用户切换算法或非算法选项,以及如何引导用户参与来影响输入和权重的可调整性等。

然而,单一算法运行流程透明度累加起来并不等于算法决策系统的整体透明度。由于大型互联网应用的系统架构通常比较复杂,且集成了多类算法和不同计算模块,因此,算法决策系统层面的透明度还会涉及业务目标和系统内外部关系等关键信息。对于大型新闻资讯平台而言,不同算法模块被集成在算法中台和后台,以面向不同业务场景提供算法支撑。其中,算法中台层主要包括用户画像算法、内容处理算法、搜索算法、推荐召回算法、推荐排序算法等;算法后台层则包括自然语言处理底层算法、搜索基础算法与分布式机器学习框架等。算法中台不仅能支持内容个性化推荐,同样也可应用于机器人写作、辅助采编、算法策展、精准营销等业务场景。综上,算法这个抽象概念实际对应着多类复杂算法的集合,仅提供单一算法模块的运行信息并不能解释特定算法决策是如何被做出的。

以图1中典型的内容推荐系统为例,多类算法被集成在不同模块中,离线近线层进行内容处理和用户画像时会使用算法,在线层进行召回、粗排、精排时同样会使用多类算法。不仅如此,系统中很多模块都集成了机器学习算法,而机器学习算法可解释性很差,让它完全透明缺乏可操作性。因此,从全局来看,智媒算法透明度不仅需要“看进去”,同样需要“看出来”,更应去考虑算法决策的整体目标、不同算法模块之间的关系,算法系统与其他系统构成之间的关系,以及算法决策系统整体运行的外部影响等诸多因素。

系统视角下的算法透明度内容主要包括:①目标透明:算法决策系统目标体系设定需要透明度,尤其是存在多重目标时,不同目标的优先级也需要透明;②结果透明:算法系统部署结果要保持透明,包括系统内部状态,对外部系统的影响以及与其他系统的交互等;③影响透明:算法系统运行过程中是否有任何因素会倾向某一特定结果,而算法系统设计者或运营者是否明确标记了这种影响及其潜在后果;④合规性透明:合规性透明是一种重要的程序性透明,算法系统设计者或运营者可能被要求对算法系统整体合规性保持透明度,具体可通过提供合规性报告的方式便于监管机构或公众进行监督检查。

4.如何透明?

综上可知,算法透明度的意涵非常复杂,它绝不是非黑即白的二元对立主张,并非只有完全黑箱和完全透明两种选择。它可能意味着应公众或授权部门要求进入系统,公开算法相关信息,直接检查系统内部流程;可能是指由专业机构对算法系统进行准确度和公平性测试并提交测试结果,或针对特定子系统及数据进行授权测试并将结果提交监管机构;也可能只是让算法科学家或系统设计者对外解释说明算法系统的工作原理及运作流程等。透明度并非适用于每个系统,算法透明度的使用需要综合考虑系统性质、治理目标和治理背景等复杂因素。

在确保负责任地开发和使用算法系统以改善人权和造福社会的背景下,透明度是一种工具。如何使用好透明度工具,取决于透明度目标、透明度对象,以及算法系统流程中哪些层面、要素需要透明度。

因此,算法系统透明度可以是全局的,即寻求对任何类型输入的系统行为的洞察,也可以是局部的,即寻求解释特定的输入输出关系;算法透明度可以是基于事件视角的,即定义透明度对象的输入、输出和结果,也可以是基于过程视角的,即界定透明度的组织规则、体系和程序;算法透明度可以是基于回溯视角的,即定期回溯或事后透明,也可以是实时透明的,即始终允许连续检视的;算法系统可以是向上透明的,即允许上级观察到下级或下级代理人的行为及结果,也可以是向下透明的,或者是对内透明的,即机构内部可以观察运行状况,也可以是对外透明的,即允许外部查看内部的运行状况;算法系统透明度可能模糊,即所披露信息并不足以揭示实际运行状况,或名义上公开但所公开信息却并不完整可靠,也可以是清晰的、具备解释力的有意义的透明;算法透明度可以是服务于硬性监管目标并具有强制执行力的,也可以是服务于软性监督目标的……总之,不同透明度目标、对象和重点定义出不同的透明度方案,透明度绝不等于公开源代码,透明度工具的使用方式是非常复杂的。

对于智媒发展而言,不同的治理目标需要设计不同的透明度方案,而透明度工具在实现不同治理目标中所发挥的作用也不尽相同。例如,如果治理目标是检视算法模型中用户敏感信息的使用,那么就需要获得数据层面的透明度,特别是用户数据来源及合法性,以及具体的处理规则和使用情况等。在这种情形下,算法系统透明度是局部的,是基于事件视角的回溯,是需要对外透明的,同时是服务于用户信息隐私权保护等监管目标的。但如果治理是针对智媒价值观纠偏这种复杂目标提出,那么哪怕提供数据、模型、推断和界面四个层面的透明度可能也无法形成全局洞察。在这种情形下,一方面,算法系统的运营者和所有者缺乏行动激励去配合代价高昂的全局透明度检视,算法透明度难以被彻底执行。另一方面,政府监管、企业“吹哨人”、媒体监督等能形成更强大的问责力量,可以从外部推动智媒治理目标的实现。

以一度引起全民关注的推荐算法价值观大讨论为例。2017年9月起,《人民日报》连续发文三评算法推荐,严肃指出以今日头条、一点资讯为代表的智能新闻客户端存在价值观缺失、制造信息茧房、阻碍创新等问题。2018年1月,今日头条首席算法架构师曹欢欢博士首次对外分享了今日头条推荐算法的基本原理、算法模型设计与算法策略。这次分享让外部对处于舆论风暴中心的今日头条算法系统有了初步了解。但遗憾的是,这次算法透明尝试并未解答广大用户对于推荐机制的诸多疑虑,也未推动实际追责举措的施行。同年4月,国家广播电视总局责令永久关停“内涵段子”客户端软件及公众号之后,今日头条创始人兼CEO张一鸣才正式发表致歉信并启动一系列整改措施。在这次风波中,舆论监督和政府规制对督促算法平台企业履行平台监管责任和社会责任起到了关键作用,而非算法信息透明。

四、智媒算法透明度的增益与局限

透明度是一种需要负责任地使用的工具,这意味着要对使用透明度的复杂背景保持敏感,对透明度的增益和风险进行审慎评估,并且对透明度的替代方案进行开放式探讨。以下我们将重点讨论新闻媒体中的算法透明度会带来哪些增益,又存在哪些局限和风险。

1.算法透明度的理论增益

从理论层面来看,智媒生态的多方参与者都对算法透明度带来的增益抱有期待。对于使用新闻媒体产品及服务的用户而言,提供必要的算法解释可以一定程度上改善用户体验,增加算法透明度有助于保留用户对所获取信息的选择权,强化其对自身信息隐私权的关注与保护。对于媒体营销客户而言,算法透明度有利于增强智能精准营销的可解释性和可信度,进而帮助企业优化营销策略提高投入产出比。对于监管部门而言,算法透明度有益于提高算法系统的可解释性,算法透明度举措和其他治理方法的协同实施可增强智媒机构的可问责性,达成督促智媒机构开展自律自治,更好地履行社会责任的目标。而对于社会公众而言,算法透明度有利于帮助社会公众理解传媒业的发展趋势和最新进展,监督传媒业更好地发挥大众涵化功能,营造健康清朗的网络空间。

值得注意的是,实现算法透明度增益存在关键前提假设,即能够通过合理方式建立起有意义的算法透明度。然而,正如下文即将要论证的,实现算法透明度增益理想的成本和风险都很高,建立有意义的算法透明度非常困难。

2.算法透明度的现实局限

与算法透明度带来的理论性增益相比,算法透明度的成本、风险等现实局限则要突出得多,在智能媒体领域同样如此。出于商业机密、专利保密、隐私考虑,以及避免恶意操控等考虑,媒体算法信息常常被刻意不予披露,完全解锁“算法黑箱”难度极大。

首先,算法透明度技术门槛很高,建立有意义的理解难度极高。从技术特性来看,算法本身是高维数据、复杂代码和可变决策逻辑的产物,其突出特点就包含了不透明性和不确定性。尽管目前可以通过第三方系统代码审查、系统与数据测试、逆向工程等途径来获得一定程度的透明度,但难度和代价依然高昂并缺乏行动激励。

加之,在当下媒体智能化实践中,领先平台已经开始大规模使用深度学习技术来支撑各种智媒应用,这更加剧了智能媒体算法透明度的挑战难度。由于深度学习采取了完全不同的算法开发方法,它基于数据建立模型来学习样本数据的内在规律和表示层次。因此,对于机器学习而言,算法透明度用处不大,模型可解释性才是关键。但目前机器学习算法只能做到表达训练模型或决策原理的有限程度,在运行过程中可能会产生人类训练者自己都无法提供算法表示的输出。同时在很多应用中,机器学习模型需要持续高频更新以灵敏捕捉数据变化趋势,对特定时间点的模型解释并不能揭示系统整体运行状况或代表未来趋势,持续学习加剧了对算法透明度和可解释性的挑战难度。

第二,算法透明度受到私权保护制度制约。算法透明度将不可避免地带来信息披露,而在遍布私主体信息的当代社会,信息披露将很可能与私主体权利,尤其是个人隐私、商业秘密和知识产权相冲突。算法信息披露可能会涉及个人隐私、商业机密和知识产权,此类信息披露势必受到隐私保护、商业秘密保护、知识产权保护等法律法规的制约。事实上,在欧美已有的算法司法裁决中,言论自由、商业保密和知识产权保护就是互联网信息平台企业用来对抗算法透明度的惯用抗辩理由。例如,在法律上,商业软件的逆向工程是被商业秘密和版权法规所禁止的,如美国《数字千年版权法案(DMCA)》就明令禁止这种行为,即使是算法问责,即记者出于公共利益对于商业算法开展逆向工程也难以免责。

第三,算法透明度成本高昂。对于监管机构而言,算法透明度需要监管机构雇佣专业人员去开展相关监管工作,监管成本随之提高。对于算法系统的拥有者或运营者而言,算法透明度需要在机构内部创建和维护监管机构要求的透明度流程和监督机制,企业合规成本非常之高。而对于个体而言,算法透明度可能会对个体获取和理解算法系统信息及追责行动带来巨大负担。这种“新自由主义的个体能动性”假设人人有能力获取和理解算法所有信息并开展有意义的讨论,但绝大部分个体并非专业人士,很难获知有意义的算法理解,同时,个体和算法系统之间持续存在着巨大的信息不对称和权力不对称,这种放权给个体去监督算法系统的理想实际上并不可行。

第四,算法透明度可能有害。和大多数人的直觉相反,算法透明度的好处存疑,却可能在多方面造成严重伤害。算法透明度可能会导致个体隐私数据暴露和信息滥用,导致个体主体权利受到侵害。算法透明度可能会引发恶意操控,其中包括利用算法特性作弊产生的不正当竞争行为,也包括恶意黑客入侵系统开展不法行为等。例如利用个性化推荐系统变量特征及权重信息批量制造“爆款内容”会对高品质新闻造成传播打压,又如内容农场、钓鱼网站、恶意代码网站等可利用算法规则来提高排名,恶意黑客还能通过数据接口盗取个人信息等。对于绝大多数普通用户而言,即使在最极端的透明情形下,完全公开算法代码也无助于建立有意义的理解,却有可能给恶意系统攻击或不正当竞争提供捷径。

五、智媒算法透明度的合理定位

基于前文对透明度的理论溯源以及对新闻媒体算法透明度的目标、对象、内容、方式、增益和局限的深入阐释,我们可以得到以下结论:新闻媒体算法透明度不是笼统模糊的主张,这种振臂一呼式的呼吁并不能解决智媒发展中的任何实际问题;新闻媒体算法透明度不等同于简单粗暴地公开源代码,这种极端透明的风险巨大而增益不明;新闻媒体算法透明度是一种需要负责任地加以善用的治理工具,其使用取决于透明度目标、对象以及算法系统流程中哪些层面和要素需要透明,同时需要理性评估透明度带来的局限和风险。

作为一种治理工具,智媒算法透明度的使用是复杂的,也是受到诸多条件制约的。智媒算法透明度的使用甚至会陷入困境。一方面,算法透明度主张容易滋生“要么黑箱,要么透明”的二元对立思维,这会带来对算法透明度的局限和风险的忽视;另一方面,打开“算法黑箱”难度很大,更关键的是,让内部可见并不等于可知与可理解,过度追求透明可见还会助长不切实际的“透明幻觉”(Heald, 2006),误导人们相信只要透明就能让系统行为负起责任来。但事实上,算法透明度工具的使用异常复杂,而且代价高昂、局限众多,算法透明度甚至不必然增强责任,带有强烈本质主义色彩的算法透明,在可行性和必要性上都存在瑕疵(沈伟伟,2019)。

综上可知,算法透明度并非智媒治理的充要条件,其作为算法治理辅助性工具的定位才更加合理。对于智媒算法治理中价值观导向纠偏、平台主体责任履行、用户主体权利保护等关键治理目标而言,光靠解释算法系统内部运作流程是远远不够的。践行智媒算法透明度可从技术哲学进路来把握,采取“算法集”的间性思路来理解(仇筠茜,陈昌凤,2018)。导致“算法黑箱”的“算法集”不仅仅是一行行程序代码,还包括智媒算法设计者及运营者、智媒算法的使用者、赋能者、监管者、社会公众等人类主体,算法技术、制度环境等非人行动者,以及上述所有行动主体相互作用所形成的联动机理。因此,突破智媒算法透明度困境不能单靠一味追求对算法技术的本质解释,更需要跳出算法系统的技术视角,将算法治理置于网络信息内容生态中去动态考察各行动主体之间的持续博弈,更应当着重考量算法所引发的、以权力配置为代表的社会关系变化,通过政府规制、平台自治和社会共治来推进智媒算法治理,而算法透明度只是服务于具体治理目标的辅助性复杂工具而已。

(徐琦:《辅助性治理工具:智媒算法透明度意涵阐释与合理定位》,2020年第8期,微信发布系节选,学术引用请务必参考原文)


最新文章
相关阅读