摘要:践行算法向善理念、推动算法透明已成为当前信息生态建设和社会治理的关键。研究选取国内五个典型的算法推荐类社交平台,结合质化与量化方法以考察算法透明化的平台实践、用户感知及信任倾向。研究发现,平台的算法透明化实践存在“选择性回避”的潜在风险。虽然用户能够基于“经验—直觉”路径在一定程度上感知算法透明度,但在算法透明向用户信任的转化过程中,仍存在越干预、越补救、越宣传反而越怀疑的信任悖论。基于此,研究提出从算法透明到算法信任的“解释—参与—控制”转化机制,强调平台应以权益、公益、善意、诚意为姿态,以算法可参与和可控制为目标,超越静态的解释披露,转向动态的关系实践。
关键词:算法透明化;算法信任;社交平台;算法可参与;算法可控制
2024 年 11 月,国家互联网信息办公室联合工业和信息化部、公安部、国家市场监督管理总局启动“清朗·网络平台算法典型问题治理”专项行动。“清朗”行动作为《互联网信息服务算法推荐管理规定》实施以来的重要政策延续,聚焦算法偏见、信息茧房、大数据“杀熟”等典型问题,推动构建更加完善的算法治理体系。在此背景下,各大平台纷纷响应算法向善、算法透明化的倡导和要求,推进系统性的算法信息公开或知识科普。例如抖音通过“安全与信任中心”这一常态化信息发布平台定期披露算法推荐的变更和优化;小红书设立专项算法公示页,增设算法专线以搭建用户沟通渠道;微博推出热搜词解释标签,定期发布微博热搜趋势半年报和年报;微信“珊瑚安全”针对视频号算法进行透明度公示等。
在此之前,学界围绕算法透明、算法公开、算法可解释性等议题也已取得丰富的研究成果。但现有研究多聚焦于算法透明的技术实现或管理规范,对平台实践与用户感知层面的关注较少,算法透明化实践能否真正转化为用户信任有待进一步考察。基于此,本研究立足“透明”和“信任”两大核心伦理要素,运用质化和量化混合方法,考察平台的算法透明化实践以及用户的算法透明感知和信任倾向,探究从“透明”到“信任”的转化关键,以促进算法生态的科学、健康发展。
一、文献综述
(一)从有限公开到“可解释”的算法透明
当代社会已全面进入算法嵌入的技术治理时代,公众在享受智能服务便利的同时,也普遍面临规则隐遁与决策失语的困境。Frank Pasquale提出“算法黑箱”概念来揭示技术系统的复杂运行逻辑与社会主体知情权之间的认知悖论。“算法透明”则被视为破解“算法黑箱”困境的核心原则,其通常指“算法设计或控制主体向监管部门及社会公众披露算法如何部署、如何工作以及被如何使用等相关信息”。算法透明源于“透明即信息”这一理论基础。该理论认为信息供给不足以及信息不对称导致了不透明,从而主张通过建立信息对称机制消弭技术开发者与普通用户之间的认知鸿沟。由此,算法透明化被视作一个公开和披露信息的持续过程,衍生出算法公开和算法解释两大路径。
1.算法的有限公开
针对算法公开程度,Cary Coglianese 提出“鱼缸型透明”(Fishbowl Transparency)和“合理型透明”(Reasoned Transparency)两种策略。前者强调源代码或数据库的完全披露,后者则主张建立差异化、选择性披露标准,且因平衡多方利益而更受业界推崇。
“鱼缸型透明”或者说源代码透明,对信息披露的要求最高,对商业秘密的影响也最大。虽然其在检测算法偏见、应对算法信任危机等特定场景中具有必要性,但面临商业秘密保护与技术创新激励的需要、公众技术理解能力的欠缺,以及机器学习系统固有的技术不确定性和不可知性等多重障碍。鉴于此,“合理型透明”成为实际应用中更受青睐的策略,包括“场景化算法透明”“分层算法透明”等具体方案,其主张根据算法应用领域、风险等级及受众特征实施差异化透明度。例如国家级关键基础设施需履行算法全面公示义务,保障社会公众的知情权和监督权,大型商业平台应确保向行政主体进行算法备案公开,初创企业则可以采取相对较低的透明限度。
综上,学界主张对算法透明的条件与范围进行约束,呈现算法有限公开的倾向。专业知识壁垒的存在也意味着单纯地公开算法仍难以真正达到算法透明化的目的,算法的可解释性被认为是增强算法透明度的更优解。
2.算法的可解释性
可解释人工智能(XAI)作为用户导向型技术方案,致力于构建人机对话机制以弥合认知鸿沟。算法“可解释性”的核心价值在于将技术逻辑转化为可理解的决策依据,使算法系统获得社会主体的理解和认同。
按照解释策略划分,算法可解释性可分为可阐释性(Interpretability)与可理解性(Explainability),前者关注算法内在技术逻辑是否可以被表征和观测,而后者强调面向用户提供定制化内容。按照解释范围划分,算法可解释性分为全局解释、局部解释和反事实解释。全局解释是从整体上阐明算法系统如何做出决策,包括模型意图、训练数据、模型运行逻辑、信息处理过程,甚至模型背后的动机和环境等。局部解释聚焦于单个主题,提供特定自动化决策的原因,因此也被称为原因型解释。鉴于比起整个模型的运行逻辑,人们往往更关心与自身利益相关的算法决策原理,局部解释相对更具有实用性。
反事实解释使用“若 X 不发生,则 Y 也不会发生”的表达式,通过提供反例来告知用户哪些特征影响了最终结果,其不需要呈现系统决策的具体细节,因而绕过了阐述复杂原理的难题,可以很好地用来解释某个具体事件的发生。
总体上,当前的算法透明研究主要从技术实现与管理规范两个层面展开。技术层面强调通过代码审计、信息分层披露等事前规制手段控制技术风险;管理层面要求将算法决策的具体原理以及获取用户信息可能产生的影响等向社会公众给出详细解释。但是现有研究较少关注算法透明的实践落地层面,平台公开或解释算法的具体实践方式及其程度如何、效果如何等问题有待进一步考察。
(二)算法透明与用户信任的关系
在“时空分离”的现代性背景下,信任成为社会的基础。Giddens将信任定义为“对一个人或一个系统之可依赖性所持有的信心,相信其会带来一系列给定的结果或事件,这种信心表达出一种对于他人之诚实或爱的信念,或者对抽象系统(技术性知识)之正确性的信念”。随着算法技术与人类社会的融合日益深入,人们对算法技术系统的信任也受到学界关注,以信任为核心的治理理念兴起,呼吁完善面向公众的算法透明机制,要求算法技术能够被公众“看透”或“理解”,乃至从单纯依赖算法透明走向发挥用户能动性的共同参与。
欧盟委员会高级专家组颁布的《可信人工智能伦理指南》提出,算法透明对于建立和维护用户对算法系统的信任至关重要。算法透明揭示了算法内部的原理与规则,公众借此接收解释和示例后将对算法有更深入的理解。Wanner 调查发现,需通过透明化设计缓解对于智能系统的信任缺失,透明度可通过增强信任间接提升用户的信息接受意愿。Vorm和Combs也认为算法透明可通过提供系统意图、参数和逻辑等信息,帮助用户建立准确心智模型,从而增强信任和推动技术采纳。
另一方面,也有许多实证结果指出算法透明可能为信任带来阻碍。例如,算法复杂度较高时,提升算法透明度能够强化用户对算法的信任,但算法逻辑简单时,算法透明可能会起反效果。Siepmann 等人也发现,虽然透明度通过“解释”(如揭示推荐逻辑)和“探索”(如交互式界面)增强了用户信任,但过度透明可能致信息过载反而降低信任。Cramer 等人则认为,相较于算法信息透明度,信任更多取决于算法系统在交互中的实际表现和用户对推荐质量的直接评估。因此,算法透明究竟如何影响用户信任是一个重要且仍存在争议的研究议题。
正如胡宗亮和曹义孙所说,常人与技术之间构成了一种隐微术的关系,常人无法全然信赖技术公开的话语,而技术本身也并非全然无蔽。近年来,用户对于“信息茧房”“数据监视”“窃听”等问题的关注度不断上升,屡次引发社会争议。现有研究多从学者和管理者的视角来考察算法透明的价值性,而普通用户作为真正的算法信息接受者,其对于算法透明化的态度和观念尚不明晰。用户能否、如何感知算法透明?用户是否接受、信任平台的算法公开与解释?用户为何信任或不信任算法?或许可以从用户视角出发,为检视当下算法透明化进程提供新思路。
当前的社交平台高度依赖算法推荐机制(如内容排序、个性推送、广告投放等),这种算法主导的生态使社交平台成为研究算法透明与用户信任的典型场景。一方面,用户信任是社交平台长期存续的基础,分析算法透明对信任的影响有助于平台优化服务、缓解“信任赤字”;另一方面,社交平台已成为现代社会的“数字公共领域”,研究算法透明如何塑造用户信任,可为平台治理和维护社会稳定提供理论依据。基于此,本研究取国内五个具有代表性的社交平台,从平台角度考察其具体的算法透明化实践,从用户角度考察其算法透明感知和信任倾向,探究从算法透明到算法信任的转化关键。具体研究问题包括:
Q1:平台如何向用户公开和解释算法信息,以促进算法透明化?
Q2:用户如何感知算法的透明程度?针对不同的算法透明化实践,用户形成了怎样的认知及态度?
Q3:基于算法透明感知,用户对算法及相关平台的信任倾向如何变化?其中关键因素有哪些?
二、研究设计
本研究的探讨核心可以归结为“算法透明”和“算法信任”。前者涉及“是什么”“怎么样”,适合通过观察、访谈等质化方法进行深入描摹和探索;后者涉及“为什么”,适合通过量化方法总结规律,二者相结合能够更好地揭示平台侧“透明”与用户侧“信任”之间的张力。基于此,本研究设计混合研究方案,共分为两个阶段进行。
(一)第一阶段:观察与访谈
研究的首要任务在于选取典型平台并收集其算法透明化实践的一手资料,即解决“是什么”的问题。本研究根据IOS和Android下载量,选取微信(公众号/视频号)、小红书、微博、抖音、快手作为样本。研究者一方面收集各平台的算法说明文档、隐私政策协议、算法治理白皮书、算法规则解读等技术文本材料,另一方面通过截屏、录屏等方式记录弹窗提醒、界面说明、反馈按钮等算法提示交互场景。
在分析平台实践的同时,本研究进一步采用访谈法调查用户的实际感知与态度。研究者于2025年6至7月围绕算法透明感知、信任程度、互动行为等对 23 名用户进行访谈。受访者年龄范围在19至42岁,男女性别比为13:10,学历、职业多元,具有一定代表性(表1)。访谈过程具体包括以下步骤:(1)受访者打开 App 自由使用 15 分钟;(2)受访者认真阅读研究者向其提供的“平台算法透明化实践清单”;(3)受访者重新打开App,查找和验证在第二步中获取的算法相关信息;(4)研究者在访谈中采用“最近原则”,引导受访者回忆和描述最近一次的具体体验和情境,还原和挖掘真实细节与无意识行为。访谈时间不低于60分钟。
表1 访谈对象基本信息
(二)第二阶段:Q方法
为进一步探索算法透明与信任之间的转化关系,本研究采用 Q 方法(Q Methodology)挖掘规律。Q 方法是一种以量化排序为主、辅以解释分析的方法,其核心在于用相对较少的调查对象(P 样本)对一组精心设计的代表性陈述(Q 样本)进行排序,以揭示个体对某一主题的认知结构。该方法能够突破传统质性研究关于“小样本”代表性的争议。
根据 Q 方法的操作规范,本研究基于访谈文本建构 34 条“算法透明”陈述作为 Q 样本,设计问卷并发放给 52 位调查对象,要求其按照“最提升信任”(+4,2 格)、“大幅提升信任”(+3,3 格)、“中幅提升信任”(+2,4 格)、“小幅提升信任”(+1,5 格)、“不影响信任”(0,6 格)、“小幅降低信任”(-1,5 格)、“中幅降低信任”(-2,4格)、“大幅降低信任”(-3,3 格)、“最降低信任”(-4,2 格)的九级倒三角网格进行打分,以保证收集的数据为标准正态分布。最终,本研究回收46 份有效问卷作为研究的 P 样本。Q 排序完成后,研究者进行主成分分析(PCA)提取显著观点集群(Factor),对计算结果进行人工解释并补充访谈。
三、平台算法透明化的具体实践
为系统考察平台的算法透明化实践,研究者从形式、内容、策略三个维度,对微信、小红书、微博、抖音、快手五个平台的算法解释文本或提示方式进行观察和记录。
(一)算法透明化形式
从形式上看,五个平台主要依赖基础性合规路径进行算法信息的披露,包括App的规则文本内嵌与弹窗告知、界面设计中的碎片化功能提示、平台官方账号发布、专设科普网站或模块、官方平台备案公开等(见表2)。
表2 平台的算法透明化主要形式
观察发现,当前各大平台的算法透明化形式仍存在信息可及性低、推送主动性弱等问题。一方面,深藏于“设置”中的文本、不起眼的小字标注、零碎的官方推送等形式的隐蔽性强、结构分散,且获取成本和难度较高。用户需具备一定数字素养和主动探究意愿才能定位相关信息。另一方面,平台普遍缺乏在算法对用户产生直接影响的关键节点(如首次启用核心算法推荐功能、推荐内容发生变化和调整时)进行主动、及时、精准地告知。当前采取的弹窗告知多为一次性且强制接受,与用户日常使用场景脱节,关键信息难以有效触达。
(二)算法透明化内容
从内容来看,平台主要围绕推荐原理、“信息茧房”、隐私安全、流量增长四个议题进行信息公开(见表3),优先回应用户的核心关切与社会舆论焦点。
表3 算法透明化的核心议题
首先,平台多通过简化模型、流程图或真实操作场景示例等方式向用户解读推荐算法的基础运行逻辑,帮助用户理解“算法是如何运行的”;其次,平台重点向用户解释其在规避和弱化“信息茧房”方面做出的努力,包括内容多样性增强机制、用户主动调节工具、用户兴趣探索引导等;第三,在隐私安全领域,平台重点聚焦于算法运行中涉及的用户数据处理原则与保护措施,强调数据脱敏处理和用户授权同意,以降低用户对于身份信息与行为数据泄露的威胁感;第四,关于流量增长,平台通过发布内容质量评估维度以及算法如何识别潜力内容/创作者、如何捕捉和放大时效性强的热点内容等信息,激励创作者捕捉和响应热点,从而优化和升级账号。
整体上,平台的信息公开内容仍然相对宏观,对于模型参数和流量指标的调整策略、商业目标(如广告转化、用户留存)与内容生态健康之间的权衡逻辑等缺乏深入解析。而且大部分公开内容冗长晦涩,专业术语过多且缺乏直观的可视化表达。用户即使“看到”了算法的技术细节,也难以真正理解其含义。
(三)算法透明化策略
出于安全性和保密性考虑,平台需要在不暴露自身核心代码的情况下采用多种策略向用户解释其算法运行的目标和利弊。其中,技术中立、服务用户、合法合规、社会责任等是常用的叙事策略,构成了平台在算法“黑箱”与用户知情之间寻求平衡的话语框架(见表4)。
表4 算法透明化的叙事策略
在技术维度,平台倾向于将算法描绘为客观、价值无涉的技术工具,突出算法决策的“自动化”和“非人为干预”,强调其设计初衷在于提升效率、优化匹配或实现特定的技术目标(如信息分发效率、资源调度最优);在用户维度,平台通过强调算法的“用户中心”设计理念及其带来的具体益处(如精准推荐、兴趣满足、高效匹配、安全保障等)建立一种工具型信任——即使不完全理解算法原理,用户也能感知到其实用价值,从而降低对算法“黑箱”的疑虑;在监管维度,平台明确表示其算法的设计、部署和运行严格遵循现行法律法规及行业标准(如必要性原则、用户同意机制等),通过展示其在合规性建设方面做出的努力(如定期发布治理公告),向公众传递其运行机制的程序正义;在社会维度,平台将算法目标与更宏大的社会价值(如算法向善、信息安全、内容生态健康、未成年人保护、打击虚假信息、促进公平)绑定,将算法运作纳入公共利益的范畴进行解释,塑造自身负责任的社会形象。
综合来看,无论在形式、内容还是策略上,平台的算法透明化实践均表现出有限性和选择性——形式上倾向于提供样板化、格式化、术语密集、深层遮盖的文本型信息,导致用户对算法运作机制的接触和理解依旧困难;内容上集中于强调算法的“效率优化”“体验提升”等积极目标,规避潜在偏见、商业决策逻辑等敏感、负面议题;策略上以风险规避和声誉管理为目标塑造特定的话语结构,维护平台自身负责任、技术先进的公共形象,但这些策略的有效性高度依赖于“美化”叙事与“践行”结果的一致性。
四、用户感知算法透明的中心—边缘路径
从平台实践到用户信任,无论如何绕不开“感知透明”(Perceived Transparency)这一关键中间环节。根据详尽可能性模型(ELM),个体对信息的处理存在“中心—边缘”模式,中心路径依赖对信息内容本身的深度加工,需要高认知投入,而边缘路径依赖外围线索,以低认知成本快速形成判断。基于深度访谈可发现,用户对算法透明的感知同样存在“中心—边缘”路径。
(一)中心路径:日常交互的经验性归纳
“算法透明感知”与“算法感知”(算法意识)高度相关但有所不同。“算法感知”主要是用户对算法介入性的一种初级基本认知,即用户认识到某个结果并非随机或纯人工产生,而是来自于由计算过程驱动的过程。“算法透明感知”则是用户主观评估自己对于算法运作的理解程度以及预测和影响算法运作结果的能力。“算法透明感知”建立在“算法感知”的基础上,用户不仅知道算法的存在,还渴望或尝试理解其原理和过程。
访谈发现,用户对算法透明的感知并非源自技术文档或主动学习,而是基于日常交互实践中的经验性归纳,主要包括用户主观感受到的算法可理解、可预测和可控制程度。其中,“算法可理解程度”感知指用户感觉自己能理解算法运作的目标、基本逻辑、获取数据等,即使这种理解是简化或抽象的。例如“我感觉小红书算法比抖音更透明,小红书的算法刷两天就知道怎么回事儿了,但是抖音我用挺久了,还是很迷惑有些东西为什么推给我。”(A4)“算法可预测程度”感知指用户感觉自己能在一定程度上预测算法在特定输入或行为下可能产生的输出或行为。例如“在小红书,如果我给这条内容点赞,算法下次还会给我推类似的内容。”(A10)“算法可控制程度”感知则指用户感觉自己能通过个人行为、设置选项或反馈机制对算法的输出施加有意义的影响。例如“我知道可以在设置里改兴趣标签或者关掉个性化,看见的内容会大不一样。”(A4)
在与算法的持续性、日常性互动中,用户建构起关于算法可理解、可预测、可控制的多层次认知,由此构成了基于实践经验的中心感知路径。用户的感知强度与平台设计清晰度、反馈即时性、一致性,以及自身的算法意识和心理舒适度相关。这一中心路径高度依赖算法的具体应用情境,核心在于平台能否在用户的自然使用流中提供连贯的线索,以支持“理解”“预测”与“控制”的形成。
(二)边缘路径:平台姿态的直觉性判断
在用户经验性感知的中心路径之外,还存在对平台责任意识与诚意的直觉性感受。这种依赖平台姿态而非实质信息的判断,形成了用户感知算法透明度的边缘路径。一方面,用户认为算法透明化是平台应尽的义务,保证透明是责任而非“恩赐”。“平台做这个算法公开还是很有必要的,虽然可能很多人不关心,比如我,但我作为用户可以不关心,不代表你作为平台可以不履行义务。”(A1)另一方面,用户认为真正的诚意体现为平台对算法知识的主动传播,而非简单地“陈列”算法信息。“至少让我觉得你是真的想让我了解,有些东西太隐蔽的话,你做得再好,你不是(给)自己看的吗?”(A15)“总感觉平台其实不想主动告诉大家,是一种被动的心态。这样可以找借口:我公开了,但是你不知道而已。”(A4)可见,用户对算法透明的感知是一种主观感受,而非基于客观上平台公开的算法信息量。即使平台实际上提供了大量算法信息,用户的“透明感知”可能仍然很低,其原因在于平台信息公开和用户信息获取存在双向“惰性”。
在边缘路径中,用户对算法透明的感知实质上是对平台责任履行与沟通诚意的综合评判。当平台仅进行最低限度的“合规性公开”(如设置隐藏、术语堆砌),会被用户解读为规避责任而非诚意沟通。相反,“主动性传播”(如通俗化解读、多渠道推广)则被视作超越义务的诚意信号。用户真正关心的是算法透明背后所代表的“平台受监督”。“无论公开多少,总比完全黑箱好,至少让我知道平台不是一个为所欲为的状态,是有人要求、约束和规范它们的。”(A17)当平台“只公开不传播”,“我从来不知道原来可以在设置里用按钮调节,这也太隐蔽了(A2)”,用户“只使用不探索”,“说实话我完全不关心算法是什么样的,好用就行了,其他的也无所谓(A12)”,对于公众的算法透明化就成为一纸空谈。
由此可知,中心路径的算法信息仍需通过边缘路径下的“平台姿态滤镜”才能更有效地转化为用户的价值感知。算法透明不仅是信息可及性的问题,也是用户的认知可及性与探索性激励问题。
五、从透明到信任的转化因素与认知悖论
本研究意图深入探讨用户信任在感知算法透明的基础上可能受到的影响。因此,研究者采用Q方法呈现用户关于“算法透明化如何影响信任”的不同观点,以归纳从透明到信任的转化因素。
Q排序数据收集完成后,研究者通过主成分分析和最大方差法提取矩阵因子载荷。46位参与者的观点被归到 3 个因子中,3 个因子的累积解释变量达到 63.791%(在 Q 方法中累计解释变量达到 40%即可以被采用)。其中,F1 的因子载荷位于0.6至0.9之间,F2的因子载荷位于0.6至0.9之间,F3 的因子载荷位于 0.6 至 1.0 之间,说明 3个因子所代表的观点存在意义接近,均具有较好的代表性。
(一)信任提升:平台对安全、公平、可控的承诺与保障
为揭示因子内涵,研究者对P因子下的Q样本Z值(平均值)进行降序排序(见表5),并结合深度访谈进行阐释,以呈现提升算法信任的代表性观点。F1类用户认为平台对信息安全作出的承诺能够提升算法信任,F2类用户认为平台强调的流量公平能够增强对算法的信任,F3类用户则认为算法的可控制和可调节性保障是信任提升的核心。本研究将三类观点总结为“越安全越信任”(F1)、“越公平越信任”(F2)、“越可控越信任”(F3)。对于用户而言,提升算法信任的关键在于平台能否将单方面的承诺转化为可感知的安全保障、可体验的流量公平以及可操作的算法控制。
表5 P因子下的Q样本Z值排序(降序)
F1类用户普遍重视个人信息的安全保障,对平台“获取信息需授权”“防范信息泄露/窃听风险”“保障个人信息安全”等承诺抱有高度期待,将其视为信任建立的基本前提。公平性是用户评价算法可信的另一重标尺。F2 类用户厌恶算法歧视和“信息茧房”,期待一个更开放、多元、普惠的信息环境。这要求平台的透明化内容不仅仅是解释技术,更要阐明其价值观以及如何实践公平原则。F3 类用户认为承诺是基础但行动才是关键。他们反对空话套话,要求真诚坦率,更加强调平台措施的务实性。“客观地告诉我怎么调节就行了,越通俗易懂越好。”(A2)相反,“平台一直在说自己的算法有多么好或者发一些免责声明”(A6)则不受这类用户欢迎。这种“越可控越信任”的观点也意味着解释是对话的起点而非终点,公开算法信息只是第一步,建立更加稳固的算法信任需要务实的可操作方案。
结合访谈发现,用户对于算法可控制的诉求最为强烈。其一,用户要求控制权前置且明确。一味解释算法的原理对于改变态度和提升信任感并无太大帮助,用户更关心落到实处的改进和可行的解决方案:“平台可以把那些开关的选择放在我一开始进入这个 App 的时候,明确让我选择开不开个性化推荐,而不是等着我自己发现。”(A13)其二,控制需要提升精细化和有效性。用户需要平台主动提供更精细的算法调节选项,而非隐藏在设置深处的简单开关。“(希望)可以让我选择个性化推荐的程度,比如50%推荐我的个性喜好,然后 20%推荐本地生活,30%推荐国家大事。现在的个性化推荐开关没有一个可调节的程度。”(A6)其三,控制功能必须真实有效。“平台最诚恳的态度就是设置用户讨论和反馈的空间,比如技术社区之类的,官方(要)及时处理用户的意见。”(A2)当用户发现反馈和控制渠道不畅,例如无法彻底屏蔽厌恶内容,或者关键隐私设置(如关闭好友推荐)不够直白易得,则会严重削弱他们对于算法的控制感和信任感。
(二)信任悖论:用户对干预、补救、宣传的防御与逆反
然而,定量调查和深度访谈均发现,当前的算法透明化实践对于信任的提升效果非常有限。一方面,用户对平台的算法透明化措施普遍知之甚少,并且不认为算法的透明与否会影响自身的信任程度。“其实算法信息公不公开的,好像也不太影响信任。”(A16)对大多数用户来说,算法信任的核心在于算法好不好用、准不准以及于我是否有利,只要达到了用户对算法的预期结果就会交付信任。这是一种绩效和结果导向的信任,意味着只要算法持续提供满意的结果,用户就没有强烈的动机去探究其“黑箱”内部。
另一方面,公开算法细节并不能直接提升用户对算法是否好用或准确的感知,反而可能引入更多用户看不懂的复杂信息。由于理解这些算法原理需要较高的时间成本,用户会本能地避免这种负担。当认知负荷远高于潜在收益时,例如“理解算法原理后似乎也不能改变什么”(A21),用户会选择接受“黑箱”,将其视为一种“理所当然”的技术存在形式。而这种接受本身是一种基于信任算法系统功能可以正常运转的“功能性信任”。
由此,即使在感知到算法透明度的基础上,用户的信任倾向也多处于无影响甚至降低状态,这种逆反效应构成了算法治理下的信任悖论。对P因子下的Q样本Z值进行升序排序发现(见表6),F1、F2、F3 三类用户在信任降低倾向上存在一定的共识。例如,Q24 和 Q26 陈述在 3 个因子中均得到较高的负分数,平台的人工干预和事后声明非但不能提升信任,反而可能大幅降低信任。此外,Q34 的“借助媒体宣传”、Q22 的“用户同意承诺”和Q27的“合法合规承诺”也可能降低信任。基于此,本研究总结了“越干预越怀疑”(F1、F2、F3)、“越补救越怀疑”(F1、F3)、“越宣传越怀疑”(F1)的三重信任悖论。“越干预越怀疑”的原因恰恰在于功能性信任的脆弱性。平台在信息公开中对人工干预的强调和实践,其本意可能是确保内容质量和合规性,但也向用户传递了两个危险信号:其一是技术缺陷暗示。干预行为暴露了算法自主运行的不可靠,暗示平台对技术的不自信,“如果技术没有问题,为什么需要人工兜底?”(A21);其二是权力滥用风险。用户可能将干预解读为平台对信息流的操控,“到底是监督还是内容审查?”(A9),从而触发对中立性和公平性的质疑。因此,算法信息公开中对于人工干预的强调非但未能强化信任,反而可能将用户的注意力从“结果绩效”转向“过程风险”,最终导向个体防御和怀疑。
表6 P因子下的Q样本Z值排序(升序)
“越补救越怀疑”则表明,算法的过度公开或不当公开都可能消耗用户的信任。在访谈过程中,研究者向受访者提供了多则不同平台的事前信息披露和事后信息解释(发生负面舆情后),以调查用户算法信任的变化过程。受访者普遍认为,日常的事前公开优于事后补救。例如,2025年某应用被曝光短时间内高频访问用户地理位置信息,平台发布的声明中强调“不存在未经许可的信息访问”,但这一回应无法获得受访者的认可。“这个公告只是在说没有‘未经许可’,但并没有针对这个事情来调整算法,或者说提出什么实质改进措施。”(A1)危机后的回应常被视为一种平台出于维护利益而被迫进行的安抚,难以真正重建信任:“这种事后的回应,是平台为了安抚用户才必须要做的,每次都事后补救,没什么用的。”(A11)
而“越宣传越怀疑”的核心矛盾在于平台的宣传与用户体验发生错位。用户期待作为被服务者而非被营销对象。当平台通过媒体高调宣传算法时,复杂的技术包装(如Q28专业术语讲解)远超用户理解意愿,反而强化“故弄玄虚”的负面感知。此外,借助第三方媒体的过度宣传易被解读为危机公关或商业引流(如 Q22 在 F1 类用户中倾向于提升信任,但在 F2 类用户中却被理解为诱导用户进行数据授权),同样可能触发用户的心理防御:“感觉像是此地无银三百两。”(A11)这一悖论表明,信任难以通过自我证明获得。相比于公关话语营造下的“透明化表演”,平台更应该通过持续优化算法性能(结果可信)、减少用户认知负担(体验可信)、规避权力滥用(过程可信)来实现真正的信任建设。
六、结论与讨论
本研究结合质化和量化方法,立足“透明”和“信任”两大核心伦理要素,系统考察了平台算法透明化实践的用户感知和信任转化,对当前算法治理的理论视角进行了回应和补充。
其一,平台的算法透明化实践中存在从“合理型透明”到“选择性回避”的潜在风险。当前研究多提倡“合理型透明”,主张差异化披露以平衡商业机密与公众知情权。但本研究认为,虽然平台实践印证了算法有限公开的必要性,却也存在技术细节“合理缺失”下的责任规避。当前在形式上,平台的算法信息可及性低且认知成本高;在内容上,平台选择性公开推荐原理、隐私保护措施等非敏感议题,同时规避算法偏见、成瘾机制、商业目标等负面问题;在策略上,平台运用技术中立、合法合规、服务用户、社会责任等叙事逻辑展现良好形象,但倘若以叙事策略掩盖权重调整、商业优先级等敏感逻辑,反而与合理型透明的风险分级披露主张背道而驰。
其二,用户的算法透明感知并非单纯的信息获取,而是通过“经验(中心)—直觉(边缘)”路径形成。一方面,用户在日常交互实践中进行经验性归纳,通过观察推荐内容的动态变化以及界面提供的即时线索,主观构建对算法可理解、可预测和可控制程度的感知。另一方面,用户基于平台姿态进行直觉性评判,易将算法信息的被动公开或“合规性应付”感知为低算法透明度的表现。平台“只公开不传播”与用户“只使用不探索”的双向惰性,导致算法透明化实践往往流于形式、难有实效。当用户认为自己对算法缺乏影响力或缺乏替代选择时,他们的算法透明感知和诉求就会降低,从而形成“无可奈何”的妥协心态,实则让渡了自身作为内容消费者和被服务对象的合法权益。
其三,本研究揭示了“透明即信任”简单线性逻辑的局限,从算法透明到用户信任的转化存在多重悖论。平台的部分算法透明化实践未能提升用户感知到的结果效用,反而可能因责任推脱和技术辩解而激起用户反感,暴露平台的责任缺位和“公关”姿态,激起用户的防御和逆反心态。例如强调人工监督(Q24)易暴露技术缺陷与权力滥用风险;负面事件后的声明(Q26)可能被用户解读为被动安抚、缺乏实质改进;媒体高调宣传(Q34)易触发用户对“公关表演”的负面感知。值得注意的是,同一措施在不同用户感知中也可能呈现矛盾效果,凸显了信任建构的情境依赖性和个体差异性。由此说明,机械式、模板化的算法解释,既可能剥离了具体使用场景,又可能忽视用户诉求的分层结构,从而难以转化为真正的用户信任。
因此,本研究认为,算法透明化应被视为一种动态的关系性实践,而非静态的信息披露。根据研究结果,无论是用户的算法透明感知(理解、预测、控制、姿态)还是信任提升要素(安全、公平、可控)均指向一种“参与式控制”,其与欧盟《可信人工智能伦理指南》提到的“参与式治理”精神相契合,并且揭示了后者未曾言明的一个关键前提——算法治理的有效性依赖参与者的价值认同和社区情感。仅依靠单向度的信息提供无法充分激发用户的深层认同与情感信任,反而可能导致漠视和抵触的加剧。基于此,本研究以信任为目标,提出“解释—参与—控制”的信任转化机制(图 1)。真正的算法透明意味着不仅要让用户“知晓”(解释环节),更要让其能够介入算法系统的规则讨论、反馈优化、风险评估等关键环节(参与环节),最终建构用户能够产生实质性影响的算法互动场域(控制环节)。
图1 从算法透明到算法信任的“解释—参与—控制”转化机制
超越“解释”之上,平台应以权益、公益、善意、诚意为姿态,以算法的可参与和可控制为目标,将技术信息转化为真正的用户赋能。例如开发直观、用户友好型的控制面板,提供“为何看到此内容”的解释弹窗,并让用户可对算法解释进行“赞同/质疑”一键反馈;设立用户“算法陪审”机制,用户可针对算法争议发起投票或提案,或报名参与算法规则优化的测试与评议;在平台社区中加入情感化设计,用户可通过贡献内容标注、协作训练数据等方式获得奖励,强化用户对算法生态发展的归属感;生成个性化“算法画像报告”,展示用户的个体偏好与公共价值之间的匹配度,引导用户的价值成长等。当用户将平台视为承载自身数字生存意义的家园,并获得一定的对话、参与和控制权,便会从对算法工具的漠然使用和功能性信任,转向更深层次的价值性信任和算法生态共建。
当前,算法透明化尚且处在政策推行和早期摸索阶段,即使仍存不完善和不周全之处,但各平台的诸多尝试已显现出一定的良性后果和向好趋势。在政府、产业、学界共同推进算法透明化的节点上,本研究对算法透明与用户信任之间的关系进行了探索性研究,局限性在于主要依赖用户主观报告,仍缺乏长期的客观行为验证。在未来,研究者可结合更大范围的问卷调查、行为实验、日志分析等方法持续进行研究,以揭示算法透明化的长期复杂效应。