透视算法黑箱:数字平台的算法规制与信息推送异质性
刘河庆 华中科技大学社会学院副研究员 梁玉成 中山大学社会学与人类学院教授
本文节选自《社会学研究》2023年第2期
关于算法究竟如何通过排除和不可见权来运作,会如何影响个体的信息获取以及个体间的信息分化,仍存在较大争议。已有文献主要分为“过度个体化”与“分类权力”两个研究脉络。
“过度个体化”研究认为,算法依据个体浏览记录等特征为每个个体创造微信息环境,这个微信息环境随着算法与个体互动的深入会不断同质化,进而降低个体对多元化信息的偶遇能力。这通常被描述为信息茧房、回音室或过滤气泡。
“分类权力”研究则强调,算法规制将带来个体主动性的丧失。算法根据预测的个体类别进行内容推送,个体的偏好、主观意愿并不重要,个体在数字时代无限多维的类别化或指数化,对个体信息获取有着重要的影响。信息推荐算法的本质,是依据对个体的数据标注与画像将其转化为无限多维的数据集,个体能获取的只是算法推测的、你的同类人感兴趣的信息。
不同组别在信息主题与信息语义两个维度的差异和分化表明,数字时代算法作为社会权力已变得更为隐晦,算法规制呈现高度复杂化、精细化和隐蔽化等特征。社会层面平台盈利、外部监管、社会舆论等不同甚至是有冲突的需求,以及技术层面算法捕捉深层语义能力的进步,使平台推送的信息呈现主题多样化而深层语义窄化的情况。
一方面,平台使用基于内容热度的推荐逻辑,在主题维度上增加了个体偶遇更多样化信息主题的机会,这有利于减少有关算法强化过滤气泡、导致个体信息获取窄化以及个体间信息隔离的争议,也符合外部监管和社会舆论的要求方向。但另一方面,从实证结果可以看到,在更深层、更为隐蔽的信息语义维度,高热度的信息被平台进行了隐蔽的精细化处理,平台通过捕捉和估计用户偏好的语义,试图满足和强化不同个体的语义偏好(尽管这一语义偏好是平台预测的)。




