陈昌凤:信息传播的个人化与价值风险
发布时间:2020-11-07 14:09:37  点击数:
2020年11月3日下午,清华大学新闻与传播学院常务副院长陈昌凤教授应武汉大学媒体发展研究中心邀请,开展了题为“信息传播的个人化与价值风险”的学术讲座。围绕讲座主题,陈昌凤教授一共分享了四个方面的内容:信息个人化的历程;信息个人化的本质;算法与信息个人化;信息个人化的价值风险。
 

图1:陈昌凤教授开讲

陈昌凤教授从介绍人类发明和应用技术的历程开始,说明研究人与技术关系的重要性。她回顾了人类发展历程中最重要的四类技术,分别是机械化、电气与自动化、信息化与智能化。这些技术辅助人类成长,帮助人类进步,传播网络也因此发生了很大变化。网络技术已经从第一代的“信联网”、第二代的“物联网”到第三代的“人联网”,信息已经不是我们身外的之物,而是附着到了我们身上。因此,具身化成为了新闻传播领域的一个重要话题,思考人和技术的关系变得越发重要。除此之外,大数据、智能化、移动化可以被视为影响未来100年的三大技术,这三个技术彼此相互连接,将会对我们产生意想不到的影响,我们的研究议题也需要随着技术的变革而相应地发生变化。

陈昌凤教授介绍道,我们现在处于第二代人工智能的阶段。第一代的人工智能主要进行基于知识的符号学习,只能模仿人类的推理模式。第二代人工智能则能够进行神经学习,能够模拟人类的感知,但是它也带来了对机器人行为的不可解释性以及安全问题。在对当下重要的新技术作了简要介绍之后,她结合自己的研究指出,智能技术的每一步进展都在干预新闻业,最终为新闻业带来了范式变革。

在信息个人化的历程方面,陈昌凤教授上溯到了1889年的有关讨论,并着重介绍了尼葛洛庞蒂提出的术语“Daily Me”以及出现于20世纪90年代的MIT新生导引计划,该计划发起了最早的定制化新闻项目。“MIT新生的实验,为媒体开拓了一个新的方向,几年内从《华尔街日报》到时代华纳等主流媒体按照麻省理工学院新生的构思创出了几十种订制化新闻的变体。”

个性化新闻重塑了新闻生产机制,数据引擎成为内容“标配”,满足用户的小众化需求。传统的新闻主要是依赖新闻生产者经验的规模化生产,如今则是“新闻内容+数据化精确指导”的生产方式。新闻生产者利用数据驱动带动业务发展和产品研发,用数据支撑新闻生产的选题、策划、制作方式等每个流程。陈昌凤教授举例说,现在之所以会常常看到一些比较啰嗦的新闻导语,是因为新闻生产者需要触碰算法机制,而传统的导语写作方式则很难触到。算法在一定程度上迫使专业新闻机构和从业者的职业行为进行“适应性”调整。她以《纽约时报》为案例,呈现和解释个性化新闻对新闻生产机制的影响。比如,她提到,1897年,《纽约时报》提出的口号是“All the News That’s Fit to Print”,后来则逐渐变成了“All the News That’s Fit to Blog/Digitize/Click/For You”。与此同时,《纽约时报》也在不停地改进自己的算法。


图2:讲座现场

接着,陈昌凤教授从身体与技术的关系谈到算法传播对信息个人化的构造问题。人与技术的关系经历了三个发展历程:第一,身体技术化。人类最早使用的技术,并不是外在的工具,而是自己的身体。第二,技术被当作身体的延展,开始有离身趋势。第三,技术被视为人的存在方式,与身体同构,技术具身变得越来越强化。现在,智能技术身体化的典型路径是:个人成为信息的入口、出口和处理中枢;经由个体节点构成的互联网,促进了身体与信息的融合。信息不只是延展我们的身体,以具身内嵌的方式影响到人们的生活、工作,还深度参与到人的自我的创建,塑造我们身体最重要的部分:心灵与自我。

陈昌凤教授提出,算法传播对信息个人化的构造可分为两个方面:首先,算法带来传播技术的范式革命。Web2.0、大数据、云计算、机器学习、个性化推荐技术发展形成的综合成果,以及用户中心、在线个体或云个体等思维的突破,智能时代个性化的传播范式已经形成,它是范式的超越和革新。其次,个人信息化的逻辑优先性。互联网上原子化个体的信息化,是原子式的数据化进行的,从平台方面来说,“数字化网络中信息传播的目的越来越多地服从于个人的需求,而不是以生产公众化的产品为宗旨”。当下,自我量化、自我展示以及云个体再造成为潮流,这也是个人信息化的表现。


图3:陈昌凤教授讲演中

当然,信息个人化也带来了一定的价值风险。陈昌凤教授谈了其中的几个方面:人们的信息范围受限、侵犯用户隐私、新闻的专业性消解和新闻的公共性被损害。在新闻的专业性方面,个性化新闻导致一部分编辑判断的专业优势(比如编辑对信息选择和新闻编排)丧失,本质上是把关权力的让渡,决定你看什么的不是编辑记者,而是读者自己。在新闻的公共性方面,“个性化新闻”会消减阅读共同新闻所带来的共同体验,消解人们的社区意识和公共性。

陈昌凤教授认为算法困境在于云个体对于真实个体的控制,而价值偏差则是算法模型的内在矛盾。算法的价值偏差有很多复杂的问题,比如算法数据集里的东西决定了它怎么去界定和推断某样东西,所以只有数据集可靠、平衡、合理,结论才可能会合理,否则算法模型和数据集可能“向人学坏”,然而对于目前来说,数据集的价值偏差仍然难以避免。她用美国ProPublica的Machine Bias系列研究、哈佛大学的一项“在线广告投放中的歧视研究”等研究发现对算法可能带来的价值偏差做了更具体的说明。


图4:交流互动

在提问与互动环节,武汉大学媒体发展研究中心研究员王敏副教授就智能化时代的价值观问题与陈昌凤教授进行了交流,陈昌凤教授补充道:“除了思考人类的价值观,比如自由、平等之外,我们还有必要考虑新闻专业的价值观,比如真实、公正、客观等问题,有很多与此相关的问题都值得我们继续去探讨。” 武汉大学媒体发展研究中心副主任肖珺教授主持本次活动,并从未来传播中的人机关系等角度参与讨论。