为什么你在“朋友圈”容易愤怒?
来源:36氪
作者:chiming
原标题:如何设计一个更好的社交媒体产品?
在社交媒体上,并不是所有的观点都是平等的。
编者按:社交媒体对社会的影响越来越大,在给人们生活带来便利的同时,也产生了可怕的副作用。怎么才能设计一个更好的社交媒体呢?托比亚斯·罗斯·斯托克韦尔(Tobias Rose-Stockwell)通过深入的研究之后,提出了一些可以修正社交媒体的建议,文章发表在Medium上,由36氪编译,希望能够为你带来启发。
数据被滥用影响着数百万人的生活,由此产生了选举黑客;造成了报纸的消亡;形成了巨魔军队;宣传变成了一种武器;两极分化日益加深;民主摇摇欲坠等等。我们每天基本上都会看到一系列反乌托邦的后果,这些后果与我们过度使用社交媒体有关。
人们都在呼吁变革,但却面临着一个两难的选择:尽管人们已经意识到这些平台有许多可怕的副作用,但我们仍然非常依赖它们。
它们已经成为我们获取当地新闻的渠道;我们的紧急通讯系统;我们的城镇广场等等。它们在我们团结在公共事业周围并参与政治的过程中发挥了关键作用。
那么,我们该如何
调和它们的毒性和效用?
这不应该是一个痛苦的选择。在过去的一年里,我一直在与学者、设计师和技术人员交谈,研究这些平台的缺陷,并得到了一些修复方法。我的努力集中在两极分化、非人性化和愤怒这三个问题上,这三个问题是这些工具带来的最危险的副产品。
下面,我将探讨这些公司现在(而不是明天)可以做出哪些改变,以使这些平台更好地造福于人类。
有利于吸引人类注意力的东西
往往对人类不利
我们的Feed会让我们愤怒是有原因的。
想象一下,当你走在街上,你听到旁边传来了打斗的声音,声音很大,很有侵略性,人们在大声叫喊着什么。你很可能会停下来,看看发生了什么——这是你的天性。
如果你认识其中的一个人,你可能立即就有了参与感——甚至可能参与其中。至少,你会关注这个事。
这是社交媒体平台经常对我们做的事情:它鼓励我们观察冲突,并推动着我们在一些本没有多少意见的话题上选择一个立场。
本质上来说,它是一个展示观点的机器。但是,在社交媒体上,并不是所有的观点都是平等的。
我们的大多数内容Feed流都不再按时间顺序进行排序了。决定向我们展示哪些内容,是基于我们参与其中的可能性。
Instagram、Facebook、Twitter、Youtube和其他网站已经不再按时间顺序排列,而是帮助用户处理更多信息,让他们留在网站上。
像愤怒这样的情绪反应是参与的强有力指标。用最基本的算法对我们的Feed进行排序,将首先显示这种内容,因为它比其他类型的内容更容易吸引注意力。
基于对平台工程师的采访做出的假设性分布
这种内容会触发我们的情绪反应。当我们作出反应时,我们经常会把情绪传递到世界的其他地方。
下面是我们在社交媒体上分享内容的过程的简化模型:
当用户只是转发或共享内容时(跳过中间步骤)
随着引发愤怒的内容增加,就出现了我们所谓的愤怒级联——关于道德判断和厌恶的病毒传播爆发。现在,这已经主导了我们的Feed和交流,并成为文化时代精神的重要组成部分。
愤怒的导火索经常被分享,引发其他人的愤怒,并形成愤怒级联。
道德上的愤怒=病毒
纽约大学的研究人员威廉·布雷迪(William J. Brady)最近在病毒性社交媒体内容中发现了一种模式。他研究了数十万条推文的数据,发现在内容每使用一个道德和情感关键词,数据就会有20%的提升。
保守派的推文:
同性恋婚姻是一个邪恶的谎言,旨在毁灭我们的国家
——@overpasses4america
自由派的推文:
新摩门教禁止同性父母的孩子——这个教会想要惩罚孩子?你在逗我吗?!羞耻!
——@martina
每条推文都包含了道德指控和谴责他人的语言。它们激发了深层的情绪反应,从而更容易被赞同它们的人看到和分享,从而大大增强了病毒传播和参与度。
这是一个隐性的基础,推动人们在网上分享不和谐、引发愤怒和情绪化的内容。
这不仅仅适用于我们个人发布的内容。它可能适用于我们在社交媒体上分享的任何内容——评论、视频、文章。它培育了一个充满道德愤怒的生态系统,因为它有用,所以世界各地的内容制作者,包括新闻机构,都在利用这个生态系统。
Facebook、Twitter、YouTube和其他网站会优先考虑这类内容,因为这些内容会引发我们点击,会让我们驻足,会引发我们回应和分享。这是提高用户参与度的隐性途径。
随着这些工具在我们的媒体、交流和生活中占据主导地位,我们将会看到,我们的共同话语开始变得丑陋、分裂和日益两极分化。
我们能做什么呢?
这里有四个方式可以对这个情况进行修正:
提供人性化的提示
在人们发布内容之前,用特定的提示把人们推向正确的方向。
耶鲁大学克罗克特实验室的莫莉克罗克特(Molly Crockett)指出,我们无法看到他人身体上的情绪反应,可能会助长社交媒体上的负面行为。在网上,我们看不到别人的痛苦,这使我们更愿意变得不友善。
尼古拉斯·克里斯塔基斯(Nicholas Christakis)(也在耶鲁大学)的研究表明,简单的人工智能可以影响到现实生活中的社交网络,从而帮助改善群体行为和结果。我们可以考虑加入类似的提示。
还有一些,是我们可以在人们发布内容之后立即采取的几项干预措施,促使用户变得更加友善。
关于感知去人性化的研究表明,在数字环境中,我们可能对人们更加严厉。增加上文这样的移情反应,可能有助于增加感知。(这项研究很有趣:一些简单的东西,比如我们侧面照片中的脸的方向,可以决定其他人是否认为我们值得惩罚。)
你的愤怒不太可能被对方听到。一种更好的思考方式是:你的推文越离谱,对方看到的可能性就越小。布雷迪的研究表明,带有情感/道德语言的推文在意识形态网络中传播的方式是有限的。
对于那些真正想与其他用户建立联系的人来说,这可能会让他们停下来,让他们重新思考内容。虽然这并不能阻止大多数发布煽动性内容的人,但有些人可能会重新考虑他们使用的语言。
我们做了一些愤怒的事情,后来常常后悔。如果有时间暂停、查看和撤消标记为有害的内容,可能会降低在最糟糕的时刻分享这些内容的可能性。
注意:以上所有的提示,也可以与类似内容的链接文章一起使用,只要相关内容被正确索引和标记。
表达不同的观点是很难的。在公共场合提出反对的观点更加困难。当我们在公众场合发表评论时,社会上有巨大的压力在起作用:我们在展示自己,在人们的注视下为一个不同的观点做斗争。私人回复可以减少外部压力。
这看起来很好,但我们如何找到这些内容?这难道不棘手吗?是的。让我们在杂草中再呆一会儿。
用更好的指标识别不健康的内容
这比听起来难多了。我们需要指标来训练算法和人去找到我们不想要的东西。如果我们使用不正确的指标进行干预,我们很容易会在一些非常黑暗的地方结束。
算法是人类智慧的体现,就像其他的人类创造物一样,它们可以继承和放大我们的观点和缺陷。这就是所谓的算法偏见,它可以表现在股票市场的失败上;系统性贷款歧视上;不公平的教师评价上;甚至种族不公正的监禁判决上。
Facebook已经围绕着对用户“有意义”的指标对其News Feed算法进行了训练。这个指标的问题在于,许多强烈的人类反应,比如道德上的愤怒、厌恶,被广泛认为是有意义的。
要做得更好,我们需要更好的指标。
通过正确测量用户不希望看到的内容的类型,我们可以为用户提供一个选项菜单,这些选项可以准确地代表他们的偏好,而不仅仅是他们点击的内容。
社交媒体是为当下的自己建立的
一般情况下,我们更不想看到那些能够引发愤怒、有毒的和令人后悔的内容。这些可以是起点。
关键注意事项:标记导致特定负面反应的内容,会立即进入言论自由的领域。如果有人说的话让某些人觉得被冒犯了,平台应该操纵别人的声音吗?那不是审查制度吗?这是一个巨大而关键的问题,我将要解决这个问题。 继续往下读。
这些指标不包括在信息保真度方面正在做的重要工作:虚假新闻、虚假信息和国家支持的宣传,尽管它们可能有助于减少信息的传播。
一旦这些内容类型被识别出来,我们就可以训练受监督的人工智能来标记它们。
令人后悔的内容
后悔是我们在社交媒体上花费大量时间后最常见的情绪。这在很大程度上是因为我们点击了我们知道自己本不应该点击的内容。
这是基于当下的偏见的概念:在考虑未来两个时刻之间的权衡时,人们更看重更接近当下的回报。
衡量当下的偏见是棘手的,但可以在用户消费一组内容后向他们提供一个非侵扰性的、简单的反馈提示。在频率上,需要一些深思熟虑的设计来权衡。
有毒的内容
内容的毒性可以让人们按照从有毒到健康的等级进行评定,有毒可以定义为“粗鲁、无礼或不合理的内容。”做这项工作的一个关键部分,是确保这些术语是由不同的和具有代表性的用户来定义的。
引发愤怒的内容
我们可以通过索引最初由乔纳森·海迪(Jonathan Haidt)和杰西·格雷厄姆(Jesse Graham)开发的道德基础词典,并将其与其他词典相结合来定义它。这一定义也可以扩大和完善,来包括“其他谴责”和极端化的语言。
默认过滤不健康的内容
我们在社交媒体上分享的所有内容,都会通过一个过滤器。Facebook、Twitter和其他平台根据内容吸引注意力的可能性(或者你付给他们多少钱来推广)对内容进行推荐。问题是某些类型的内容,如愤怒、耸人听闻、标题党等等,自然以不健康的方式侵蚀我们的注意力。
对于不健康的内容,可以根据其病毒性按比例减少推荐权重。当然,社交媒体公司已经定期这样做了,来解决滥用内容、盗版、垃圾邮件和数以千计的其他方面的内容。它们也可以对其他类型的内容进行同样的操作,也能够按比例降低引起愤怒、有毒和令人后悔的内容的推荐权重,并使它们与其他类型的内容具有更平等的地位。
注意:这将进一步进入言论自由的领域,并且带来了极大的问题。我将在下文讨论。
给用户 Feed 的控制权
2016年大选期间,当政治愤怒和尖酸刻薄成为我们社交媒体的主旋律时,这似乎是一个糟糕的主意。用户难道就不能把自己局限在充满错误信息的现实中吗?这会不会加剧政治孤立?但随着识别虚假消息、错误信息和宣传的努力不断升温,支撑我们依赖黑盒算法的问题依然存在。缺少的是,我们为什么会在社交媒体上看到这些东西的透明度。
解决这一问题的方法,是让用户可以控制自己看到哪些内容。
如何做到这一点: 控制面板
Gobo的控制面板包含的几个初始指标。
麻省理工学院媒体实验室的一个名为Gobo的项目开始了这个过程,开发了一个开放的社交Feed聚合器,展示了一个控制面板的示例。允许用户通过政治、粗鲁和恶意等指标过滤内容。
另一个类比:积木或食谱
这可能看起来像是一套新工具,用于探索新的视角和我们的Feed深度。这些Feed可以被讨论、重新配置和分享。
这种为用户设计Feed控制权的过程,将打开一个关于什么才能构成健康的信息饮食的关键对话——这种饮食目前因为其专有性质而模糊不清。强迫用户做出决定,还可能鼓励用户更多地了解产生不健康的诱因。
最大的问题
这些干预措施是另一种审查形式吗?如果我们减少网上那些发布我们不同意的内容的可见度,那不是压制言论吗?
这是一个巨大的问题。
在此时此刻,很难再夸大这些平台对社会的重要性和影响力了。近年来,一些重大的社会变革都来自于社交媒体。没有这些文化和政治运动,许多都不可能实现。比如#BlackLivesMatter, #MeToo等等,如果这些声音被压制了会发生什么?
但这里有一个关键问题:社交媒体已经压制了我们的声音。
它们给我们提供服务的方式,并不是一个中立、公正的过程。它不是民主、公平分配或宪法保护的。这些工具已经用我们没有发言权的专有算法来推荐或隐藏内容了。
它们对我们的参与进行审查,以保持我们对这些产品的依赖和联系,并为我们提供广告。从我们按时间顺序排列的Feed变成由机器算法排列的那一天起,就是这些平台不再保持中立了。
这些工具对公共话语、言论自由和民主越重要,这些算法就越难被我们忽视。
这就是关键所在,这些工具很重要,但我们不要求任何控制,就等同于放弃了决定我们社会对话类型的能力。
要注意这三件事:
这些都是可以测试的干预措施。
它们的设计本质上是不分党派的。
它们都可能导致短期的用户参与度减少和广告收入减少,但是在感知,健康和幸福方面,可能会有长期的增长。
这些都不是完美的解决方案。它们是展开深入探讨的起点。
我希望通过对这些设计进行深思熟虑的分析、测试和批评,能引导我们走向一个更好的选择,最终改变或者取代现在这个分裂、有毒和极不健康的数字世界。