Facebook告密者在回忆录中详细描述了社交媒体的无形危险

《Facebook档案》(the Facebook Files)背后的前Facebook员工弗朗西丝·豪根(Frances Haugen)向《纪事报》讲述了这家科技巨头是如何忽视自己构成的严重威胁的。

2021年,在里斯本举行的网络峰会技术会议上,Facebook举报人弗朗西丝·豪根(Frances Haugen)做手势。

图片来源:Armando Franca/美联社

在回忆录《一个人的力量》(the Power of One)的结尾,弗朗西丝·豪根(Frances Haugen)将Facebook和其他科技公司的状况比作汽车行业的早期阶段。她说,目前,我们开车都没有系安全带,或者说,“只有汽车公司自己才有资格测试我们车上的安全带。”或者更糟的是,我们在不了解物理存在的情况下跳进那些车里。

换句话说,Facebook故意为其平台危险的规模和机制提供了一幅不透明的画面,即使我们每天都在使用它的应用程序好几个小时。

豪根是硅谷的资深人士,也是Facebook的前雇员,他泄露的内部信息促使《华尔街日报》展开了名为“Facebook文件”的调查。她曝光的数万份内部文件显示,Facebook在了解其算法如何助长极端主义和暴力、扩散错误信息网络并损害用户心理健康的同时,选择什么都不做。

豪根通过电话向《纪事报》讲述了她的书、她的发现以及她成为举报人的经历。

为了篇幅和清晰度考虑,以下采访经过了编辑。

《一个人的力量:我如何找到说出真相的力量,以及我为什么在Facebook上举报》作者:弗朗西丝·豪根

问:你详细描述了Facebook在美国以外的国家是如何大不相同的,它在助长种族暴力的错误信息宣传中发挥了巨大而系统的作用。Facebook在美国以外的影响有何不同?

更多的信息

《一个人的力量:我如何找到说出真相的力量,以及我为什么在Facebook上举报
弗朗西丝·豪根
(利特尔,布朗公司;352页;30美元)

答:重要的是,人们要明白,因为Facebook很早很早就进入了许多国家(只有在Facebook上使用时才提供免费的互联网接入),人们没有建立自己的新闻网站,而是建立了Facebook群。记者在运营,企业在Facebook上运营,他们不运营自己的网站。这是Facebook有意为之的选择。西方公司在这些国家作为数字社区成员的发展中发挥着巨大的作用。对于美国的普通人来说,这是完全看不见的。

问:你写了Facebook给世界带来的错误选择:为了减轻伤害,它声称我们必须在审查和言论自由之间做出选择。为什么某些可以减轻错误信息或暴力的行动实际上不是审查问题?

答:的各种解决方案,当涉及到社会媒体是变革性的诸如:因为这样的不成比例的错误来自病毒reshares,你可能会说,嘿,一旦信息之外的人的朋友的朋友(post)创建的,只是添加一个沉思的时刻(和)灰色reshare按钮。你可以停下来想一会儿,“我真的想传播这个信息吗?”仅仅一个小小的减速带就足以减少与第三方事实核查程序相同数量的错误信息。

如果你只是进来说,“嘿,我们将优先考虑你选择免费观看的东西,”你会得到更少的暴力,更少的仇恨言论,更少的裸体。你的朋友和家人不是问题所在。这是一个由算法选择的病毒式传播系统,这就是问题所在。但需要明确的是,(这些修正)也会让(Facebook)用户参与度有所下降。

2021年,脸书举报人弗朗西丝·豪根在布鲁塞尔的欧洲议会发表讲话。

图片:Geert Vanden Wijngaert/美联社

问:“Facebook文件”显示,该公司积极选择避免这些措施,因为这会影响用户粘性。你认为马克·扎克伯格是否考虑过这些选择的影响,是否在平台上公然选择利润而不是安全?

答:过去5到10年最大的悲剧之一就是马克·扎克伯格无法从Facebook辞职。他的处境非常非常艰难,因为当你有一些东西与你的身份紧密相连时,你几乎不可能相信你会伤害别人。

只要马克还是首席执行官和董事会主席,只要他被允许完全不受任何限制地运作,没有任何透明度,没有任何责任,任何事情都不会改变。你可以拥有真正以数字为中心的系统,但仍然重视领导力。马克应该做的是说,“嘿,我们这个季度宣布大赦。我们将给你们所有人一点宽恕,本季度的目标将被重置,因为我们知道(指标)将会下降一点,但这很重要。我们知道我们正在伤害人们,我们要尽量减少这种伤害的方式是我们要做X, Y, z。这就是领导的样子。

数据科学家弗朗西丝·豪根(Frances Haugen)于2022年在斯坦福大学(Stanford University)向学生发表演讲,她曾在2021年站出来揭发她的雇主Facebook泄露了该公司的数万份文件。

图片来源:Carlos Avila Gonzalez/The Chronicle

问:您倡导的一个广泛变革是提高数字透明度。的数字服务法将确保大型数字平台完成风险评估,并分享他们关于其系统和算法如何工作的发现。你注意到这种类型的法律不会涉及审查或言论自由。

答:我想更进一步说,现在我们正在被审查,而我们不知道是怎么回事。这些算法传播了一些想法,而不传播其他想法,我们看不到偏见是什么。而内容审核系统——Facebook只有两句话来描述什么会因为仇恨言论而被删除,但他们有一个40页的手册来描述什么会被删除。DSA有保护言论自由的肯定义务。现在,我们愿意接受生活在黑暗中,不知道哪些想法是被禁止的,因为Facebook等网站告诉我们,唯一重要的是内容审核。

问:你认为像DSA这样的法案要在美国获得通过需要什么条件?

答:在美国卫生局局长的历史上,大概只有15次这样的建议发生了什么事(梅的研究发现,社交媒体对儿童和青少年的心理健康构成了风险)。在美国推动改变的是孩子们正在死亡的事实。对于每一个社会问题,我们都愿意容忍一定数量的孩子受到伤害。当涉及到像汽车这样的事情时,我们把8岁的孩子放在汽车座椅上,每年可以节省大约60个孩子。不是很多。说到社交媒体,每年有超过60个孩子死去。

我一直在努力寻找儿童自杀率的数据,这些数据比5年前晚了很多。现实情况是,数据是一场曲棍球比赛。儿科医生接受的是目前的数据,他们看着孩子们死去。我不知道这个神奇的数字是多少,但我们开始接近我们愿意伤害多少孩子。

2022年,数据科学家弗朗西丝·豪根(Frances Haugen)向斯坦福大学(Stanford University)的学生发表演讲,她告发了自己的雇主Facebook。豪根在她的新书中详细描述了她是如何成为告密者的。

图片来源:Carlos Avila Gonzalez/The Chronicle

问:你在书中写道,Facebook的崛起是科技发展速度快到社会无法跟上和适应的一个例子。这是发生在人工智能上现在。你如何看待整个社会对技术的适应?你对我们的能力抱有希望吗?

答:社交媒体的问题在于没有足够的人参与进来,没有足够的人了解这些系统是如何运作的。

我们要做的就是非营利组织“屏幕之外”的工作是,我们想在世界上创造一百万人,他们有我这样的流利程度,关于建立这样一个系统的选择是什么?这些选择的后果是什么?治理不能依靠一个、两个或一百个人来理解正在发生的事情。你需要世界各地成千上万不同的人来进行真正的民主监督。

你可以在社交媒体上发布相当多的数据,这些数据对隐私不敏感——它是被一万人看到的帖子,诸如此类。我们不必侵犯人们的隐私,但突然之间,我可以在YouTube上开设一个分析数据的频道。你可以有社交媒体俱乐部来分析数据。你可以有学者,你可以有研究生,你可以有本科生分析数据。我们应该说:如果技术以指数级的速度发展,我们如何让更多的人关注它?

布兰登·余是一名自由撰稿人。

  • 布兰登余
    布兰登余Brandon Yu是一名文化作家,他的作品曾出现在《纽约时报》、《大西洋月刊》、《名利场》、《滚石》、《综艺》等杂志上。他来自湾区,住在洛杉矶。