(10/13/2021)
今天的新闻我们继续聚焦于
Facebook 内部员工爆料这件事上。这件事的具体情况,请参见
10 月
8 日“今日美政” 的内容。简单地说,来自脸书公司的产品经理 Frances Haugen 披露,脸书作为社交媒体,其向用户推送的内容,更多地是为了服务于自己的商业目的,为了吸引使用者的眼球。作为一个庞大的具有垄断地位的社交媒体平台来说,脸书公司如何推送内容,这不但会影响到用户的利益甚至健康,也会对社会产生很大的影响。
这就是为什么我特别关注脸书事件的原因。但对于我来说,我认为更重要的是,在未来,当人工智能已经成为我们生活中一部分,成为我们大脑向外扩展的部分的时候,我们回顾今天美国议会对脸书公司做出的各种审查和判决,针对社交媒体平台内部计算机算法设定的立法,我们很可能会说,“看呐,这就是人类第一次开始直面人工智能的挑战。”
事实上如果你仔细想一想当前的现状,我相信你也会有一种不寒而栗的感觉:这是一个控制着超过
30 亿人看什么和不看什么内容的社交媒体公司,而他们如何选择你接受到的信息,竟然是基于一套他们内部开发的,没有公众知道到底标准是什么的计算机算法!换句话说,稍微夸张一点地说,这一套计算机算法,事实上决定了
30 亿人接受信息的框架。而人类目前对此还处于刚刚觉得什么地方不对劲的境地。
我们抛开所有的政治分歧和具体的诉讼案件,仅仅这一件事情,就足够让我们感到必须做点什么了的。
其实不仅仅是脸书公司,包括所有的社交媒体平台,YouTube、TikTok、Snapshot、Instagram
等等等等,他们都有自己的推送算法
the news feed algorithm,这些算法,实际上决定了我们接受信息的框架。我们很少有人去选择好几页之后的推送,基本上我们打开的内容,都在第一页的前几项。我们选择的面其实非常小,大的选择框架,已经由算法给你规定了。
但是,我们竟然没有人知道这个算法到底是怎么规定的。我们接受的信息真的是对我们有益的吗?我们需要注意这样一个利益错位。
即社媒平台公司不是我们的父母亲人,他们的利益诉求和用户是有区别的。说极端一点,社媒公司恨不得你整天看着媒体平台,不断地被动接受广告,这样才是达到公司利益的最大化。这并不是说社交媒体平台公司都是坏人和奸商,而是说,我们之间的利益并不一致。在利益不一致的情况下,我们如何能完全信任一家公司自行决定的推送算法呢?
据脸书产品经理
Haugen 的爆料:“脸书公司推送的内容,有一个原则就是要鼓励你的参与,刺激你做出反应。尽管他们内部的资料已经显示某些内容是有害的,是有仇恨信息的,是鼓励人们分裂和极端化的,但正是这样的内容,却更容易符合脸书公司算法的要求,因为他们更能刺激人来参与发言。” 没错,发言越多,引起的争论越多,脸书公司的利润就越多。这个逻辑实际上对于社会来说,是危险的。
再说宽泛一点。对于青少年来说,如果你痴迷于减肥或者卡通动画,那么脸书就会给你推送更多类似的内容。但是,脸书公司不会给你推送和科学教育有关的内容。即使开始有所推送,但只要你忽略几次,不去点击,这种推送的内容就会越来越少乃至消失。换句话说,脸书作为以点击率为赢利点的商家,算法显然一个最基本的逻辑就是,你想看什么,我就给你推送什么。至于那些内容对你好不好,你自己负责。但我们知道,青少年在对自己负责方面,还需要经过更多的训练。
所有这一切,都指向一个方向。那就是,我们需要监管这一算法本身。而这一算法的本质,就是最基本的,为我们做出选择的人工智能。人的大脑的所谓理性思考方面,最基本的一个动作,就是做出选择。说人工智能是人类大脑的扩展,就是在这个意义上说的。人工智能在替我们做出选择,正如
GPS 在替我们选择道路一样。那么,我们今天决定要监管脸书的推送算法,本质上就是人类第一次开始正式向控制人工智能做出的尝试。
有议员提出,完全废除推送算法。让用户自己去索引相关内容。但这一提案相应的人不多,因为这毕竟相当于斩断我们大脑选择的延申。我们目前这个选择助手有些问题,但完全不要选择助手,显然不是一个面向未来的做法。另外,推送做法也有一定的益处,它可以使一些普通人的看法得到更多相应。如果没有相关词的推送,我们每个小民在脸书上发表的意见,就只能由我们的亲朋好友才能看见了。因此,大多数人还是提出,应该保留推送算法,但做出一定的监管。
我们首先要克服一些法律问题上的障碍。那就是宪法第一修正案和美国1996
年通过的通讯规范法
CDA 中的
230 条款,一般称为
Section 230。宪法第一修正案大家比较熟悉。当前来说,不会引起“迫在眉睫的非法行动”imminent lawless action 的言论,都在第一修正案的保护范围内。而
Section 230 则被认为是“26 个字开创了互联网“ 的,即”互联网服务提供商,如果其内容来自第三方,则互联网服务商不作为出版法,无须为内容负责“。关于
Section 230 的争论非常有意思,民共两党都对此条款不满意。但不满意的内容却不一样。
如何绕开这两项法律,是一个较为模糊的问题。有些学者认为,强迫社媒平台公司修改或公开算法,可能会触犯宪法第一修正案。但另一些学者则认为,这不是自由言论的问题,而是自由选择的问题,因此有希望不受第一修正案的约束。对于
Section 230,因为这是一个议会立法,因此议会本身可以做出修改。但目前来说,只有很少一些人愿意完全去除 Section 230, 因为这毕竟是一个保护互联网企业的条款。更多的立法者试图去对 Section 230 进行一些修改。比如有些议员提出,将一部分内容放在
Section 230 的保护范围之外,比如仇恨言论,误导的信息,尤其是科学上医学上有误导的信息,违反人权的言论,涉及国际恐怖主义的言论等,这些内容需要社媒公司自己去屏蔽筛选,如果被公布,则社媒公司需要付连带责任。
但是,我前面说过,这是一个非常复杂的问题。目前人类的计算机算法虽然非常智能,但依然是会犯错的。社媒公司内部的筛选有害言论的算法,也并不能识别所有的非法信息和有害言论。那么一旦有害言论被扩散,网络媒体公司就要受到牵连,这对于媒体公司本身来说,也是不公平的。甚至导致这样的立法缺乏可行性。
还有一个问题需要提出,界定有害信息的权力应该归谁?这是一个还没有提上日程的问题,但显然这会成为下一个争论的焦点。我们举例来说,如果我们现在生活在宗教改革之前的中世纪,那么任何反对天主教的信息都是有害信息,如果那时候就有脸书公司,那么脸书公司很可能因为不能受到
Section 230 的保护,而将马丁路德的《九十五条论纲》 全部下架。普通老百姓根本看不到路德的主张,基督教新教也就无法诞生。这个问题,应该如何解决?
大多数立法者和学者都同意一点,就是要增加推送算法设定的透明度,要让公众知道,社媒公司到底是根据什么标准来推送信息的,这个标准,需要被议会及其下属机构讨论并接受监管。这一做法目前正在被欧洲接受,欧盟可能会通过一个”数字服务法案“(DSA)
来要求社媒公司公开自己的算法和内容审查的标准等。
另外,还有些人提出这样一个解决方案,即像脸书这样的垄断性的社媒公司,不能垄断算法。也就是说,用户有权选择第三方公司设计的推送算法来为自己选择内容,这一提案还得到了我们昨天提到的著名政治学者福山的背书。这一引入竞争机制的做法,也可以反过来迫使社媒公司更加站在用户利益的立场上去设计算法。
总之,这是一场漫开始。计算机算法,本质上其实只是人类创造的一个工具。但人类和自己创造的工具,机器之间的战斗,从机器诞生的第一天起就开始了。我们塑造了机器,机器反过来塑造我们。我们即无法摆脱对机器的依赖,又渴望逃脱被塑造的命运。但人工智能将这一斗争提升到了另一个维度上。现在机器直接开始挑战我们的理性,挑战我们的人生意义(因为人生的意义本身,就在于选择,如果选择是机器替你作的,那么你活着就仅仅成为了机器选择的产品,而失去了意义)。从这个角度来看,当前长的战争的刚刚开始的对社媒公司推送算法的监管和审查,将很可能成为人类向人工智能宣战的第一枪。