从中国到美国,为什么我们需要禁用算法的权利

三易生活 2021-11-15

https算法

1898 字丨阅读本文需 7 分钟

近年来,早前萦绕在互联网企业身上的光环已经开始逐渐褪色,并且随之而来的,是各国监管机构将其放到了聚光灯之下。就在不久前,国内监管部门连续发布《互联网信息服务算法推荐管理规定(征求意见稿)》与《关于加强互联网信息服务算法综合治理的指导意见》后,海外市场也开始关注互联网企业使用算法所造成的影响了。 

日前有消息显示,美国众议院议员提出了一项法案,要求Meta旗下的Facebook和Google等互联网平台允许用户查看非算法选择的内容,也就是要求这些平台向用户显示算法之外的信息。这些议员在声明中表示,“消费者应该有权选择如何使用互联网平台,而不必受到由特定用户数据驱动的秘密算法操纵。” 

当大洋两岸都开始关注互联网企业用算法来改变乃至塑造潮流的能力,无疑是一种好事。毕竟,算法如今已成为了互联网世界中几乎是最为核心的信息推送机制,并成为了大家日常生活中不可分割的一部分,甚至算法机制在某种意义上已经塑造我们的社会意识。 

通常,我们所说的“算法”指的是推荐算法,本质上其实是一种信息过滤的手段。早期,互联网厂商秉承着原教旨的互联网精神,将所有信息一股脑地推给用户,但用户却并没有接收海量信息的能力,所以即便是搜索引擎也需要用户先有一个“关键词”。但问题是互联网上的信息太多,而人的认知范围太小,这就导致了在算法出现前,大量有价值的信息被浪费,并没有被真正需要的人发现。 

这时候推荐算法帮助用户解决了信息过载的问题,是一种信息发现工具。对于互联网厂商来说,推荐算法实现了挖掘用户需求并投其所好的作用,它的引入是以内容推送代替了用户的寻找,其设计初衷是增加用户寻找目标内容的效率。而讨好了用户、满足了用户需求,也就意味着互联网厂商的商业利益得到了保证。 

那么为什么推荐算法走到今天,却反过来被不少用户反感,甚至于需要被监管呢?一种通俗的解释,是推荐算法会让用户陷入“信息茧房”或“过滤气泡”(Filter Bubble)。因为算法会基于用户的个人兴趣、社交关系、地理位置等数据,推荐与用户偏好高度匹配的个性化内容,但长期处于单一信息来源的环境下则会形成回音室效应,将自己桎梏于像蚕茧一般的“信息茧房”中,容易一叶障目不见泰山。 

不过在学界关于"算法是否会将用户囚禁在信息茧房中”的问题,其实是有一定争议的。传播学中的“选择性接触理论”揭示了这样一个事实,就是人通常更倾向于接触与自己既有立场、观点、态度一致或接近的媒介和内容,而有意无意地去回避那些与自己既有倾向相左的媒介或内容。从这一理论出发,就可以解释为什么人们更愿意向与自己价值观、立场、态度等相似的人靠近,以此获得抱团取暖、相互支持的可能,并最终形成一个个小圈子的原因。 

换句话来说,基于兴趣或价值观进行信息消费其实是人的天性,陷入“信息茧房”也是某种从人性出发的必然,所以算法并不是“罪魁祸首”。而推荐算法真正的问题,其实在于伦理和道德领域,以及它在互联网时代重新建构了人与社会的关系。 

事实上,推荐算法是在以机器学习为代表的第三次人工智能浪潮兴起的背景下出现,机器学习算法通过基于大数据的自我训练、自我学习过程,完成参数调整与模型构建,并实现自我强化。英国物理化学家、哲学家迈克尔·波兰尼曾指出,“人类知道的远比其能表达出来的更多”,这就是经典的“波兰尼悖论”。 

在机器学习之前,传统算法局限于人类对于自身的表达,需要设计者明确计算机在给定条件下的给定动作,而现在的算法则突破了人类表达的局限性。固然这带来了效率上的飞跃,但算法可以模仿人的思维方式,却无法模仿人的伦理自主性,在算法实现的过程中排挤了人们对于伦理逻辑与价值理性的追求。 

这也是为什么会出现谷歌图片软件自动将黑人标记为“大猩猩”、亚马逊的招聘软件在招聘员工时读取到带有女性、女子相关词汇时,会降低简历权重的现象。又或者说,在去年秋季引起轰动的《外卖骑手,困在系统里》一文中,描述了算法给出的“合理”配送时间,是需要通过危险驾驶、交通违章才能实现的现象。 

当然,现阶段算法的伦理问题其实是与互联网厂商的商业道德密切相关的。曾经有观点认为,算法只是一个工具,它公平地对待平台内的所有内容,并表示“算法没有价值观”。但遗憾的是,这种说法其实是不科学的。负面情绪的激发在用户点击和观看上有着更为直接且更为有效的作用,并且这已经被科学研究证实,在算法的作用下,负面信息在内容分发上被给予了远超其在传统媒体中内容分发的权重。而Facebook为了提高用户参与度,发现最好的参与方式便是向用户灌输恐惧和憎恨,就其实是最好的例子。 

对于互联网平台而言,如果单纯以商业利益为导向,其所采用的推荐算法是必然会对负面信息的分发推波助澜。再配搭“过滤气泡”的作用,就会在某一群体内促成自我强化的偏见(Self-reinforcing Bias),并最终导致群体极化。 

这也是为什么快手联合创始人宿华会说,“社区运行用到的算法是有价值观的,因为算法的背后是人,算法的价值观就是人的价值观,算法的缺陷是价值观上的缺陷”。然而,如果算法要契合正向的价值观,也就意味着它就是反商业的,这也是为什么监管机构要出手规制互联网厂商算法推荐的原因所在了。 

本文来自微信公众号 “三易生活”(ID:IT-3eLife),作者:三易菌,36氪经授权发布。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:三易生活
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...