严传红
美国莱斯大学贝勒医学院副教授基尼维拉·艾伦在美国科学促进会2019年年会上发出警告:数以千计的科学家用来分析数据的机器学习技术,正在产生具有误导性且常常是完全错误的结果。这种机器学习系统使用量的激增正在导致一场“科学危机”。
机器学习已被用于研究科学和医学数据与某些现象之间的关系,如基因与疾病之间的关联性等。机器学习一旦发现病人基因与疾病特征之间存在特定联系,研究人员可能就会对相应的发现提供合理的科学解释。但在艾伦看来,这并不意味着那些发现就是正确的。他认为,软件识别的是只存在于数据集中的东西,而非真实世界中的模式。
一项分析表明,在全世界开展的所有生物医学研究中,有多达85%的研究都是在白费工夫,20年来这种危机愈演愈烈。之所以会出现这种情况,是因为实验的设计并不完善,无法确保科学家们不会自欺欺人——只想得到自己想要的结果。按照那位女博士的说法,机器学习系统和大数据集群的使用加重了这场危机,因为机器学习算法是专门为在数据集群中寻找“有趣”的东西而开发的,所以当它们在大量的数据中进行搜索时,将不可避免地找到一种模式,可这并不能代表科学的真正发现。
应用一种有缺陷的人工智能技术,居然会导致“科学危机”?这不禁让人感叹:在几乎所有的编码知识都能够即刻获取,且计算机可以解决极其复杂的问题,帮助寻找最合理答案的时候,相较于教授真理、技术和答案,传授创造力、判断力和解决问题的能力要困难得多。我觉得,人们很有可能已然变成计算机控制的木偶,被机器的判断所束缚,乃至思维模式都已被重塑而不自知。近年来,已有多位学者就此问题发出了警示。
《哈佛商业评论》原执行主编尼古拉斯·卡尔在《浅薄:互联网如何毒化了我们的大脑》一书中指出,所有的信息技术都会带来一种智能伦理。印刷图书让我们进入聚精会神的状态,从而促进深度思维和创造性思维的发展。相比之下,融多种不同类型信息于一屏的互联网多媒体技术,鼓励我们蜻蜓点水般地从多种信息来源中广泛采集碎片化的信息。此时,我们很可能已经开始失去其他的思维方式,特别是那些需要持续的注意力,需要集中精神的思维方式,以及那些需要沉思、反思和内省的思维方式。而这种精神层面的改变在教育、创新、文学、艺术,甚至在精神健康方面已经产生了很多实际的后果。
美国芝加哥大学教授詹姆斯·A·埃文斯发表于《科学》上的文章就提醒学者:在以往印刷刊物上的文章纷纷实现数字化并传到互联网上的过程中,学者们对发表日期更近的文章的引用频率呈现出不断上升的趋势,可用信息范围日益加宽。然而,这却导致了阅读和引用、科学和学问的日趋狭窄。为什么呢?
按照埃文斯的分析,像搜索引擎这样的自动化信息过滤工具往往会成为文章声望的放大器。在什么信息重要,什么信息不重要上,这种过滤工具建立起了一种舆论观点,然后又持续不断地强化这种观点。此外,跟随超链接一路前行轻松便捷,也导致在网上进行调查研究的那些人“會跳过很多相关程度不高的文章”。所以,学者们找到由搜索器为我们“规划”了排序的“主流观点”的速度越快,他们“遵从这种观点,从而导致在更少的篇幅中引用更多内容”的可能性就越大。
这又意味着什么呢?按照一位中国学者的解读,就是不知不觉地把读者引向了主流观点,加快了意见统一,使结论和想法变窄。“阅读内容的多样化遭遇阻碍,这对思想的独立、开放、创新是不可忽视的威胁。”
韩国学者李焌桢也注意到:互联网上片面的信息推送系统会妨碍我们进行其他角度的思考,拦截了可能偶然遇到的多种信息,只是重复加深自己已相信的事实。渐渐地,在我们的生活里就只会出现那些自己期望的信息。当所有的人都只依赖搜索引擎探索信息时,就会有越来越多的人对事物持相同的观点,而且这种观点会加速扩散。最终,其他观点迅速消亡,从而使人们的选择更狭隘,思维更封闭。
如此下去,可以想见,我们的世界很有可能被数据左右,因为对数字技术的盲目依赖改变了社会变化的形态,人们的想法会越来越依赖于机器的判断,进而产生深层的社会影响,让人们滑入一个自我封闭的陷阱里,就如英国学者彼得·斯科特-摩根所忧心的那样——“通往极端的狭隘”。