不要轻信资本炒作人工智能
作者 黄湘
发表于 2025年2月

《人工智能蛇油:AI能做什么,不能做什么,以及如何分辨》

作者:[美] 阿文德·纳拉亚南(Arvind Narayanan),萨亚什·卡普尔 (Sayash Kapoor)

出版社:Princeton University Press

出版时间:2024年9月

定价:24.95美元

本书揭示了人工智能的局限性,以及围绕它的各种炒 作。

阿文德·纳拉亚南是普林斯顿大学计算机科学教授,萨亚什·卡普尔是普林斯顿大学计算机系博士研究生

人工智能(AI)无疑是当今全球最火的概念,不仅与这个概念有关的初创公司无一例外受到投资者的追捧,许多传统企业也争先恐后地为其产品和服务贴上人工智能的标签。

然而,人工智能的概念其实是将一系列彼此相异的工具和研究领域简化成一个整齐而便于营销和炒作的包装。如果“交通工具”是用来指代所有交通方式的唯一词汇,关于环境影响、安全性、成本等方面的讨论将变得混乱,因为这意味着把自行车、汽车、火车和飞机混为一谈。关于人工智能的讨论也是如此。

普林斯顿大学计算机科学教授纳拉亚南和他的博士研究生卡普尔近年来在社交平台Substack上开设专栏的“人工智能蛇油”(AI Snake Oil)受到了广泛关注。“蛇油”是美国俚语,意指贩卖者声称包治百病,但实际上毫无用处的所谓“灵丹妙药”。两位作者指出,由于人工智能一词指代了广泛的技术和应用,大多数公众无法区分哪些类型的人工智能可以按照宣传和承诺运作,哪些只是“蛇油”。

2024年,他们基于发表在该专栏的文章撰写了《人工智能蛇油:AI能做什么,不能做什么,以及如何分辨区别》一书,旨在揭示人工智能的局限性,以及围绕它的各种炒作。

两位作者将人工智能分为3种类型:预测型AI、生成型AI和内容审核AI。预测型AI通过预测未来事件为决策提供信息;生成型AI能够合成和制作文字、图像和视频等媒体内容,是近年来备受瞩目的热点;内容审核AI被用于清理社交平台上的内容。

预测型AI是“蛇油”最为集中的领域,因为它常常与现代的机器学习算法毫无关系,仅仅是使用了几十年前的线性回归或逻辑回归工具,只是这些工具被包装成了人工智能产品销售。即使是那些使用了机器学习算法的人工智能产品,也常常由于各种原因出现荒谬的错误。

在新冠疫情大流行期间,业界推出了大量预测新冠肺炎的人工智能研究项目。后来,剑桥大学的迈克尔·罗伯茨及其团队分析了约500项此类研究,结果没有一个研究被证明在临床环境中有用。

例如,有一项研究训练了一个机器学习模型来预测新冠肺炎,但是训练中使用的所有阳性样本(确诊病例)都来自成年人,所有阴性样本(未确诊病例)都来自儿童。因此,该模型所谓的预测新冠肺炎的能力其实完全是通过识别X光片属于儿童还是成年人来实现的。

很多预测型AI在测试的时候,使用了训练时用过的,或者与之相似的数据,从而导致夸大的“准确率”。这相当于考试前泄露考题,但是,主流媒体几乎从来不向公众披露这一风险,也很少存在由第三方独立验证这些AI模型的可靠性的机会。这导致了预测型AI的一个普遍问题,它们是基于某一个群体的数据训练出来和通过测试的,但在使用的时候会被应用到不同的群体。

2021年1月,荷兰前首相吕特(Mark Rutte)领导的政府因为一件丑闻集体辞职,原因是税收机构使用的一种AI模型错误地断言一些移民家庭欺诈性领取了儿童福利金,从而向这些家庭追回福利金,导致许多家庭陷入财务危机。

本文刊登于《第一财经杂志》2025年2期
龙源期刊网正版版权
更多文章来自
订阅