人工智能宣传导致误解:流于表面而又危言耸听

美国知名计算机科学家杰瑞·卡普兰(Jerry Kaplan)今日在《麻省理工科技评论》上撰写专栏文章称,人工智能(AI)存在着如何向大众宣传的问题。由于AI理论的复杂性,以及这项技术的名称问题,可能导致大众的误解。AI并不像宣传的那样可怕,引导人们正确认识AI非常重要。

以下是文章主要问题:

如果人工智能(AI)不被命名得那么稀奇古怪,我们的担心可能会少一些。

HBO的科幻剧《西部数据》有一个常见噱头——合成机器人联合起来,反抗无情的人类创造者。但它仅仅是一个扭曲的情节吗?毕竟像比尔·盖茨(Bill Gates)和斯蒂芬·霍金(Steven Hawking)之类的聪明人早已警告说,人工智能可能会走上危险的道路,可能威胁到人类的生存。

他们不是唯一担心的人。欧洲议会法律事务委员会最近发表了一份报告,呼吁欧盟要求智能机器人登记注册,部分原因是此举可以对机器人的道德特征加以评估。“停止杀手机器人”(Stop Killer Robots)运动反对在战争中使用所谓的自主武器,正在对联合国和美国国防部的政策产生影响。

人工智能看似存在一个公共关系问题。尽管如今机器完全可以执行很多曾属于人类的任务(例如下棋、驾驶汽车),但这并不意味着机器正变得越来越聪明和雄心勃勃,而只是意味着它们在做我们让它们做的事情。

机器人可能将会实现,但“它们”不会威胁到我们,因为这些机器人是“它们”而不是“他们”。机器不是人,而且没有令人信服的证据表明,它们将具有感知能力。

几个世纪以来,我们一直在劳动力大军中充实熟练和知识丰富的工人,但机器并不能激发更好的工作和更高的就业机会。十九世纪,提花织机取代了专家级针织工人,但这些了不起的设备即使配备了存储有无数织物图案的穿孔卡片,也无法使成衣制造商和裁缝店消失殆尽。直到二十世纪中期,我们依靠我们中最优秀、最聪明的人编写出算法——充当“计算器”竟然成为一项极其受人尊敬的职业。现在,尽管在贸易展上,具有同等运算能力的设备被作为促销小玩意儿送来送去,但是,在统计分析等需要更广泛技能的工作中,拥有数学头脑的人仍得到重点关注。不久的将来,你的汽车将遵照指令把你送到办公室,但你不必担心这辆车与Uber签约,利用你开会的闲时,出去挣几个油钱花花,除非你不想让它这样做。

人工智能利用了一些强大的技术,但它们不及你的期待,兼容得不太好。早期的研究人员专注于按照规则操纵符号的方法。对于证明数学定理、解决难题,或铺设集成电路等任务而言,这是有用的。但事实证明,一些标志性的AI问题,例如在图片中识别物体、将口语转化成书面语言则难以破解。近期一些更新的技术打着机器学习的幌子跃跃欲试,似乎更适合应对这些挑战。机器学习程序从大量的数据集合中提取有用的模式。它们强化了亚马逊和Netflix的推荐系统,精确了谷歌的搜索结果,并能够自动描述YouTube视频里的容,识别人脸,炒股,驾驶汽车,利用大数据解决了无数其他问题。但这些方法都不是所谓“智能”追求的目标。事实上,在人工智能的标签下,它们相当尴尬地共存着。两种各具优势的主要方法同时并存,仅仅这一事实就会引来问题——它们中的一个会否成为普遍性智力理论的基础。

在大多数情况下,媒体大肆吹捧的人工智能成就并不能证明该领域已获得重大进步。去年,谷歌公司的人工智能程序赢得了围棋大赛,这与1997年IBM机器人击败世界国际象棋冠军不可同日而语;当你偏离路线时汽车哔哔作响,这与为你计划路线的功能完全不同。然而,连篇累牍的成就报道往往只是把不同的工具和技术胡乱拼凑在一起。读者很可能将战胜人类的机器视为这些工具变得越来越智能的证据——但事实并非如此。

大众对人工智能的认知脱离实际,部分原因是该领域缺乏一套连贯的理论。没有这样的理论,人们就无法对进步加以衡量,而所谓的进步只是任何人都可以做出的一种猜测。结果,我们所听到的声音来自嗓门最大的人,而具有实质意义的内容被淹没其中,关于机器人杀手的新闻报道基本无人质疑。

我认为,人工智能所面临的一个问题是其名称本身。它诞生于五十年前,描述的是通过计算机编程来解决人类面临的智力或注意力的问题。假设人工智能不是被命名得如此古怪吓人,或许它会像作业研究或预测分析一样平淡无奇。

也许可以选择一种挑衅性更少的描述,例如“人择计算”。类似这种宽泛的名称能够涵盖仿生计算机系统的设计、模仿人类形态或能力的机器、以自然、熟悉的方式与人类互动的程序。

我们应该停止将这些现代奇迹描述为类似人的东西,而代之以将它们称为新一代灵活和强大的机器。我们应该小心翼翼地部署和使用人工智能,而不是召唤出一些可能会背叛我们的神秘恶魔。相反,我们应该抵制我们把人类的特性施加于我们的作品之中的癖好,就事论事,只将其视为非凡的发明——一件强有力的工具,可用于创造一个更加繁荣和舒适的未来。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注