数字经济头条 > 它们让你对AI的未来充满恐慌,细数AI预言七宗罪(上)

它们让你对AI的未来充满恐慌,细数AI预言七宗罪(上)

作者:数科邦 发布时间:2017-10-30 1491 0 0

  16.jpg

  最近读到一篇文章。文章讲的是,在未来10到20年内,机器人将取代一半的现有工作岗位。文中甚至给出了柱状图来证明这些数字的有效性。

  文章的结论太荒唐了。比如文章说,在未来10到20年内,地面维修工人数量将由100万名缩减到5万名,因为机器人将会取代这些工作岗位。那现在这些岗位上有多少机器人在运行?一个都没有。这一领域有多少具备实用价值的演示模型机器人工作着呢?一个都没有。还有很多类似的文章认为,对于那些目前需要在特定场合进行体力劳动的岗位,超过90%都将会被终结。这些适用于其他所有领域的文章也存在同样的问题。

  错误的预测将导致我们害怕那些不会发生的事情,不论是对工作岗位的大范围取代,奇点,还是与人类价值观不同的甚至试图毁灭人类的AI。对于这些错误,我们需要反击。但是,为什么人们会产生这些错误呢?我找到了七个常见的原因。

17.jpg

  高估和低估

  技术的作用总是在短期内被高估,而在长期内被低估。

  这短短的句子凝结了太多东西。乐观主义者会有一种解读,而悲观主义者会有另一种解读。

  有关Amara定律两面性的一个绝佳例子就是美国的全球定位系统GPS。1978年开始的时候,GPS的卫星轨道上包含由24颗卫星(现在是31颗卫星,含冗余)组成的星系。GPS的目标是为美国军队的弹药投放提供精准的位置支持。但是这一项目在20世纪80年代几乎被一次次取消。符合GPS设计目的的第一次实战使用是1991年的沙漠风暴行动,GPS额外取得了数次成功,才使得军方接受它。

  错误的预测将导致我们害怕那些不会发生的事情。

  现在,GPS已经到了Amara所说的“长期”,而它现在的应用方式是起初无法想象的。我外出跑步时,我的苹果手表2代就会使用GPS功能足够精确的记录我的位置,精确到能够确定我跑步时是在马路的哪一侧。苹果手表中GPS接收器的微小尺寸和低廉价格是初期的GPS工程师们无法想象的。GPS技术在全球范围内同步进行物理实验的时间,并在同步美国电网的时间和保持电网运转方面发挥重要作用。它甚至允许那些真正操纵着股市的高频交易员避免毁灭性的定时错误。所有的飞机,无论大小,都使用GPS导航,GPS还用来跟踪假释出狱的人。GPS决定了世界各地的哪些地区种植哪种种子。GPS技术可以跟踪卡车车队并汇报司机的驾驶行为。

  GPS最开始时只有一个军事目标,然而,要让它像最初预期的那样工作,绝没那么简单。现在GPS已经渗透到我们生活的方方面面。如果没有GPS,我们不仅会迷路,而且会受冻、挨饿,甚至很可能会死掉。

  在过去30年中,其他技术有着相似的模式。起初人们抱有巨大的期待,然后是巨大的失望,之后慢慢地对超出最初预期的结果产生了信心。这一模式在大规模计算、基因组测序、太阳能、风能,甚至是购物送货上门等方面都是如此。

  在20世纪60年代,在20世纪80年代,AI一次又一次地被高估。我相信,现在它又被高估了。但它的长期前景也可能被低估了。问题在于,长期是多长?后面的6个错误能帮我们解释,为什么对于AI的未来而言,时间尺度被严重低估了。

  18.jpg

  2.想象中的魔法

  亚瑟·克拉克是科幻小说作家“三巨头”之一,其余两位是罗伯特·海因莱因和艾萨克·阿西莫夫。但是克拉克还是一位发明家、科学作家和未来主义者。在1962年到1973年之间,他发明了后来被称为克拉克三定律的三条格言:

  如果一位年高德劭的科学家认为某事是可能的,那他几乎肯定是正确的;如果他认为某事是不可能的,那他很可能是错误的。

  发现可能性的边界的唯一途径,就是跨越这一边界,进入到不可能的领域。

  任何非常先进的技术,初看都与魔法无异。

  从个人角度而言,我对克拉克三定律的第一定律的后半句持保留意见,因为我在有关AI将在多久时间内占据优势地位一事上比其他人更为保守。但是现在我要在克拉克第三定律上展开论述。

  想象一下,我们有一台时光机可以把艾萨克·牛顿从18世纪晚期穿越到现在,并把他安顿在他熟悉的环境中:剑桥大学三一学院教堂。

  现在给牛顿看一台苹果公司的产品。从你口袋中取出iPhone,开机让屏幕亮起来并布满图标,把iPhone给牛顿。牛顿曾经利用菱镜将太阳光分解,揭示了白光是由不同颜色的光组成的,并将不同颜色的光又混合成了白光,但他毫无疑问地将对在黑暗教堂中能发出如此耀眼色彩的装置感到诧异。现在播放一部英国乡村场景的电影和一些他应该听过的教堂音乐。然后向他展示这个网页,网页中有他个人批注的500多页的皇皇巨著《自然哲学的数学原理》。教给他如何通过缩放手势来放大网页细节。

  要留意那些有关未来技术是不是魔法的争论。

  牛顿有可能解释这个小装置是如何实现这一切的吗?尽管他发明了微积分,还解释了光学和重力的原理,但是他却从未能正确区分炼金术和化学。所以我认为他会非常困惑,并且根本想不出这个设备的最基本的轮廓。对他而言,这和超自然的化身没什么不同。这个跟魔法是没办法区别的。同时要记住,牛顿可是那个年代相当聪明的人物。

  如果某个事物是魔法,我们就很难知道它的边界。假设我们更进一步地给牛顿展示了这个装置如何照亮黑暗,如何照相、录像、录音,如何用作放大镜和镜子。然后我们向他展示,它可以用来以极高的速度和极高的精度进行算术计算。我们展示一下,牛顿拿着iPhone的时候,iPhone记录了他的步数,继续向牛顿展示他可以用iPhone与世界任何地方的人们即时通话,就在教堂中即可。

  牛顿可能会推测这个设备能做的其他事情是什么?用来分散太阳光的菱镜是永远有效的。他会不会推断iPhone可以一直用下去,忽略了自己没有理解它还需要充电?回想一下,我们把牛顿从迈克尔·法拉利出生前100年的时代抓回来了,所以他根本没有对于电力概念的科学理解。如果iPhone能在没有火的情况下产生光,那它也有可能会将铅变为金子吧?

  这就是我们在猜想未来科技时遇到的问题。如果未来科技距离我们现有的目前能理解的科技足够遥远,那么我们就不知道未来科技的边界。如果未来科技与魔术无法区分,那人们说的有关未来科技的任何事情都将无法证伪。

  这就是我与人们争论是否应当害怕广义人工智能(artificial general intelligence,缩写为AGI)时常常遇到的问题。广义人工智能(AGI)指的是我们将建造出与人类一样运作的自主机器人。我被告知自己还没明白广义人工智能会有多么强大。这不是争论所在。我们对于广义人工智能是否存在都没有概念。我希望它是存在的——这一直都是我自己在机器人和AI领域工作的动力所在。但是现代广义人工智能(AGI)研究的进展十分不好,不论是在广义上还是在支持持续存在的独立个体上。广义人工智能(AGI)貌似主要受困于人工智能至少50年来一直存在的问题上,即推理和常识。我看到的所有证据都证明我们目前在如何建造广义人工智能方面毫无头绪。它的特性完全未知,所以在修辞上他就很快变成了魔法,强大而没有任何边界限制。

  宇宙万物无不有边界。

  小心有关未来科技是魔法的争论。这样的争论永远无法驳斥,因为它是信仰之争,而不是科学之争。

  19.jpg

  3.性能与能力

  我们一直都在利用人们完成某一特定任务的表现作为线索,来推断他们完成其他任务的能力。我们在国外城市向一位陌生人问路,她自信地给出回复并指给我们看起来说得通的方向,所以我们会觉得,想要乘坐公交的时候,还可以问她如何支付公交车费。

  现在,假设有人告诉我们,一张特定的照片展示的是人们在公园里玩飞盘。我们自然会认定此人能够回答以下问题:飞盘是什么形状的?一个人大概能把飞盘扔多远?人能吃飞盘吗?大概一次可以有多少人同时扔飞盘?三个月大的小孩儿可以扔飞盘吗?今天的天气适合扔飞盘吗?

  计算机能够给图片打上“人们在公园里扔飞盘”的标签,却不可能回答那些问题。除去他们仅仅会给更多的图片打标签却根本不能回答前述问题的事实之外,他们对于以下内容根本没有概念:人是什么、公园通常在室外、人是有年龄的、天气除了让照片显示为照片之外还有更多内涵,诸如此类。

  这并不意味着这些系统是毫无用处的;他们对于搜索引擎具有极高价值。但是这正是问题所在。人们听说某些机器人或者某些AI系统已经完成了某些任务。然后他们将这一性能(performance)归纳为一种能力(performance),即一个完成同样任务的人被认为会具备的能力。他们把这一归纳应用到了机器人或AI系统。

  现在的机器人和AI系统在他们能做的事情方面还极其狭隘。人类风格的归纳还不适用。


标签: 人工智能 AI

评论:

您还可以输入0/300个字
        • 无搜索结果