你好,游客 登录
背景:
阅读新闻

怀疑论者认为,深度学习“贪婪、脆弱、不透明、浅薄”

[日期:2018-02-05] 来源:36氪  作者: [字体: ]

编者按:在人工智能火爆之后,迎来了反思。人们开始发现,人工智能并不是万能的溶剂,它只是一个工具。这个工具本身带有诸多弊病。近日,《连线》杂志发表了杰森·庞廷(Jason Pontin)的一篇文章,文章中阐述了当前人工智能发展中遇到的问题。文章由36氪编译。

谷歌首席执行官桑德尔·皮查伊(Sundar PichAI)表示,人工智能带来的影响将会“比电或火更深远”。谷歌大脑的创始人吴恩达(Andrew Ng)在投资人工智能创业公司时表示,

如果一个普通人能够在不到1秒的时间内完成一项思考任务,那么也许我们现在或不远的将来就能用人工智能将这项任务自动化了。

他们的热情是可以原谅的。在经历了几十年的挫折之后,人工智能领域取得了显著的进步。今天,我们可以告诉像Alexa这样的语音控制的个人助理“播放音乐”,或者在Facebook上自动标记我们的照片,谷歌翻译基本上快要达到人类翻译的水平了。在过去的五年里,数十亿美元的研究资金和风险资本流向了人工智能,这也是麻省理工学院和斯坦福大学计算机科学项目中最热门的课程。在硅谷,人工智能专家们每年能够获得50万美元的薪水和股票。

但是,有很多事情是人们可以快速完成,而智能机器却无法做到的。自然语言已经超越了深度学习的范畴,人工智能很难理解新的情况,这些缺点都不可能很快得到解决。一旦你看到你看到了它,你就不能忽视它:深度学习,目前人工智能领域的主导技术,不太可能使普通人的活动自动化。

弄清楚为什么现代的人工智能擅长做一些事情,而在其他方面却很糟糕,有助于理解深度学习是如何工作的。深度学习是一种数学:是一种计算机通过神经网络学习对模式进行分类的统计方法,神经网络具备输入和输出,有点像我们大脑中的神经元。当它们拥有多个隐藏的层,包含许多节点,有大量的连接时,就会被认为是“深度的”。深度学习采用一种称为反向传播的算法,这种算法可以调整节点之间的数学权重,这样输入后就能产生正确的输出了。在语音识别中,音素c-a-t应该拼出“猫”一词,在图像识别中,一张猫的照片不能被标记为“狗”等等。当神经网络被训练识别音素、图片时,深度学习则“受监督的”,会使用数百万或数十亿个有标记的例子。

深度学习的进步是模式识别的产物:神经网络记忆事物的种类,当它们在遇到这些事物时,或多或少能够准确地识别出来。但是几乎所有的认知问题都不是分类问题,

人们天真地认为,如果你进行深度学习,将其分100层,再加上1000倍以上的数据,神经网络就能做任何人类能做的事情,”谷歌的研究员弗朗索瓦·乔利特(fran ois Chollet)说。“但那不是真的。

纽约大学认知心理学教授、Uber人工智能实验室主任加里·马库斯(Gary Marcus)最近发表了一系列引人注目的文章,对深度学习提出了批判性的评价。马库斯认为深度学习不是“一种万能的溶剂”,而是一种工具。

马库斯担心人工智能正朝着一堵墙冲过去,除此之外,它还面临着模式识别无法解决的所有问题。该领域大多数领军人物都不认可他的观点,Facebook人工智能研究部门的主管扬·勒恩(Yann LeCun)以“完全错误”的态度驳斥了这一观点。多伦多大学的名誉教授、反向传播的教父杰弗里·辛顿(Geoffrey Hinton)认为,“没有证据”表明存在潜在的障碍。

像马库斯这样的怀疑论者认为,深度学习是贪婪、脆弱、不透明和浅薄的。系统是贪婪的,因为他们需要大量的训练数据。脆弱是因为当神经网络被给予一个“转移测试”的时候,即面对与训练中使用的例子不同的情景时,它不能情境化,经常会出现断裂。它们是不透明的,与传统可调试的代码的程序不同,神经网络的参数只能用数学中的权重来解释。因此,它们是黑盒子,产出的结果无法被解释,这引发了人们对其可靠性和偏见的怀疑。最后,它们是浅薄的,因为它们的编程中没有什么先天的知识,对于世界或人类心理没有共情感。

这些限制意味着许多自动化将比人工智能所设想的更加难以捉摸。“自动驾驶汽车可以行驶数百万英里,但它最终会遇到一些新的、它没有任何经验东西,”佩德罗多明斯解释道,他是华盛顿大学计算机科学教授和计算机科学教授。 华盛顿大学计算机科学教授、《The Master Algorithm》一书的作者佩德罗·多明戈斯(Pedro Domingos)解释道。

机器人可以学会拿起瓶子,但如果你想要它拿起一个杯子,就得从头开始训练。

今年1月,Facebook放弃了M,这是一种基于文本的虚拟助手,它被设计用来利用人类来补充和训练一个深度学习系统,但从未提供有用的建议或自然使用的语言。

这到底怎么了?“这一定是因为,我们头脑中的学习算法比我们为机器想出的任何东西都要好,”多明戈斯说。怀疑论者断言,我们需要发明更好的机器学习方法。马库斯认为,人工智能的补救方法是“融合性”:将深度学习与无监督学习技术结合起来,而不依赖于被标记的训练数据,也不依赖于深度学习兴起之前主导人工智能的逻辑规则。马库斯声称我们最好的智能模型是我们自己,人类有很多种思维方式。即使在没有很多例子的情况下,孩子们可以学习语言的一般规则,这是他们与生俱来的能力。他说,

我们生来就知道世界上存在着因果关系,整个世界是由各个部分组成的,是由在空间和时间中持续存在的地方和物体组成的,没有任何一台机器能用反向传播来学些这些东西。

其他研究人员有不同的想法。佩德罗·多明戈斯说,

从20世纪50年代开始,我们就使用了与机器学习相同的基本范式,最终,我们需要一些新的想法。

乔利特在synthesis程序中寻找灵感,这种程序可以自动创建其他程序;辛顿目前的研究正在探索一个被他称为“胶囊”(capsules)的概念,它保留了深度学习的反向传播算法,但也解决了一些局限性。乔利特说,

在人工智能中,有很多核心问题都是完全没有解决的,甚至在很大程度上还没有被人提及。

我们必须回答这些问题,因为有许多任务是人类不愿意做的,比如清理厕所和对色情作品进行分类,或者在一些领域,智能机器会做得更好,比如发现治疗疾病的药物。更重要的是,智能机器能够做到的一些事情是我们无法做到的,其中是我们无法想象的。

原文链接: https://www.wired.com/story/greedy-brittle-opaque-and-shallow-the-downsides-to-deep-learning/

收藏 推荐 打印 | 录入:Cstor | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款