北京儿童插座价格联盟

【北大AI公开课】百度徐伟:AGI 2050年前实现可能性超50%

只看楼主 收藏 回复
  • - -
楼主

 新智元整理  

整理:随一、熊笑


【新智元导读】北大 AI 公开课第七讲请到了百度 IDL 杰出科学家徐伟老师,就通用人工智能的话题进行了分享。课程依然由北大人工智能创新中心主任雷鸣老师主持。本讲内容主要涉及了通用人工智能、自主学习、体验智能、语言获取等方面。徐伟认为,通用人工智能,最核心的是学习能力,并笑称“到2050年,通用智能达到人类智能水平的可能性比我得老年痴呆的可能性要大一些。”新智元创始人、CEO 杨静女士到现场听完课后,表示这节课解开了一半她“心中的疑团”。





不知不觉,北京大学“人工智能前沿与产业趋势”公开课已经来到了第七讲。本讲将由百度 IDL 杰出科学家徐伟老师亲临现场,与北大人工智能创新中心主任、百度七剑客之一、酷我音乐创始人雷鸣老师共同参与,就通用人工智能的现状与展望进行深入的讨论和交流。本讲主要涵盖通用人工智能、自主学习、体验智能、语言获取等内容。


特别值得一提的是,新智元创始人、CEO 杨静女士昨天也来到了课堂上,饶有兴味地听课。课后,杨静女士说:“‘AGI’何时到来,一直以来是我最关心的问题,没有之一。很开心今天雷鸣请百度徐伟到北大讲人工智能,算是把心中的疑团解开一半。徐伟说的对,既然 AGI 在我们有生之年实现的可能概率比老年痴呆和车祸高很多,那就要做好准备了。雷鸣今天脑洞爆发,想象了 AGI 带来的种种影响。总的来说,AGI 实现的可能性越来越大,以至于你无法不正视。就像太阳系即将二维化,这时候里面智能体的个体差异就可以忽略不计了。总之,我是认真把这事纳入自己的最重要日程里了。与实际将发生的事实相比,太阳系里各智能体的态度也值得观察。曲率飞船也得开始造了,不然谁能跑得掉呢?”


那么,这堂解开了一半杨静“心中的疑团”的课,都讲了些什么内容,让我们完整详尽地为您呈现。


徐伟:通用人工智能现在处于什么水平


雷鸣:徐伟在百度的 IDL 做了很多年的相关研究,他的技术在全球较为领先。目前,百度在做 PaddlePaddle, 徐伟则是在通用人工智能领域进行研究,包括认知、自主学习等方面,这是人工智能领域里更具探索性的研究,这个方向也会日益重要。今天,我们有幸请到徐伟与我们分享。



徐伟:谢谢雷鸣。我与北大有一些渊源,今天能来北大讲课,与大家分享通用人工智能的发展,感到非常荣幸。近些年,人工智能主要在特定领域内有很大的飞跃,包括语音识别、人脸识别。通用人工智能则有所不同,主要强调具备人一样的多重智能行为,包括感知、决策、推理与规划,以及交流和沟通。其中,我认为最重要的是学习能力。目前,很多人工智能的学习能力可能还不如两三岁的小孩。重要的学习能力主要包括:渐进学习、自主学习和交互式学习。渐进学习是指,在不断地学习新知识时,可以将老知识应用到新知识的学习中;自主学习是指,人从小所受的监督学习较少,更多的是与环境接触之后,不断自主学习;交互式学习是指,通过交流来学习。目前,这一些学习能力都是深度学习所欠缺的。



通用人工智能现状:上世纪50年代,人们提出人工智能的概念,一开始是从通用智能的角度提出。由于在通用人工智能领域没有产出,很多 funding 被断了。之后,人们瞄准特定领域的人工智能,比如图像识别,做单点的人工智能技术。近几年,随着计算能力的提升和深度学习的使用,特定领域的人工智能有了很大的提升。我认为主要的因素是计算能力提升巨大,GPU 能够处理大量数据,同时深度学习广泛被使用,深度学习与浅层的机器学习相比,模型的复杂度可以随着数据量的不断增加而增加,使得模型的效果不断优化。传统的机器学习在数据量到了一定程度以后,效果增加缓慢。


在一些特定任务的人工智能领域,目前取得了什么样的水平?在语音识别,最近几年,可能大家开始觉得语音识别输入法比早期方便很多,很大原因就是运用了深度学习。给大家展示一张图片,在语音搜索任务方面,人的错误率接近了10%左右,而机器的错误率不到6%,远远高于人类。我们可以体会一下语音识别的这个效果(音频)。还是有一位同学听出来了,非常不错,我们可以看到,机器的语音识别能力,在经过大数据训练以后,确实做得非常好。另外一个比较典型的例子就是人脸识别,这是在 LFW 上的一个任务,比对两张脸是不是来自同一个人。人的错误率大概是 0.8%,而机器是 0.2%左右,这是两年前的结果,最近也有一些公司能够达到类似的结果。



我们也来体验一下人脸识别。最强大脑的最近一期,就是通过父母的脸来识别他的子女。节目要求是从这40个女生里找出他们的女儿,随机猜的话是1/6对吧,但是猜对的人少于1/6。





所以,在一些特定的人工智能领域,由于大量的数据,机器其实可以做得非常好。另外一个人脸识别的例子就是跨时间段进行人脸识别。最近我们做了针对走私的儿童或者是拐卖的儿童做了“宝贝在家”,用户可以把自己的照片上传到上面去,他们的父母也可以把小孩的小时候照片传上去,然后通过人脸识别技术,找出遗失的小孩。我们确实在6万张照片里,就找到了几对非常像的人脸,其中有一对还通过了 DNA 的验证。


我们以前认为需要专业知识的领域,现在机器也可以做。比如机器可以通过图像来判断它是不是得到皮肤癌,这个结果是斯坦福大学今年在 Nature 杂志上发表的,蓝色的曲线是precision record 曲线,如果红点在蓝线上面,表明人做得比机器好,若在蓝线下面,表明人做的比机器差。在这几种不同的场景下,只有一个场景人做的比机器好。所以一些比较专业的智能任务,机器也能够做的比较好,相信这会对健康、医学方面产生非常大的影响。


深度学习在 BAT 还有美国的很多高科技公司的各个产品里,得到非常充分的应用,主要因为公司的各类场景里都积累了大量的数据。但是机器与人的智能差别巨大。我认为,人最重要的一个能力,是自我学习和创造能力。上述提及的任务就是在一个特定单点上的智能任务。如果任务稍微改变一下,可能需要修改代码,重新收集数据,再进行训练,才能够重新在新的任务上做事情。比如,在中国大陆开发的自动驾驶系统,在香港很难应用。因为中国大陆是右行,香港是左行,对于人来说,只需稍微注意一下就可以克服,如果是自动驾驶车,需要重新开发代码,重新收集数据,重新训练,才能够做到这些。比如,谷歌的 AlphaGo 下围棋下得很好,如果改变围棋的规则,也需要改变代码,重新训练,机器才能够重新下围棋。


除了缺乏创造力和自我学习能力,还有一个比较重要的局限点,就是很难通过少量的标注数据学习。比如,在云平台识别图像,可能要几百万幅图,每一类可能要上千幅图,才能训练得很好。比如,机器翻译,可能需要好几千万对平行语料的句对,可以做到稍微接近于人的水平。其实人需要的数据是远远少于机器的。还有一个典型的例子就是,单样本识别任务,one-shot 的识别。前年,我们用单纯的深度神经网络,效果比人差。最近,有些比较新的发展,开始做的接近人,待会我也会稍微介绍一下。如果想用比较少的数据训练得比较好,一般需要通过一些没有标注的数据,有效获取一些 representation。大家可能认为,比较重要的就是非监督学习。目前为止,非监督学习的效果不如监督学习。主动探索最重要的,是自己找到重要的东西去探索。


方才提到,one-shot 识别最近有所优化,主要是 learning to learn,翻译为中文是学学习。若希望机器学习有保障,那么就希望测试和训练能够保持一致。采用传统方法,测试和训练不一致,所以 one-shot 的效果不好,现在的one shot就是直接计算 loss,整个训练的过程是 end to end,通过损失函数来更新,通过 metalearner 来学习 one-shot,最后加入训练的过程。最近一个实验,就是用了这一方法,使得结果与人近似。


另一大局限就是缺乏常识。如刚才提到的无人驾驶,机器往往缺乏常识。现在,机器在控制方面能够用做的很好,但缺乏对于常识的判断。比如,前面有人招手,若机器没有见过这个场景,不知道怎么做。


人为什么会有常识?首先,人在生活中经历颇多,比如物体识别,人从小根据常识知道物体不会凭空消失。但是,繁多的常识若想灌输给机器难度很大。因此,早期的 AI  ,图灵提出机器需要放在 physical world 里学习。那时,由于技术条件的限制,很难实现,目前这一问题仍然没有解决。但是,我们可以看到,如果把机器放在 physical world 里面学习,可能解决 common sense 的问题。退而求其次,就是把图像、语言等用 embody 的做法输入,可以更接近。基于此,我们开展图像和语言的联合学习,也希望机器能够真正在环境里学习。


这是机器阅读图片之后给出的解释,一只狗在盆里玩,其实玩是一个抽象的概念,人们很难进行解释。人可以通过日常观察知道什么是玩,机器可能通过大量视频,建立玩的概念,可以表述这种 common sense 的概念。


机器的另一大局限是,大量学习是通过标注的数据学习,比如图像识别、人脸识别。人另一个学习途径是通过知识学习。比如,机器可能需要大量数据,来识别两种不同的鸟,对于人而言,可以先看书、听课,通过具体描述和先前积累的知识,来学习新知识。目前,大量机器还是用标注数据进行学习。这也是人工智能在一些 diversity 领域很难开展的原因。比如客服,由于数据不多,很难有通用的解决方案。因此,如何让机器通过自然语言交流的方式学习?人的大量知识是通过语言(说话、书本)传递,若机器想要快速学习新任务,需要机器真正理解人类的语言。在未来,我们也希望机器利用自然语言做事,并通过自然语言反馈。人类也是用过语言来思考问题。因此,语言很重要。


因此,我们很关注构建虚拟的学习环境,让机器在简单的虚拟环境里学习。第一步,我们将机器放置于 2D 的环境中,开始自主学习简单任务。之后,将机器放置于 3D 环境中,与physical world 更接近。我们现在在 X world 里,virtual teacher 与 virtual agent 交流,一开始 virtual agent 没有任何语言能力,他听到的是 teacher 说的话,看到的是2D的环境。我们希望在 agent 与 teacher 的不断交互中,能够 follow 语言,能够做一些事情。最近,我们在研究,agent 一边和 teacher 有一个问答交互,同时 virtual teacher 通过 Q&A 的方式来教 agent 学习语言,执行 teacher 说的 command。在整个过程中,teacher 可以通过问问题,来进行交互,训练 agent。当然,在环境中,机器也会做一些 navigation,如果机器的 navigation 做对了,teacher 会反馈 positive reward。这是一个完整的 deepleanring 的模型。有语言处理、感知、反应、行动的模块,整个模块相连,通过 navigation 和 recognition 的 end to end 训练,机器可以学习语言,做任务。


语言有组合性,一句话的意思可以由 component 进行组合。我们在设计 framework 时,需要学习出来的语言也具有组合性。我们发现,如果将 deep learning 的模块简单拼接,达不到这个效果,需要特定的复杂结构才能实现。


我们的出发点是学习很重要。虽然一开始机器做的很简单,但是之后的潜力无穷。因此,我们从最简单任务开始,保证机器有感知、行动、语言等基本能力。


通用人工智能是多领域紧密结合的研究,涉及 machine learning、reinforcement learning、AI 的安全性等。目前,很多大公司在通用智能领域有很大投入。比如,deepmind 提出solve intelligence,use it to make the world better place,facebook、OpenAI也有很宏大的口号,百度对此也有很大的决心。


最后,来谈一下展望。这是 2014 年专家问卷调查的结果,问卷询问了一两百个专业学者关于何时可能会出现像人一样的人工智能。很多专家的意见不一致,甚至有些人认为永远不可能实现。相对一致的观点是在本世纪中,有 50% 的概率可以实现人工智能。另外一个问题是,实现通用人工智能对于人类的影响。专家的意见也不一致,也有相当一部分人认为实现通用人工智能有消极影响。



在我看来,AI 的安全问题确实需要引起重视。比如,强化学习中的 reward hacking。强化学习让机器优化行动策略,获得尽量多的 reward,是通用人工智能必不可少的手段。reward hacking 是指,当智能体能够直接绕过外界环境直接对 reward 操控,可以得到很强的 reward。这是之前的一个实验,研究人员将电极插入老鼠的 reward 中枢,老鼠一动扳手,就有很强的电信号,老鼠获得很强的电信号。之后老鼠不停地扳扳手,觉得很爽。这是一个极端的例子,但是人的很多行为也类似,比如吸毒,就是对于 reward 的操控。因此,若智能体有了修改环境的能力,如何避免此种情况发生,这是一个需要深入研究的问题。


同时,如何确保 AGI 的价值观与人类一致,也是一个需要思考的问题。否则,AGI 可能会变得不可控。因此,我们需要对此作出相应的准备,做更大的投入,进行更深入的思考。


徐伟和雷鸣对话:未来五年通用人工智能研究上有哪些领域会有突破


雷鸣:今天听了这些内容,我整体的感觉是我们从另外一个角度来看人工智能的问题,以前是讲它在各个行业的应用。今天我们去探讨一下人工智能更长期的发展,就是说怎么能做一个跟人一样聪明的,能学习,能推导的人工智能。这部分一点一点的来,现在我看做的就是先模仿小孩的学习过程,然后到通用的人的过程,也看到了一半的科学家认为到2050年会有人这种智力水平的人工智能出现。2050年还是远了点儿,想问一下徐伟,咱们把假设再放小一点,比如说做一个小学生水平,或六、七岁幼儿园毕业水平这样一个通用的人,你觉得大概要多久?



徐伟:其实我觉得如果它的学习能力和这个小孩的学习能力一样强的话,基本上就很快就可以达到人的水平,因为人最核心的还是他的学习能力。那如果我们说特定的一个东西,可能要比小孩相对是比较容易的,但是如果说学习能力真正达到这个水平,我认为达到成人的水平可能也快了。


雷鸣:这点我特别认可。我们有时候说一个孩子挺聪明的,从小到大都聪明,如果说他有点儿笨,就挺麻烦的。所以说训练出一个聪明的人工智能只跟输入的信息有关,它就可以不断地学习、学习,如果训练一个到六、七岁这种学习能力的就已经是通用人工智能了。所以整体来讲的话,我们在这个发展问题上并不是线性地说一岁、两岁、三岁,而是说它的学习能力跟人对比,比如说学习能力像老虎一样、像猴子一样、像猿一样的这种感觉。


徐伟:对,我觉得这样说可能更贴切一些,就是说,达到哪种物种不同的的学习能力。


雷鸣:另外一个我们挺关注的就是最近一些时间的发展,就你研究的方向和课题而言,你觉得未来五年通用人工智能研究上有哪些领域会有突破?


徐伟:比如我刚才讲到的 learning to learn 在字符识别上做得非常好,我觉得未来几年还会有进一步的提升,在一些更实用的任务上做得比较好。还有就是在reinforcementlearning里面有很多topic有人已经非常关注地去做了,比如planning,intrinsic motivation,当大家开始比较投入地去做的时候,我认为在未来几年都可以看到显著的进步。


雷鸣:现在很多同学都在用一些开源的机器学习框架,其实我们做机器学习很大程度上模型的结构设计是根本,比如说做图像肯定是CNN,可以做调整、变形和深度之类,如果是自然语言,更多的就是 RNN 或 LSTM 。如果模型选错了,基本就是灾难性的。模型方向选对了又开始调模型多少层,每层多少个参数这些,到最后才上数据去训练,看数据量多少,速度多快。现在有没有一些模型不光学节点的参数,而是能够在学习过程中自己有一些动态的调整能力,这部分现在有没有相应的研究?


徐伟:对,是有这部分的研究的,就是通过强化学习来选择模型的结构。有一个是RNN方面的。


雷鸣:我感觉人的大脑有点儿像机器学习的模型,大脑脑区的分布和脑区之间的连接是相对固定的,每个人都差不多。如果看猿和人的大脑,脑区分布和脑区连接确实不一样,从神经元的数量来说猿和人差得不多,而大象神经元的数量比人还多。如果说一个模型,我们用图像把它训练成 CNN 模型,用语言训练,它自动生成LSTM模型,将来会不会有这方面的进展,就是不光像大脑在训练,还代表大脑本身进化的过程,如果这样的话进展速度会更快,你觉得有没有这种可能性?


徐伟:通过进化的方式来学习结构早十几年前也有人开始这样做了。通过evoluation的方式来寻找结构。


雷鸣:最近进展似乎并不快。


徐伟:对,目前感觉没有太多人投入这方面。


雷鸣:刚才神经生物学角度来说,智力的突变更多来源于模型结构的变化。CNN、RNN等都是从神经网络全连接,然后变了一下结构,突然发现解决问题就特别的好。我们现在大部分论文都是在尝试提出更好的网络结构,所以我刚才说的可能复杂度更高一些。最终假如说有一种方法能够通过海量数据,自己能够从一种简单结构不断地去改变,把自己学习成一种更适应的结构。这种学习就更高级,我感觉就是把大脑的进化含在学习过程中了。这个实现或许会再晚一点,因为通用学习在人脑有这个结构的情况下还没有模拟到,也许进化论会晚一点,对吧?


徐伟:嗯,我觉得这个问题从从理论上说是非常好的一个事情,但我觉得一个最大的障碍还是计算能力。因为每换一个模型结构,又得重新训练一遍。如果要真的找到一个非常好的结果,可能不知道要试多少次。而且每一个都要训练一遍,这个会是非常,非常大的计算量。随着计算能力的发展,这有可能是个比较好的方向。


雷鸣:因此我就想到量子计算。另外你刚才提到一个有意思的事情,就是现在我们大部分的学习其实并没有加一些常识。那常识加入这块目前进展怎么样了?比如说你刚才讲到学习鸟的分类,既然已经知道一些信息,比如一个鸟比另一个鸟头大,就直接加到智能学习里面去。现在这块有没有什么进展?从结构如何设计或其他研究方面?


徐伟:你刚才说的那个鸟的头大和常识还有些差别,这更多的是把一种语言或规则引入学习。这方面的工作还是有一些。


雷鸣:这块已经有一些比较通用的框架了吗?比如说人脸识别,识别是哪个人种,相关的描述直接加进去,现在有没有开源系统已经能够支持了?


徐伟:你刚才说的这个具体的问题,比如说人脸识别,加一个种族或者年龄之类比较具体的一些问题,可能还是相对比较好做的。只是说一个比较通用的,问到一个问题可能都不知道它用什么方式说出来,这样的话会比较困难一些。


雷鸣:就是说已经可以支持,但是没有一个特别通用的结构直接可以把各种尝试往里输。另外一个就是你刚才提到一个通用智能的训练模型,有语言理解部分,图像理解部分,action,回答等。这里面的视觉和语言是事先把训好的模型直接放进去,还是重新开始拿很大的数据把它们训出来?


徐伟:在我们这个工作里面,这两个都是完全是从头开始训的,就是没有任何先验的视觉和语言的知识。我们这个训练经历了几十万的试行。


雷鸣:看来这个工作量还是非常大的。刚才最后徐老师最后讲的AI安全问题,AI的安全翻译过来就是人的安全问题。我看了很多专家的调研,咱们在班里也做个调研,到2050年,也就是在未来三十年,觉得通用智能能够达到人类智能的同学请举手。看来不多啊。咱们的同学还是谨慎的乐观。你的观点是什么?


徐伟:我觉得到2050年,通用智能达到人类智能的可能性比我得老年痴呆的可能性大一些。


雷鸣:所以你的可能性还不到50%。


徐伟:我是要防止我得老年痴呆的。如果人工智能真有什么危难的话,还是要提前做好准备的。


雷鸣:如果通用智能达到人的智能水平的话,能不能想象一下人和机器到底是一种什么关系?很多人认为人工智能达到这个水平之后是非常好的,终于有一个东西比我还聪明。那这个时候怎么去想象这个事情,就是说这人和机器之间是什么样?比如说,机器干所有的活儿,人天天享受,还是什么样子?这个你有没有跟一些朋友聊过?我们随便聊一聊。


徐伟:我觉到那天的话,可能就两种可能性,要么是非常好,要么是非常坏,这是我个人的想法。就是说,不会说稍微好,或者稍微坏。如果是非常好的话,那是什么状况呢?那么人工智能就完全是我们想让它们做什么,它们就做什么,做的事情还总让我们非常满意,感觉非常贴心。我们就可以去做我们更想做的一些事情。这应该是个非常幸福的时期,大家还是有一定的概率可以经历到那种状态的。如果是非常坏的状况,那就是非常坏了,这概率有多大也很难说。


雷鸣:我们一直谈安全性,就是希望说我们订一套规则,或者说某种算法也好,规则也好,能够对机器滑向坏的那一端做一个限制。但其实从历史上来看,一个阶层或一个人有极端权利的时候,往往经过时间的洗礼,走到某个点就会出现意外。回过来说机器,比如我们刚才讲它现在是一个老鼠的智力水平,到三十年以变成人类智力水平,再过三十年也许超过人类智力水平,有没有可能老鼠定一个规则,人都破不了?这种可能性存在吗?

徐伟:我觉得这是非常需要研究的问题。谈不上什么规则,因为我们就是这么造它的。就是我们造一个东西,让它能够完全按照我们造的方式来服务,大家想起来觉得好像应该是挺有可能的,但是其实还是非常难的,还有很多研究问题需要解决。比如说刚才说到那种它让我们感到幸福的状态,这个幸福怎么定义?是不是说让你生活在matrix里面你就幸福了?人对目标的理解是基于很多常识性的东西,虽然没有直接表述出来,但是有隐含的含义。能不能让机器具备那样一种理解,其实也是非常需要去研究的事情。

 

雷鸣:未来的确是不可知的。没有谁真的能够通晓未来。但去思考未来又是最重要的,比如在座的同学们,毕业以后无论是工作还是创业,这些选择都是基于对未来的思考。多思考是没有错误的,但说到未来,感觉仍像是一个完全无法预知的概率事件。这有点像量子理论里面的不确定原则。感觉未来应该是这样的,但当你窥视时,未来又不是那个样子的了。


好,下面我们就进入到同学提问的环节。一个同学问,数据标注是做研究的一个大挑战,最近对抗生成网络很火,这一技术对于数据标注的解决有没有帮助?


徐伟:这个想法是自然的,大家可以去尝试,但是目前还没看到具体例子。


雷鸣:通用人工智能未来5-10年,会不会有一些实际的应用?


徐伟:未来 5 到 10 年,人工智能落地还只是在特定的领域,比如医药、金融等等。通用人工智能,主要还是要看学习的能力。如果通用 AI 只是达到猿猴的水平而不是人类的水平,应用还比较难,可能就只能应用于游戏。


雷鸣:有同学提问,人工智能在很多领域都变得越来越强,在围棋、游戏等很多方面都打败了人类,人忽然发现自己什么都不如机器了,人的满足感从何而来?


徐伟:怎么会有这种想法呢?人类加减乘除比不过计算器,也不会有不满足感啊。可能过一段时间,大家对于下棋这类事情也会抱这样一个态度,认为这不算是太智能了。


雷鸣:线上观众提了个问题,从心理学上来看,人还没有搞清楚自己的意识。通用人工智能需要理解意识吗?通用人工智能不断发展,最后会产生意识吗?


徐伟:这是研究圈内强人工智能假设和弱人工智能假设之间的辩论。强人工智能有可能是指具有很强的智能,但并不拥有意识。现在大家其实不太关心是否有意识了,有没有意识不重要,我个人也是这样认为,只要达到人的智能,就可以了。


雷鸣:在这个问题上我和徐伟的观点类似。人类意识究竟是一种对智力的超越,还是其实是智力范畴内的一个东西?其实很多时候我们做出了决策,但自己并不清楚是如何决策的。这似乎是一种非理性的决策,但从更高的层面来看,我们所有的决策都受到我们的历史环境、经济条件等因素的影响。其实你的大脑里面还是有一个很大的函数的,一个F函数,你的历史、环境、人际关系、收入等等综合影响着你的决策。你拍脑袋的决定实际上并不是拍脑袋产生的。之前有一个研究,通过对一个人在社交媒体上点赞的分析,就能得到他的某种情绪模型。然后根据这个模型,可以对这个人对一些言论的反馈做出预测。预测准确度比他身边的人还高。所以说,我们大脑的一些功能,比如人脸识别,可能是笼罩在我们大脑里的极其复杂的运算,我们暂时无法解释而已。但这并不表示它不是运算的结果,而是突然出现的某种神器的东西。比如让人工智能下围棋,最早认为人工智能不可能具有人类下围棋时的那种大局观。但是现在我们看到,人工智能的大局观比人类还好。有时候局面太复杂,人脑也算不出来了。但不管怎么说,这还是一种运算,不管是基于贝叶斯还是基于技术经验。当然这种运算的复杂度很高,人类现在还无法用一个函数把它描述得很清楚。当机器拥有了大量的数据、大量的运算能力后,有可能做得比我们更好,而且有可能每次都很好。人类的灵感不是时时产生的,神来之笔无法每次需要时都产生。当机器智能达到很高的水平之后,这些事情会更大概率的出现。所以说它背后其实还是一种运算。它可能是我们大脑里面一个很神奇的函数,它的最大值是我们的某种价值观,比如个人的幸福感等等。一个人能根据环境、条件等等综合做出一个选择,背后其实是一个很理性的过程。以前我们无法界定什么是幸福感,现在从脑科学的角度来看,它可能是你大脑里某个机构发出了一个信号,多巴胺分泌了一下,然后你就感到了幸福。它并没有那么多神奇的东西,最后还是大脑运算之后激活了一个地方,然后你就幸福了。


我们再看下一个问题。机器学习大部分是基于归纳的,人类有演绎和推理的能力,在推理方面,机器现在有没有什么进展?


徐伟:推理目前还是一个不太成熟的方向。但是和推理比较相关的任务,比如规划,去年 NIPS 则发了研究论文,这和推理比较类似。推理上未来几年可能会有进展,但是这和机器理解语言的发展有关,需要先把语言的问题解决。


雷鸣:是的,可以想见,如果这方面的研究越来越好的话,人类能做的事情可能就越来越少了。又有一个同学问,有没有一个明确的定义,可以定义通用人工智能达到了人类的水平?


徐伟:对,其实是有的。因为从自从图灵测试被提出来之后,也有很多人说图灵测试可能有很多问题,也提出了一些不同的测试标准,比如说有一种测试,看机器能否做一个办公室职员,或者能否做一个合格的家用机器人。这些都是看它是否能在一个应用场景下胜任。而核心的一点,我个人认为是学习能力,就是说拿一些新的任务给它学,看看小孩能否学会,然后对比,看机器能不能学会。如果给它一百个不同的任务,它都能够学会的话,那就说明它确实非常厉害了,而不是说拿一个固定的任务。一个固定的任务,只要有足够的Engineering,我觉得在现有的技术总是可以让机器做好的。


雷鸣:我可不可以这么认为,通用人工智能就跟人一样,如果不单独加任何跟开车有关的代码,直接让它学开车,它如果学的速度跟人一样快,或者说直接让它去学数学,它也学的和人一样快,这样就是达到了人类的智能水平。


徐伟:对,是这样的。


雷鸣:这还是挺可怕的,因为这么多年过去了,人类的学习速度并没有太大提升,但摩尔定律告诉我们,计算能力每两年会翻一番,它现在一个月学会的东西,两年以后半个月就学会了,以后可能一周就学会了。而且它学完以后就不用再学了,可以传递给别的系统。这么看的话,一个超级智能是有可能产生的。这和深度神经网络的结构是有关的。那么,有没有一种理论能够证明,深度学习模型比其他方法好,还是说这是一种实践的结果?

徐伟:最重要的还是来自于实践。在实践中取得了这么好的效果后,一些研究者开始尝试从理论上做出解释,它的效果为什么会这么好。最近可能有一些这样的研究,就是在一些特定的模型结构下,在一些假设的状况下,来证明它能找到的解总是和神经网络的全局最优解接近。不过这些研究还是很难解释深度学习最近取得的成功。所以说目前还没有非常完美的理论解释。


雷鸣:好,让我们感谢徐伟老师的精彩分享。

 

视频回放链接:http://www.iqiyi.com/l_19rrbkb3az.html


课程介绍



“人工智能前沿与产业趋势”课程由北京大学开设,并面向公众开放。课程由人工智能创新中心主任雷鸣老师主持,共14节,每节课邀请一位人工智能领域顶级专家和行业大咖作为主讲嘉宾,就人工智能和一个具体行业的结合深度探讨,分析相应技术的发展,如何影响产业,现状及未来趋势、对应挑战和与机遇。所有课程相关信息、通知都会在下方的公众号发布。







课程参与方式


扫描下方二维码,关注公众号





扫码福利:


⊙   直播、录播课程地址

课程精华文字版

人工智能交流群入群方式

⊙   群内每日精选AI内容更新

⊙ 参与群内活动并有神秘大咖进群交流互动





3月27日,新智元开源·生态AI技术峰会暨新智元2017创业大赛颁奖盛典隆重召开,包括“BAT”在内的中国主流 AI 公司、600多名行业精英齐聚,共同为2017中国人工智能的发展画上了浓墨重彩的一笔。


点击阅读原文,查阅文字版大会实录


访问以下链接,回顾大会盛况:


  • 阿里云栖社区:http://yq.aliyun.com/webinar/play/199

  • 爱奇艺:http://www.iqiyi.com/l_19rrfgal1z.html

  • 腾讯科技:http://v.qq.com/live/p/topic/26417/preview.html








举报 | 1楼 回复

友情链接