北京儿童插座价格联盟

谁将主导“类脑计算”的未来趋势?

只看楼主 收藏 回复
  • - -
楼主

 

在美国圣何塞附近的研究室里,IBM用48块TrueNorth试验芯片构建了一个电子的啮齿动物大脑,每一块芯片都可以模拟大脑的一个基本构件。   


IBM苏黎世研究中心宣布,制造出世界首个人造纳米级随机相变神经元芯片,可实现人工智能的高速无监督学习。外媒对此高度重视并评论道:“这一突破标志着人类在认知计算应用中超密度集成神经形态技术,以及高效节能技术上的发展又向前迈进重要的一步。”

  人工智能的火热,被今年3月份AlphaGo与李世石的围棋大战推向高潮,本次IBM人工智能芯片的“生物神经元”、“人脑工作方式”等“高大上”属性更是引起了业界的广泛关注。关于类脑计算谁将主导未来趋势呢?

  神经元芯片不属于生物神经网络范畴

  英特尔中国研究院前院长吴甘沙告诉记者,关于类脑计算,现在也没有一个广为接受的定义,但现在基本可以看到两个方向,人工神经网络从功能层面模仿大脑的能力,而神经拟态计算(neuromorphic computing)则是从结构层面去逼近大脑,其结构也有两个层次,一是神经网络层面,与之相应的是神经拟态架构和处理器,二是神经元层面,与之相应的是元器件。

  大家还可以看到其他的一些名词,比如脑启发计算(brain inspired computing),基本都是在上述层次里游移。IBM刚刚宣布的人工神经元即是在神经拟态计算方向,在神经元结构层面做出的努力。

  “我们称IBM关注的这类模型为‘脉冲神经网络’。”北京中科寒武纪科技有限公司创始人兼CEO陈天石在接受记者采访时指出,“IBM在人造神经元方面的工作,是以新器件的方式直接模仿脉冲神经元的行为,与其前期推出的TrueNorth是一脉相承的。我们不认为它是生物神经网络,而只是理论神经科学家的一种数学模型。但生物的神经网络究竟是什么样,神经科学家都还是一知半解,IBM现在就开始模仿,可能为时过早。”

  寒武纪科技的两个创始人均是中国科学院脑科学与智能技术卓越创新中心的成员,该中心是由世界顶尖神经科学家,美国科学院院士、中国科学院外籍院士蒲慕明教授组建的,挑选了中国科学院最优秀的脑科学和智能技术专家组建,一直密切关注着神经科学的前沿动态。

  “从新闻报道的内容来看,IBM推出的人造神经元是属于脉冲型神经网络的一款芯片。”作为成功量产中国首款嵌入式神经网络处理器芯片的企业,中星微电子集团首席技术官张韵东的看法与陈天石相同。

  作为人工神经网络的一种,卷积神经网络CNN 是当前人工智能机器视觉领域的研究热点。

  张韵东进一步指出,IBM人工神经元与卷积神经网络处理器芯片(如中星微的“星光智能一号”)相比,共同之处是,都是属于受到生物人脑机理的启发而通过半导体电路与器件去实现的,都是采用CMOS半导体工艺来生产的。而不同之处在于,所采用的架构和实现方式不同,前者采用脉冲型架构,用数模混合电路来实现;后者采用卷积型架构,用数据驱动的并行数字电路来实现。

  人工神经网络技术更被看好?

  由此看来,不管是叫神经拟态计算,还是叫脉冲神经网络,IBM的这种技术路线是和人工神经网络并行的一种技术路线。那么,两种路线孰优孰劣?

  张韵东更看好人工神经网络。他认为,卷积神经网络与软件开发环境的结合更加紧密,更加易于编程,易于商用化。

  陈天石也认为,目前为止,脉冲神经网络与人工神经网络相比,尚有很大差距。

  他举例道,脉冲神经网络无法做大尺度的图像识别,即使是做简单的手写数字识别,其识别精度也还没有上世纪80年代流行的多层感知机(经典的人工神经网络)做得好。

  我们知道,寒武纪科技和中星微电子都是国内致力于人工神经网络技术路线的企业,他们对IBM人造神经元的看法是否会偏颇?

  IEEE“神经网络先锋奖”获得者、Facebook人工智能实验室负责人、人工智能深度学习权威Yann LeCun此前的评论我们可以参考。

  对TrueNorth以及IBM一直关注的脉冲神经网络,Yann LeCun说:“这类网络没有在任何有意思的问题上表现出与当前最好技术(指人工神经网络深度学习技术)接近的结果”。

  回答得有点迂回,但表达的意思基本清楚。

脉冲神经网络芯片商业化还需要好几年

  条条大路通罗马。不同技术路线的存在,也自有其生存的土壤。

  人工神经网络是从算法向硬件发展的。吴甘沙告诉记者,传统的算法在通用芯片(CPU和GPU)上效率不高,于是出现了特定的算法加速器,来加速包括卷积神经网络、递归神经网络在内的各种神经网络算法。比如Teradeep,它来源于Yann LeCun(上文提到的深度学习大神)的工作NeuFlow,已经实现了商业化。

  中国科学院计算技术研究所寒武纪系列芯片在知识产权布局上非常独到,也开始了商业化的探索。谷歌的TPU(Tensor Processing Unit)也是一种专用的加速器芯片,跟其深度学习软件Tensor Flow匹配。就中短期而言,这类芯片有很好的商业化前景。

  对于神经拟态芯片,常常见诸媒体的是架构和处理器层面的进展。吴甘沙提出,IBM的TrueNorth芯片和高通的Zeroth芯片,两者都基于脉冲神经网络。TrueNorth发源于DARPA的SyNAPSE,展示了在100mW功耗下模拟复杂的递归神经网络的能力,体现了这一架构的独特之处(但也有人指出功耗优势来自较低的主频)。Zeroth的商业试用并不成功,目前已转向人工神经网络加速器。

  英特尔也在做脉冲神经网络的芯片,估计商业化还需要好几年。即便如此,各家公司还是投入重兵,因为它所代表的新型处理范式——计算与记忆的一体化、复杂互联、递归、时空编码、异步、低精度、随机性、高容错等特征,有很高的研究价值。例如,生物神经元有很多突触连接,这在硅芯片上很难实现。另外,传统的CPU和GPU都是同步的,实现神经拟态需要异步电路。

  “所以说,另一种思路是在器件方面得到突破,比如DARPA UPSIDE基于模拟芯片,有些类脑芯片基于忆阻器(memristor),以及IBM刚刚宣布的人工神经元,所有这些都比传统的晶体管更容易实现类脑计算。”吴甘沙强调。

  “IBM的神经元新器件对脉冲神经网络的硬件实现有很大帮助,但这类模型在算法方面尚有很长的路要走。”陈天石表示,“未来也许会有突破,但近年不乐观。”

  实际上,对于人工神经元芯片的问世,IBM自身也是非常清醒的。他们在指出“这些相变神经元是我们到目前为止所创造出的行为最接近生物神经元的人工器件”的同时,也强调将面临“更难的部分——编写一些能够真正利用该芯片的神经形态的软件”。

  但正如IBM所说:“我们没有任何理由止步于此。”

AI 硬件大战拉开!

根据市场调研公司 Tractica 的统计数据,深度学习硬件市场将会从不到 10 亿美元增长为 2024 年 24亿美元。


现在市场的领头羊是英伟达,靠的是 GPU。从研究人员发现 GPU 适合深度学习应用以来,英伟达就一直专注改善提升芯片性能,使其更适合用于加速深度学习应用,而这也使得近来英伟达市场表现极其勇猛。


不过,相比之下,专为深度学习设计的芯片应该比GPU 效果更好。


前不久,英特尔宣布旗下的 Xeon Phi 处理器适合某些深度学习任务。但是,要开发专门针对深度学习的芯片,时间上还要花好几年。英特尔等不了那么久,收购就成了一种十分合理的选择。


Rao 表示 Nervana 将在不久后推出其设计的深度学习专用芯片 Nervana Engine,并在 2017 年初通过云服务让顾客享受到这一服务。届时,考虑到英特尔雄厚的市场预算,英伟达应该得到一定压力降低价格。


这里还有一些Rao 和老东家高通的小故事,据说当初Rao研发了为企业提供深度学习系统的软件平台 Zeroth AI,但是高通拒绝将 Rao 的研究投入实用,于是他和另外两个高通工程师一起离职,创建了 Nervana。



除了Intel / Nervana 和 NVIDIA ,还有那些公司在做?

Google:朋友圈刷屏的TPU芯片




在今年的Google I/O大会上,谷歌表示他们正在打造属于自己的集成电路芯片,这款定制化芯片被称为张量处理单元(TPU),它是专门为机器学习打造的。该芯片还在体积上下了大功夫,它只有硬盘大小,放在谷歌数据中心里非常不起眼。


由于机器学习技术对计算精度的要求较低,因此谷歌能从芯片中榨取更多性能。眼下,普通芯片都为32或64位,而张量处理单元则为8位。谷歌称,张量处理单元的出现将大大提高科技的进化速度,预计它将让科技史加速进步七年之多。


其实普通用户从TPU中能获得许多好处,去年谷歌就在街景和Google Now等服务和应用中使用了该技术。此外,击败韩国传奇棋手李世石的AlphaGo也是借了TPU的力。其实TPU的研发几年前就开始了,未来,谷歌希望开发者能利用机器学习技术为安卓等平台打造更加好用的应用。


中星微:中国首款嵌入式神经网络处理器(NPU)芯片




6月20日,中星微“数字多媒体芯片技术”国家重点实验室在北京宣布,中国首款嵌入式神经网络处理器(NPU)芯片诞生。这款NPU芯片已经于今年3月6日实现量产。NPU采用了“数据驱动并行计算”架构,这种数据流(Dataflow)类型的处理器,极大地提升了计算能力与功耗的比例,特别擅长处理视频、图像类的海量多媒体数据,使得人工智能在嵌入式机器视觉应用中可以大显身手。


这款芯片目前已经成功在视频监控领域实现产业化。中星微展示了型号为VC0758的国内首款NPU芯片产品,VC0758内部集成四个NPU内核。据称,这是全球首颗具备深度学习人工智能的嵌入式视频采集压缩编码系统级芯片。VC0758也是率先支持国家自主标准(SVAC标准)的芯片产品。


IBM:最新仿人脑芯片TrueNorth




IBM公布的最新仿人脑芯片:TrueNorth。邮票大小、重量只有几克,但却集成了54亿个硅晶体管,内置了4096个内核,100万个“神经元”、2.56亿个“突触”,能力相当于一台超级计算机,功耗却只有65毫瓦。


去年有消息称IBM正在开发一个名叫Neuromorphic的芯片,这个芯片是专门针对人工智能任务所开发的。据测试过这个芯片的人表示,这个芯片非常适合移动设备。


Movidius:USB版深度学习芯片




2016年4月,硅谷的芯片制造商Movidius于发布了Fathom Neural Compute Stick芯片。这个芯片看上去像是一个U盘, 但是里面和镶嵌了高端的视觉处理单元, 可以处理高级图形认知。


该公司的另一款芯片是Myriad 2, DJI最新的无人机正是采用了这个芯片。而Fathom基本上就是即插即用的Myriad 2版芯片。Movidius希望工程师们可以利用这个芯片来为他们的产品制造深度学习功能, 如labeling算法和先进的视频分析功能。


高通:Zeroth SDK(高通Snapdragon神经处理引擎)

5月消息,高通发布了骁龙神经处理引擎软件开发工具包(Snapdragon Neural Processing Engine software development kit)。目前该开发工具仅适用于骁龙820,这就意味者三星S7/Edge、LG G5、HTC 10国际版、乐Max Pro、索尼Xperia Performance、小米5和Vivo Xplay5等手机将来有望增加深度学习的相关功能。


骁龙820内置的Zeroth神经处理引擎,能够自动根据用户拍摄的照片进行分类,比如识别出实物和汽车的图像,分别存储在两个不同的文件夹,方便用户更好地管理拍摄的照片、,而SDK工具包就基于该引擎。


早在2013年,高通就展示了一款内置Zeroth芯片的机器人,它能够在接受外界信息之后学会选择正确的路线行进。高通的SDK可以应用于安全领域,监控摄像头将识别并追踪正在进行的犯罪行为,也可用于自动驾驶汽车、无人机和机器人等领域。


另外还有最近和特斯拉闹掰的Mobileye....



举报 | 1楼 回复

友情链接