英特尔发布神经网络处理器 Nervana 配四堆栈HBM 时间:2017-10-18 09:25:18 栏目:热  点

可用于处理人工智能方面的工作,英特尔 CEO Brian Krzanich 刚刚在《华尔街日报》举办的 D.Live 大会上发布了自家性能最强、专为深度学习而打造的神经网络处理器 Nervana 。尽管当前英特尔在芯片架构上没有太深入的动力,但 Nervana 创造者 Naveen Rao 在一篇单独的博客文章中写到:

nervana-chip.jpg

其从一开始就能理解所涉及的操作和数据动作,因此该芯片可以不像今日的 CPU 或 GPU 那样需要一个标准的缓存层次结构。

相反,其内存管理显然是 100% 在软件中完成的。Rao 声称,与主打通用计算的竞品相比,这意味着该芯片能够更好地压榨芯片性能。

在更早的一篇博客文章中,该公司表示,由于仅包含金酸相关的硬件,Nervana 可以省去与缓存控制和相干逻辑有关的电路,从而囊括更多的计算资源。

在那时,Nervana 还计划为该芯片搭配高达 32GB 的四堆栈 HBM 运存,且暗示已通过某种形式实现了神经网络计算(NNP)。

NNP 的另一潜在创新,在于对某些数据类型的处理。英特尔声称 NNP 提供了一种全新的“拐点”(Flexpoint)数字格式。

该公司称:“Flexpoint 允许通过固定点乘和加法来实现标量计算,也可借助共享指数来实现大动态范围”。

该特性还使得 NNP 可以在给定核心面积上封装进更多的操作部件,同时减少每个部件工作时的能耗。此外,每个 NNP 也可包含专门用于和其它神经网络处理器通讯的片内互联芯片。

在过去有关 Nervana Engine ASIC 的描述中,该公司计划为每颗芯片上具有弹性计算力的内部或互联连结点引入“六个双向高带宽链接”—— 要么增加用于任务的计算资源的数量、要么增加 NNP 集群的规模大小。

Krzanich 表示,当前英特尔正在制定数代 Nervana NNP 产品。而该公司新闻稿中也提到,未来这些产品有助于在 2020 年将深度学习成绩提升百倍的目标。

最后,在一个单独的播客节目中,Rao 表示,随着产品的成熟,该公司还与 Facebook 在 NNP 上展开了合作,更多细节可留意该他们的后续报道。

  • 最新

  • 最热

  • 一周

热评

动态