- 论坛徽章:
- 1
|
本帖最后由 cheveu 于 2016-03-16 21:40 编辑
知乎上有几个问题:
中科院说的深度学习指令集diannaoyu到底是什么?
https://www.zhihu.com/question/41216802
这篇文章在前两轮的投稿中运气不好没能被接收,这次在体系结构的顶级会议International Symposium on Computer Architecture (ISCA) 总分排名第一,非常替它的作者们感到骄傲。只可惜ISCA没有像体系的另外两个会议MICRO和HPCA设置最佳论文。大多数现有的基于的ASIC(专有集成电路)的神经网络加速器的主要问题之一是它的可编程性跟可扩展性。它们通常是针对某一类或者小部门特定的神经网络技术跟算法设计的,控制信号设计比较high-level,对应神经网络的某一层甚至整个神经网络,好处是容易implement,坏处是缺少灵活性。比如DaDianNao可以支持feed-forward的MLP,但暂时无法支持BM。今年电路设计得顶级会议ISSCC的Session 14有6篇神经网络加速器的不同实现,它们都是application-specific的设计,基本都有类似上面提到的问题,感兴趣的可以去看一下。这篇文章提出来的指令性更加low-level,使得它可以支持不同的神经网络算法。我的理解是把现有的神经网络现有加速器的设计从“CISC”转变到"RISC",设计原则是把复杂的high-level的功能块(比如卷积层)分解成简单的更加通用的计算单元(比如点乘),这些简单的指令集可以更加灵活支持不同类型的神经网络操作,同时还降低了指令解码器的复杂度。具体细节要等正式会议或者作者把预览文章提前挂在主页上才能知道。另外值得一提的是今年的ISCA会有很多篇关于神经网络加速器的文章,包括Stanford的Bill Dally组,MIT, UCSB, HP Labs/Utah等等,可以说是神经网络加速器在体系结构全面开花的一年。
------
中科院的“寒武纪1号”芯片和IBM 的“真北”芯片有什么不同?
https://www.zhihu.com/question/26389491
二者虽然都是neuro-inspired chip,但是本质上是完全不同的。“寒武纪一号”(DianNao)应该定义为neural network accelerator,而“真北”(TrueNorth)应该定义为neuromorphic processor。
从名称上我们就可以看到二者直接的区别。DianNao是加速人工神经网络模型的,如传统的ANN和最近比较火的CNN。这些网络模型都是创造出来完成分类、识别等任务的工具。且模型简单易懂,基本单元都是我们容易理解的数值运算。而TrueNorth加速的模型是spiking neuron。这个模型与我们人脑的突触激发原理更接近,主要用来模拟人脑的一些生物特性。
从应用领域来看,当前大红大紫的深度学习(Deep Learning)实际就属于DianNao的应用范畴,他们已经在ASPLOS’14的文章中实现了多个当前流行的深度模型,可以说在深度学习的硬件加速领域迈出了坚实的一步;TrueNorth源自IBM的SYNAPSE计划,他们的目标是将来能够完全地模拟大脑。在一两年前他们已经可以模拟到猫脑的量级,相信现在应该比以前进步了不少。个人认为,虽然后者在真正的图像、语音识别等比较“硬”的能力上不如前者,但有可能是未来真正推动“智能”的方向。当然,我们目前还没有把自己的大脑研究透彻,还要从硬件上模拟,会有很长的路要走。
可以这么说,DianNao是立足当下,TrueNorth是放眼未来。不过,我们离真正的人工智能还有很长很长的路要走。
======
本人认为,忆阻器商用之前,真北这种思路突破不了能耗比瓶颈,是个耗电的大玩具。 |
|