千变万化

芯算未来

RISC-V AI芯片Celerity史上最详细解读(上)(附开源地址)

存算一体芯片    原创技术文章    RISC-V AI芯片Celerity史上最详细解读(上)(附开源地址)

 

 

(本文包括Celerity中二值化神经网络的介绍)

 

作者系TensorChip专家。

 

Hot Chips 29大会上基于RISC-V核心的AI芯片Celerity一亮相便引起开源社区的关注。

 

Celerity的设计展现了两个特点:

1)       设计了基于RISC-V核心的多级(Tier异构AI加速结构,兼顾计算中灵活性和能耗的要求,在硬件层面直接支持AI计算,实现了更好的功能和更高的能效。

2)       采用了HLS+Chipsel+开源IP的敏捷设计方法提升芯片的设计速度,明显缩短芯片的研发周期到几个月。

 

该芯片由Michigan大学 Cornell 大学 Bespoke Silicon Group目前属于Washington大学共同完成。并且该项目受到了DARPA美国国防高级研究计划局)的资助。Celerity的设计源码已经可以下载。文末

 

Celerity的多级

Celerity级结构组成1它们分别为通用General-Purpose Tier众核级Manycore Tier和专用 Specialization Tier三级之间两两互连。

img1

 

 

1 Celerity的多级架构

 

FSB和主板连接的是由5个高性能RISC-V Rocket核心组成的通用。通用级具备完整的计算功能,可以执行各类计算操作以及与内存、I/O和板载芯片的通信。通用级也可用于承载操作系统。通用级的功能多样,能效较低,可运行在625MHz

 

通用级后面众核级496个低功耗RISC -V Vanilla -5标量处理核心阵列(16x31)组成,负责粗粒度与细粒度的并行计算。这些Vanilla -5处理核心由80Gbps的全双工片上网络(NoC)连接在一起。众核级的功能与能效相对折中。

 

专用级则由专门用于AI计算的二值神经网络(Binarized Neural NetworkBNN)核心组成。该BNN核心可直接支持13.4M大小的9层模型(包括一层定点卷积层,6层二值卷积层与2层全连接层)专用级功能单一,却具有最高的能效。

 

 

Manycore Tier与NoC

img2

2 众核级的Vanilla -5标量处理核心阵列

 

如图2所示,众核级采用了49616x31Vanilla-5版本的RISC-V核心。Vanilla结构简洁易用,可以很高效的执行C语言代码而不用对编译器进行修改。它采用了RV32IM指令集,5级流水线,有序发射。 

 

众核级内部核心通过网格网络(Mesh Network7)互联。网格网络的每个节点都是缓冲路由(Buffered Router,按照所在位置确定X/Y坐标编号,并通过前向包与反向包进行全双工连接。缓冲路由间通过特定的连接协议进行通信与数据传输。其中前向连接为80bit位宽,反向连接为10bit位宽。

 

img3

 

3  Vanilla-5核心间的网格网络

 

 

二值化神经网络(BNN)

Celerity专用1最右侧集成二值神经网络(BNN)加速器

 

 

img4

4 二值化神经网络计算流示意

 

这一神经网络由1层定点卷积层、6层二值化卷积层和2层全连接层组成。根据文献,这一结构的神经网络在CIFAR-10数据集上可以达到89.8%的精度。可支持13.4M个权值。

 

img5

aBNN核心的架构 (b) 二值化卷积模块

5  BNN架构与二值化卷积模块

 

在二值化卷积的计算过程中,每两个特征图(feature map)分别与3卷积核进行卷积计算,生成累加后的3组下一级特征图。

 

BNN结构,既可以看作是Celerity芯片的亮点,也可以看作是Celerity不足之处。

 

CelerityBNN为什么难以用于实际应用?

Celerity的多级结构瓶颈在哪里?

众核级的问题与应用难点在什么地方?

答案都在本文的下篇之中。

 

如果你对本文的下篇内容感兴趣,想学习AI片的实战知识,了解Celerity不足在哪里,欢迎加入TensorChipAI芯片学习阵营。

 

附录:

Celerity开源地址:http://opencelerity.org/

众核级开源地址: https://bitbucket.org/taylor-bsg/bsg_manycore/src/master/

BNN开源地址:   https://github.com/cornell-zhang/bnn-fpga

 

 

关于TensorChip

TensorChip(千芯科技)的研发核心团队由来自北美AI巨头、瑞萨与国内的芯片及人工智能领域资深专家组成,致力于国际领先的AI算法-芯片协同设计(算芯协同),聚焦AI算法及芯片系统在应用领域的落地。合作方包括兆易创新、深圳清华大学研究院、新松机器人、四维图新等国内顶尖的技术领跑者。

 

TensorChip目前正通过定制化合作,协助客户将自有算法在FPGA平台、RISC-V架构、及x86架构产品落地。合作伙伴包括AI芯片企业与AI算法企业。未来,TensorChip会与合作伙伴一起,推出可重构的存算一体芯片方案和对应的算法编译平台,在人工智能批量投产时代提供最具市场竞争力的芯片平台方案。

 

 

 

2020年1月15日 15:25
收藏