十六亿五千六百万个神经元!”
这种智脑7大芯片密集封装后,体积和智脑6芯片的那种超大盘子一样,看起来就很夸张。
之所以搞这种夸张的大封装,理由很简单,就是为了提升智脑芯片之间的数据传输速度————毕竟再怎么折腾,都不如直接把它们封装在一起。
其原理,有点类似apo显卡和gpu内核和hb封装在一起,以提升数据带宽一样。
而到了智云集团的智脑芯片,则是直接把智脑芯片给封装在一起,并且为了尽可能的获得更大的数据传输速度,其疯狂规模很夸张,直接把百枚芯片给封装在一起了————为此,智云微电子那边甚至都专门研究了一种大面积封装技术。
搞人工智能训练以及运营,数据传输速度是一个非常关键的性能数据————apo
显卡的性能之所以能够吊打ad的显卡,就是因为它采用了独家的数据传输构架,其数据带宽极高。
不仅仅是单卡的数据带宽高,而且搭配专门的gt服务器构架后,服务器之间的数据带宽也非常高。
毕竟训练人工智能嘛,需要处理的是海量的数据,这传输数据的信道是否顺畅,直接影响了训练效率,如果数据带宽不行,那么gpu内核的性能再牛逼也没用。
用俗话来说就是:巧妇难为无米之炊!
而到了智云集团研发的神经拟态芯片以及相搭配的计算构架,也是类似的原理,当然,只是原理类似,实际技术路线差异很大,这一套技术框架真展开了说,可以写几千页的技术说明文档,很复杂的。
徐申学现在所看到的智脑7大芯片,就是这种封装好后的大芯片,面积比较大,单独安装在一个服务器的主板上,然后搭配其他各类零配件以及供电,散热,数据交换等诸多系统,最后组成了单个智脑7算力单元。?兰°?e兰d文?t学<o μ无μ错?¢内?容(
姚宏文继续道:“我们智脑7服务器,以八个智脑7算力单元为一组,构成一个立式智脑7服务机柜,整个服务器可以提供五百三十二亿四千八百万个神经元!”
“只需要两台服务器,就能提供一千零六十四亿个神经元,而这已经超过了人类大脑主流八百五十亿个神经元了!”
“新一代的智脑7神经拟态计算机系统,其综合性能对比上一代的智脑6神经拟态计算机系统,硬件性能提升了二点五倍,而实际应用于人工智能训练的时候,其综合算力提升更多,部分计算

