HBM vs. HMC继DDR技术后的两种颠覆性内存类型

数据中心硬件买家可以评估两种新兴的服务器类型内存,搭建未来高性能系统。

高带宽内存(HBM)是一种用于支持内存设备数据吞吐量的高性能接口,其性能远超常规形式的内存。

混合存储立方(HMC)技术带来远超传统高带宽内存设计的性能,如双倍数据率三代与四代(DDR3和DDR4),但是这两种方法采用的技术不同,它们对服务器内存性能的提升也有所不同。

高带宽内存的未来服务器

HBM的思路十分直接:让内存设备靠近CPU或GPU。当前的计算机设计一般会通过将内存模块安装在主板的插槽上,隔离内存与计算芯片。这类型的服务器内存受到了时钟率的限制,阻碍每个时钟周期数据的可传输量。

HBM方法将内存芯片堆叠到一个矩阵里,接着将处理器与内存堆叠组合在一起,形成一个基本组件,然后将其安装到服务器主板上。

HBM栈并不是物理上与CPU和GPU集成,而是采用载板。然而,相关支持的半导体制造商如AMD表示,HBM方案与在处理器上集成存储器的方案没有太大区别。

因此,HBM到底有哪些优势?HBM模块可以在极低的频率与更少的能耗下提供远超常规内存的带宽。例如,根据AMD的研究,一个典型的图形DDR5包使用32位总线,在1,750MHz,1.5伏电压下,最高带宽为28GB每秒。一个HBM包使用1,024位总线,只需要500MHz,1.3V电压,就能达到超过100GB的带宽。而且,HBM提供了与CPU或集成GPU支持服务器的多功能性。未来服务器可能会出现HBM同时服务CPU和GPU的情况。

混合存储立方如何影响未来服务器?

传统服务器内存类型,如DIMM,使用服务器主板上的并行接口连接独立芯片。混合存储立方与之相反,通过堆叠存储芯片到垂直组件,创建3-D阵列的串行内存访问。这些阵列增加了一个逻辑层来管理内存,而且服务器制造商可以在每个处理器附近安装这个组件。这种近内存或短距离设计是比较常见的,而且能够提供比标榜低功耗的远距离内存架构提供更高的性能。

混合存储立方可以最多连接8个包。根据HMC联合会,也就是推动该标准的供应商组织声称,HMC能够提供DDR3内存设备15倍的带宽,节约70%的能耗并且物理尺寸仅为其90%。例如,美光的2GB与4GB HMC产品技术号称带宽能达到120GB和160GB。HMC产品现已上市,而且像Intel的Xeon Phi图形协处理器采用HMC技术,能比GDDR5内存设备提升约50%的内存吞吐量。

HMC与HBM互相竞争,两种技术不兼容。

 

本文链接:HBM vs. HMC继DDR技术后的两种颠覆性内存类型

本站文章转载请注明来源:Linux网.com