浮点运算并非继续阉割
关注当时“Tesla P100”上市时的信息不难发现,“GP100”架构最大的惊喜就是重新强化了架构的双精度计算能力。“GP100”架构可以说比之前的所有架构都出色,每个SM单元中植入了更多的FP64单元,并且针对于单元翻倍的数量,FP64性能达到了FP32单精度的一半,FP32浮点性能是10.6TFLOPS,FP64性能为5.3TFLOPS,说它是一款超级计算机所运用的显卡一点都不足为过。
在“GP100”架构身上,我们看到的不止有这些,它支持FP16半精度全速运算,FP16性能达到了21.6TFLPOPS。不过在GP102身上,双精度被砍是必然的,因为FP64单元不仅会占用大量核心面积,对功耗、发热也会有影响,更重要的是在非专业计算市场上,FP64精度的需求并不高。
新Titan拥有更低的发热量和功耗
但是NVIDIA砍掉的不仅仅是双精度,半精度也直接被砍掉了,但取而代之的是FP8精度,它的性能为44TFLOPS。在此要说明一件事儿,阉割了FP64和FP16不代表GP102完全不支持这两种运算精度,最终以什么方式来呈现,我们还是要静等NVIDIA官方的答复。
由于阉割FP64的缘故,核心的面积把压缩到610mm*610mm,其中罗列了上百亿个晶体管,而“GP102”核心的面积是471mm*471mm,这样的配置在很有效的降低成本的同时,也更好的限制了核心的功耗和原本恐怖的发热量。
推荐经销商