三星推出“会思考”的内存,三星新型存算一体HBM2存储器AI性能达1,三星推出“会思考”的HBM2内存,下面小编来给大家介绍一下,一起来了解一下吧!
三星宣布新的HBM2内存集成了AI处理器,最高可提供1.2 TFLOPS嵌入式计算能力,使内存芯片本身可以执行CPU、GPU、ASIC或FPGA的操作。
据TomsHardware报道,新的HBM-PIM (processing-in-memory) 芯片在每个内存模块内注入了一个AI处理器,从而将处理操作转移到HBM本身。这种新型内存的设计是为了减轻内存与一般处理器之间转移数据的负担,因为实际应用中,这种负担无论在功耗还是时间上,往往比真正的计算操作消耗更大。
三星表示,将这项技术应用到称为Aquabolt的HBM2内存时,可以提供两倍的性能,同时将功耗降低70%以上。三星还声称,使用这种新内存不需要任何软件或硬件变化(包括内存控制器),从而可以被市场更快地采用。目前该方案可以在进行商业验证,预计所有验证将在今年上半年完成,这也标志着离实际应用已经不远了。
在前一段时间举行的国际固态电路虚拟会议(ISSCC)期间,三星展示了其新内存架构的更多细节。每个存储器组都有一个嵌入式可编程计算单元(PCU),运行频率为300MHz。该单元通过来自主机的常规存储器命令进行控制,以实现in-DRAM处理,它可以执行各种FP16计算。存储器也可以在标准模式下工作,也就是说它可以像普通的HBM2一样工作,或者在FIM模式下进行内存数据处理。
当然,为PCU单元腾出空间会降低内存容量,与标准的8Gb HBM2裸片相比,每个PCU配备的内存裸片只有一半的容量(4Gb)。为了帮助解决这个问题,三星采用了6GB堆栈,将4个带有PCU的4Gb裸片与4个没有PCU的8Gb裸片组合在一起(而不是普通HBM2的8GB堆栈)。
一般用户想用上这种内存还需要一些时间,至少目前不会在最新的游戏GPU上使用它。三星指出,这种新的内存首先要满足数据中心、HPC系统等大规模应用处理的需求。还有一个挑战性的问题是内存芯片的散热,特别是考虑到需要堆栈,不过三星暂时没有解释HBM-PIM芯片会如何解决。