您当前的位置:首页 > 热点 > 消息正文

AMD造出最大芯片InstinctMI300加速卡,包含128GBHBM

2023-01-08 15:25:57 来源:IT之家     阅读量:6553     

感谢本站的朋友OC_Formula的线索传递!

AMD造出最大芯片InstinctMI300加速卡,包含128GBHBM

在CES 2023上,AMD公开了面向下一代数据中心的APU加速卡产品Instinct MI300该芯片将CPU,GPU,内存封装成一个整体,大大缩短了DDR内存冲程和CPU—GPU PCIe冲程,从而大大提高了其性能和效率

这款加速卡采用小芯片设计,拥有13个小芯片,基于3D堆栈,包含24个Zen4 CPU内核,并集成了CDNA 3和8个HBM3内存堆栈,集成了5nm和6nm IP,共包含128GB HBM3内存和1460亿个晶体管将于2023年下半年上市

目前AMD InstinctMI300的晶体管数量已经超过了拥有1000亿个晶体管的英特尔Ponte Vecchio,是AMD投产的最大芯片从苏丽莎女士手持Instinct MI300的照片中我们也可以看到,它的大小已经超过了半只人类的手,看起来比较夸张

AMD表示,它有9个基于3D堆栈的5nm小芯片和4个基于6nm的小芯片,周围是封装的HBM内存芯片,共有1460亿个晶体管部件AMD表示,这款加速卡的AI性能比上一代高很多

目前AMD只发布了这个信息量产芯片将于2023年下半年推出届时可能会有NVIDIA Grace,Hopper GPU等竞品,但应该会比英特尔的猎鹰海岸更早

从AMD代表展示的MI300样品来看,这9个小芯片采用了主动式设计,不仅可以实现I/O tile之间的通信,还可以与HBM3栈接口的内存控制器通信,从而带来不可思议的数据吞吐量同时,它还允许CPU和GPU同时处理内存中的相同数据,从而节省功耗,提高性能,简化流程

本站了解到,AMD宣称InstinctMI300可以带来8倍的AI性能,MI250加速卡每瓦5倍的性能提升它可以将ChatGPT和DALL—E等超大型AI模型的训练时间从几个月减少到几周,从而节省数百万美元的电费

值得一提的是,Instinct MI300将应用于美国即将推出的200亿次超级计算机El Capitan,这也意味着El Capitan在2023年部署时将成为世界上最快的超级计算机。

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。

热门推荐