最强大模型训练芯片H200发布!141G大内存,AI推理最高提升90%

值得一看   2023-11-14 20:48   49   0  

英伟达发布了新一代人工智能芯片H200,它是当前用于训练最先进大语言模型H100芯片的升级版。H200是世界上首款提供每秒4.8 TB速度和141GB HBM3e内存的GPU产品。H200的性能比H100提高了60%至90%,带宽增加了2.4倍,容量几乎翻倍。H200 更擅长处理大规模的AI模型训练和推理, 适用于超大规模的大模型训练和推理,以及生成式AI和高性能计算(HPC)工作负载。

英伟达表示,H200将于2024年第二季度上市,与AMD的MI300X GPU展开竞争。现有的H100用户无需更改服务器系统或软件即可使用H200,因此,H200的推出大大提振了AI领域。然而,由于未获得出口许可证,H200将无法在中国市场销售。

H200的推出也引发了业界的热议。例如,AMD看到了在AI领域打破英伟达垄断的可能性。此外,Meta公司也正在开发一种新的AI大语言模型,该模型预计将于2024年开始训练,以期在功能上与OpenAI提供的最先进模型相媲美。

总体来说,H200的发布为AI模型训练领域注入了新的活力,并可能改变现有的市场竞争格局。


博客评论
还没有人评论,赶紧抢个沙发~
发表评论
说明:请文明发言,共建和谐网络,您的个人信息不会被公开显示。