英伟达深夜发布AI芯片H200,内存容量翻倍
近日,全球领先的芯片制造商英伟达公司再次掀起人工智能芯片领域的波澜,宣布推出其最新一款AI芯片——NVIDIA HGX H200。此新一代产品被定位为H100的升级版本,采用了NVIDIA Hopper超级芯片架构,专为超大规模大模型训练和推理工作场景而设计。这一消息于北京时间11月13日傍晚正式发布,预计H200将于2024年二季度上市。
据英伟达透露,H200保留了H100的所有功能,包括加速基于Transformer架构的深度学习模型的Transformer Engine功能。然而,最引人注目的改变在于内存方面。H200是首款配备HBM3e内存的GPU,这种内存由三星提供,被誉为目前最强大的内存之一。相比上一代H100,NVIDIA H200以每秒4.8 TB的速度提供141GB内存,内存容量几乎翻倍,带宽增加2.4倍。
对于这一新产品,英伟达并未详细介绍其计算吞吐量的具体变化。但根据采用HBM3e内存后的测试结果,以基于Meta的Llama 2大模型为例,H200的输出速度约为H100的1.9倍;而在GPT-3.5模型的测试中,H200的输出速度是H100的1.6倍。
不仅如此,为了满足市场需求,英伟达还发布了HGX H200平台,提供4路和8路的配置选择,适用于本地、云、混合云和边缘等不同类型的数据中心。据悉,HGX H200平台将于2024年第二季度在亚马逊AWS、谷歌云、Microsoft Azure和Oracle Cloud Infrastructure等平台上推出。
然而,令人遗憾的是,H200无法在中国市场销售,英伟达官方表示,其需要获得相关出口许可证。然而,有报道称,英伟达已在为中国市场推出改良版系列芯片——HGX H20、L20 PCle和L2 PCle,这些产品主要是在H100基础上进行了改良,预计将于本月16日后公布。
英伟达的H200发布,再次引发了人工智能芯片领域的竞争激烈。此前,AMD刚刚发布了以大内存为特点的新品MI300X GPU,旨在助力大语言模型运算推理。英伟达此次推出H200,将进一步巩固其在人工智能计算市场的领先地位,为其在数据中心业务上的快速增长提供有力支持。
*免责声明:以上内容整理自网络,仅供交流学习之用。如有内容、版权问题,请留言与我们联系进行删除。