消息称英伟达计划 Q2 向中国市场推出特供版 H20 芯片

2024-01-09 www.dnxtw.com

感激电脑系统网网民 佳宜、软媒新友2xrpri 重要线索递送!

电脑系统网 1 月 9 日信息,据路透社,英伟达计划于 2024 年第二季度逐渐批量生产中国特供的 AI 芯片,以遵循美国出口管制最新政策,其中最强的型号规格便是 H20。英伟达对于此事回绝作出回应。

除开 HGX H20 以外,英伟达还计划推出此外2款合乎美国限制的 PCIe 芯片 ——L20 和 L2,但详细信息不祥。

知情人士透露,H20 原定上年 11 月推出,但是该计划因为“网络服务器生产商在集成化该芯片时遇到了问题”而被推迟。其中一位知情人士表示,前期生产能力十分有限,英伟达必须最先达到流行客户的订单。

依据 SemiAnalysis 剖析,H20、L20 和 L2 包括英伟达绝大多数用以 AI 相关工作的功能特点,但是为了遵循新规,这三款新品在算率方面有所减少;但是在 LLM 逻辑推理中依然会比 H100 快 20% 之上。

电脑系统网查询公开信息获知,NVIDIA H100 Tensor Core GPU 采用了全新的 Hopper 架构设计,根据tsmc N4 加工工艺,搭载了 800 亿次晶体三极管。与上一代产品相比,可为主权威专家 (MoE) 实体模型提供高 9 倍练习速率。

它配置第四代 Tensor Core 和 Transformer 模块(FP8 精密度),还具有很强的可扩展性的 NVLink 互联技术性(最多能联接达 256 个 H100 GPU,相对于上一代选用 HDR Quantum InfiniBand 互联网,网络带宽高于 9 倍,网络带宽速度达 900GB/s)等服务。

延伸阅读:

《报道称中国特供版英伟达 H20 AI 芯片延长至来年一季度公布》

《选用 CoWoS 封装形式,报道称英伟达中国特供版 H20 在 LLM 逻辑推理中较 H100 迅速》

广告宣传申明:文章正文所含的对外开放跳转页面(包括不限于网页链接、二维码、动态口令等方式),用以传递更多信息,节约优选时长,结论仅作参考,电脑系统网全部文章内容均包括本声明。

相关阅读