美国当地时间3月18日下午,全球瞩目的英伟达2024GTC大会在加州圣何塞SAP球场开幕。
点评
Blackwell GPU发布
黄仁勋表示,Blackwell 的 AI 性能可达 20 petaflops,并配备192GB HBM3e显存,8TB/sec HBM带宽。采用台积电 4 纳米(4NP)工艺,整合两个独立裸晶(Die),裸晶之间通过10 TB / 秒的NVLink 5.0(NV-HBI)连接。Blackwell complex 的 NVLink 5.0 端口可提供 1.8 TB / 秒的带宽,是 Hopper GPU 上 NVLink 4.0 端口速度的两倍。此外,每个 Blackwell 裸晶(die)的浮点运算能力比 Hopper Die 高出 25%,且每个封装中包含两个 Blackwell 芯片,总性能提高 2.5 倍。
发布GB200,性能全面提升
架构上GB200 包含两个 B200 Blackwell GPU 和一个基于 Arm 的 Grace CPU ,IT之家援引英伟达官方报告,训练一个 1.8 万亿个参数的模型以前需要 8000 个 Hopper GPU 和 15 兆瓦的电力。如今,Nvidia 首席执行官表示,2000 个 Blackwell GPU 就能完成这项工作,耗电量仅为 4 兆瓦。GB200内部可容纳72个GPU,在性能方面,推理大语言模型性能比 H100 提升 30 倍,在参数为 1,750 亿的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的 7 倍,而训练速度是 H100 的 4 倍。同时,B200平台可以向下兼容,支持与上一代Hopper架构的H100/H200 HGX系统硬件适配。我们认为,GB200快速推广也有望带动高速光模块需求数量提升。
GB200使用液冷方案,液冷应用成为增量
GB200 NVL72 服务器提供 36 个 CPU 和 72 个 Blackwell GPU,并使用一体水冷散热方案。NVIDIA GB200 NVL72 是一种多节点、液冷、机架规模系统。我们认为,GB200推广也有望拉动AI服务器液冷需求以及数据中心侧液冷的应用。
发布智能汽车&具生智能相关合作与项目
在GTC大会上,黄仁勋宣布包括和比亚迪的合作,以及宣布一项名为GR00T的项目,旨在进一步推动英伟达在机器人和具身智能的突破性工作。公司在具身智能有较多布局,未来有望继续深化在该领域的布局与研究。
关注产业链核心受益标的
我们认为,本次GTC大会发布GB200有望带动高速光模块销量提升。GB200搭配液冷方案,带动整体液冷在AI服务器及数据中心侧的渗透率提升。产业链核心受益标的:
①光模块&光芯片:中际旭创、天孚通信、新易盛、源杰科技(与电子团队联合覆盖)、博创科技、仕佳光子,:罗博特科等
②服务器交换机:沪电股份(与电子团队联合覆盖)、紫光股份(与计算机团队联合覆盖)、中兴通讯,:菲菱科思、华丰科技、鼎通科技等
③智算中心:润泽科技(与机械团队联合覆盖)、润建股份、奥飞数据(与计算机团队联合覆盖)、科华数据(与电新团队联合覆盖)等
④液冷:润泽科技(与机械团队联合覆盖),:英维克、高澜股份、科创新源等
⑤机器人:汉威科技(与机械团队联合覆盖)、拓邦股份(与电子团队联合覆盖)等#A股[超话]#
点评
Blackwell GPU发布
黄仁勋表示,Blackwell 的 AI 性能可达 20 petaflops,并配备192GB HBM3e显存,8TB/sec HBM带宽。采用台积电 4 纳米(4NP)工艺,整合两个独立裸晶(Die),裸晶之间通过10 TB / 秒的NVLink 5.0(NV-HBI)连接。Blackwell complex 的 NVLink 5.0 端口可提供 1.8 TB / 秒的带宽,是 Hopper GPU 上 NVLink 4.0 端口速度的两倍。此外,每个 Blackwell 裸晶(die)的浮点运算能力比 Hopper Die 高出 25%,且每个封装中包含两个 Blackwell 芯片,总性能提高 2.5 倍。
发布GB200,性能全面提升
架构上GB200 包含两个 B200 Blackwell GPU 和一个基于 Arm 的 Grace CPU ,IT之家援引英伟达官方报告,训练一个 1.8 万亿个参数的模型以前需要 8000 个 Hopper GPU 和 15 兆瓦的电力。如今,Nvidia 首席执行官表示,2000 个 Blackwell GPU 就能完成这项工作,耗电量仅为 4 兆瓦。GB200内部可容纳72个GPU,在性能方面,推理大语言模型性能比 H100 提升 30 倍,在参数为 1,750 亿的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的 7 倍,而训练速度是 H100 的 4 倍。同时,B200平台可以向下兼容,支持与上一代Hopper架构的H100/H200 HGX系统硬件适配。我们认为,GB200快速推广也有望带动高速光模块需求数量提升。
GB200使用液冷方案,液冷应用成为增量
GB200 NVL72 服务器提供 36 个 CPU 和 72 个 Blackwell GPU,并使用一体水冷散热方案。NVIDIA GB200 NVL72 是一种多节点、液冷、机架规模系统。我们认为,GB200推广也有望拉动AI服务器液冷需求以及数据中心侧液冷的应用。
发布智能汽车&具生智能相关合作与项目
在GTC大会上,黄仁勋宣布包括和比亚迪的合作,以及宣布一项名为GR00T的项目,旨在进一步推动英伟达在机器人和具身智能的突破性工作。公司在具身智能有较多布局,未来有望继续深化在该领域的布局与研究。
关注产业链核心受益标的
我们认为,本次GTC大会发布GB200有望带动高速光模块销量提升。GB200搭配液冷方案,带动整体液冷在AI服务器及数据中心侧的渗透率提升。产业链核心受益标的:
①光模块&光芯片:中际旭创、天孚通信、新易盛、源杰科技(与电子团队联合覆盖)、博创科技、仕佳光子,:罗博特科等
②服务器交换机:沪电股份(与电子团队联合覆盖)、紫光股份(与计算机团队联合覆盖)、中兴通讯,:菲菱科思、华丰科技、鼎通科技等
③智算中心:润泽科技(与机械团队联合覆盖)、润建股份、奥飞数据(与计算机团队联合覆盖)、科华数据(与电新团队联合覆盖)等
④液冷:润泽科技(与机械团队联合覆盖),:英维克、高澜股份、科创新源等
⑤机器人:汉威科技(与机械团队联合覆盖)、拓邦股份(与电子团队联合覆盖)等#A股[超话]#
#英伟达最新AI芯片售价将超过3万美元#英伟达最新AI芯片GB200售价超3万美元3月20日消息,英伟达在GTC 2024大会上最新推出了新一代GPU Blackwell平台,首款芯片命名为GB200,今年上市。
GB200包含了两个B200 Blackwell GPU和一个基于Arm的Grace CPU。
据英伟达CEO黄仁勋透露,该芯片的售价将在3万美元(约合人民币22万元)至4万美元之间。
他估计,英伟达在研发成本上花费了大约100亿美元(约合人民币720亿元)。
这个定价范围与前代的H100(即Hopper)相似,但性能上却带来巨大提升。
据介绍,GB200采用台积电的4纳米(4NP)工艺制程,将芯片整合到一起,使用10 TB/sec NVLink 5.0连接。
GB200共有2080亿个晶体管,而上一代H100采用晶体管仅有800亿。
在人工智能方面,GB200的AI性能为每秒20千万亿次浮点运算,而H100为每秒4千万亿次浮点运算。
GB200包含了两个B200 Blackwell GPU和一个基于Arm的Grace CPU。
据英伟达CEO黄仁勋透露,该芯片的售价将在3万美元(约合人民币22万元)至4万美元之间。
他估计,英伟达在研发成本上花费了大约100亿美元(约合人民币720亿元)。
这个定价范围与前代的H100(即Hopper)相似,但性能上却带来巨大提升。
据介绍,GB200采用台积电的4纳米(4NP)工艺制程,将芯片整合到一起,使用10 TB/sec NVLink 5.0连接。
GB200共有2080亿个晶体管,而上一代H100采用晶体管仅有800亿。
在人工智能方面,GB200的AI性能为每秒20千万亿次浮点运算,而H100为每秒4千万亿次浮点运算。
【SK海力士HBM3E内存已量产】日前,SK海力士宣布已开始量产最新款内存产品HBM3E,并将于3月下旬供货给主要客户,包括拥有基于Hopper架构的H200和基于BlackWell架构的B200 GPU的英伟达。据悉,SK海力士于2023年8月份完成HBM3E存储器的开发,上个月向英伟达发送了新款12层堆叠HBM3E样品进行测试,如今宣布量产的HBM3E存储器应该是8层堆叠的产品,容量为24GB。SK海力士表示,最新的HBM3E产品在速度和热量控制上是目前业界内最好的。最新款HBM3E每秒可处理1.18TB的数据。同时,SK海力士的HBM3E产品在采用Advanced MR-MUF工艺后,与上一代产品相比,散热性能提高了10%。
✋热门推荐