重生的新作并非《泰坦陨落3》,但处于同一宇宙之中
据外媒 Giant Bomb 记者 Jeff Grubb 消息, EA 旗下的重生娱乐工作室正在制作一款以《泰坦陨落》为世界观背景的游戏,但非常可惜,那并不是系列正统续作《泰坦陨落3》。
Jeff Grubb 说:“据我所知,重生娱乐的新作是一款‘泰坦陨落’游戏,因为它的世界观背景和《泰坦陨落》处于同一宇宙。但所有透露消息的人都说,这并不是《泰坦陨落3》,如你所想,它还是一款主打在线多人联机的游戏,所幸还包含单人剧情战役模式。
我的消息源提醒说,要考虑联动和认清现实。哪怕他们正在制作《泰坦陨落3》,那基本也是在制作“泰坦陨落:英雄”,毕竟《Apex:英雄》帮助 EA 和重生赚到盆满钵满。他们不太可能改变策略,回去制作单机游戏版的《泰坦陨落3》。那些传奇英雄会继续出现,这款新作与《Apex:英雄》有很紧密的联系。”
随后 Jeff Grubb 表示,或许这种做法也不错,毕竟玩过《Apex:英雄》的人,相比听说过《泰坦陨落》的人要多出好几倍。这款新作的单人剧情战役模式,对于在线多人联机玩家来说,可能是“年轻人的第一款单机游戏”,尽管该模式的占比和体量恐怕不会太大。
据外媒 Giant Bomb 记者 Jeff Grubb 消息, EA 旗下的重生娱乐工作室正在制作一款以《泰坦陨落》为世界观背景的游戏,但非常可惜,那并不是系列正统续作《泰坦陨落3》。
Jeff Grubb 说:“据我所知,重生娱乐的新作是一款‘泰坦陨落’游戏,因为它的世界观背景和《泰坦陨落》处于同一宇宙。但所有透露消息的人都说,这并不是《泰坦陨落3》,如你所想,它还是一款主打在线多人联机的游戏,所幸还包含单人剧情战役模式。
我的消息源提醒说,要考虑联动和认清现实。哪怕他们正在制作《泰坦陨落3》,那基本也是在制作“泰坦陨落:英雄”,毕竟《Apex:英雄》帮助 EA 和重生赚到盆满钵满。他们不太可能改变策略,回去制作单机游戏版的《泰坦陨落3》。那些传奇英雄会继续出现,这款新作与《Apex:英雄》有很紧密的联系。”
随后 Jeff Grubb 表示,或许这种做法也不错,毕竟玩过《Apex:英雄》的人,相比听说过《泰坦陨落》的人要多出好几倍。这款新作的单人剧情战役模式,对于在线多人联机玩家来说,可能是“年轻人的第一款单机游戏”,尽管该模式的占比和体量恐怕不会太大。
国盛证券:液冷的放量元年
液冷落地驱动力发生边际变化,AI 服务器起量推动液冷散热成为刚需。液冷技术发展已久,但此前主要驱动力为 PUE 值相关的政策驱动,实际应用中风冷依旧占据主导地位,究其根本在于风冷尚能满足大部分散热需求;算力时代来临,GPU 服务器起量,液冷落地的驱动力发生根本性变革,我们认为 2024 年是国产算力加速发展的黄金期,也是液冷散热的放量元年:
➢ 直接“导火索”:AI 服务器功耗较传统服务器大幅提升。大模型兴起后的 AI时代,并行计算网络下异构架构成为主流,AI 服务器不仅使用传统 CPU 芯片,还增加大量高功率的 GPU 芯片,整机功率随之大幅走高,如 NVIDIA A100 SXM芯片单卡功耗 400W,8 卡 AI 服务器单论 GPU 的热功耗就有 3.2kW,H100 PCIe 5.0 芯片单卡功耗更是高达 700W;传统通用服务器以 H3C 为例,R4900 G6服务器处理器最大功率为 385W。从几百瓦的 CPU 服务器到几千瓦的 GPU 异构服务器,热功耗提升超数十倍。
➢ 根源驱动力:风冷上限无法满足 AI 散热需求。风冷制冷单机柜的上限通常是15kW 左右,液冷数据中心单机柜可支持 30kW 以上的散热能力。以 H100 为例,假设满配 8 卡,单台 H100 服务器仅内部 GPU 所需的功耗就达到 5.6kW(且不论 CPU、存储和额外的整机散热),风冷制冷阈值有限,成为实操痛点,无法对 AI 服务器机柜进行散热,液冷散热加速成为“必选”。
➢ 辅佐动力:冷板式液冷性价比拐点将至。产业在落地液冷散热中,面临较大的问题在于初期投资较传统风冷更多,但伴随 AIDC 建设加速,高功率机柜渗透率大幅提高,用电量远超传统机柜,液冷较风冷更省电的优势逐渐凸显,节约的电费有望逐步“摊薄”前期投资额,我们预测冷板式液冷的整体投资+运维性价比拐点有望加速到来。
落地国内,芯片厂、服务器厂、运营商合力建设 AIDC 并积极部署液冷,散热市场空间庞大。2024 年国内多次政策加码智算中心建设,优秀服务器厂商加速落地国产AI 生态系统,如华为发布 2024 数据中心能源十大趋势中就指出智算芯片需要采用液冷方式进行冷却,新华三、浪潮、曙光、宁畅、超聚变等服务器厂商均积极发布液冷解决方案。此外,运营商在加速 AI 投资的同时也大力加速液冷落地,如中国电信在上海投资建设全国规模最大运营商级智算中心,将全部采用液冷散热方案,液冷市场弹性空间不断扩大。
海外映射,英伟达加速液冷方案落地,VRT 发展如火如荼。英伟达在 2023 年 5 月获得美国能源部拨款的 COOLERCHIPS 液冷系统,就是采用浸没+冷板的混合模式,此外台湾经济日报预测 NV B100 系列产品搭载的散热技术将从原先的风冷升级为液冷,产业龙头的认可和背书将更大程度催化液冷技术的落地。从海外产业链来看,Vertiv 对液冷不断加大投资(如在 2023 年 12 月收购 CoolTera),也验证海外散热行业对液冷技术的重视。
投资建议:液冷散热从 PUE 政策驱动到实际产业刚需驱动,主要得益于国内 AI 算力和配套生态链的崛起,伴随 2024 年智算中心加速建设,服务器厂商和运营商共同大力投资配套设备,液冷行业真正的“刚需”放量元年有望到来。
建议关注:全链条能力-英维克、高澜股份、申菱环境、佳力图;核心部件供应-同飞股份、飞荣达、银轮股份、强瑞技术、科创新源、川润股份等。
风险提示:算力需求不及预期,AIDC 发展不及预期。
液冷落地驱动力发生边际变化,AI 服务器起量推动液冷散热成为刚需。液冷技术发展已久,但此前主要驱动力为 PUE 值相关的政策驱动,实际应用中风冷依旧占据主导地位,究其根本在于风冷尚能满足大部分散热需求;算力时代来临,GPU 服务器起量,液冷落地的驱动力发生根本性变革,我们认为 2024 年是国产算力加速发展的黄金期,也是液冷散热的放量元年:
➢ 直接“导火索”:AI 服务器功耗较传统服务器大幅提升。大模型兴起后的 AI时代,并行计算网络下异构架构成为主流,AI 服务器不仅使用传统 CPU 芯片,还增加大量高功率的 GPU 芯片,整机功率随之大幅走高,如 NVIDIA A100 SXM芯片单卡功耗 400W,8 卡 AI 服务器单论 GPU 的热功耗就有 3.2kW,H100 PCIe 5.0 芯片单卡功耗更是高达 700W;传统通用服务器以 H3C 为例,R4900 G6服务器处理器最大功率为 385W。从几百瓦的 CPU 服务器到几千瓦的 GPU 异构服务器,热功耗提升超数十倍。
➢ 根源驱动力:风冷上限无法满足 AI 散热需求。风冷制冷单机柜的上限通常是15kW 左右,液冷数据中心单机柜可支持 30kW 以上的散热能力。以 H100 为例,假设满配 8 卡,单台 H100 服务器仅内部 GPU 所需的功耗就达到 5.6kW(且不论 CPU、存储和额外的整机散热),风冷制冷阈值有限,成为实操痛点,无法对 AI 服务器机柜进行散热,液冷散热加速成为“必选”。
➢ 辅佐动力:冷板式液冷性价比拐点将至。产业在落地液冷散热中,面临较大的问题在于初期投资较传统风冷更多,但伴随 AIDC 建设加速,高功率机柜渗透率大幅提高,用电量远超传统机柜,液冷较风冷更省电的优势逐渐凸显,节约的电费有望逐步“摊薄”前期投资额,我们预测冷板式液冷的整体投资+运维性价比拐点有望加速到来。
落地国内,芯片厂、服务器厂、运营商合力建设 AIDC 并积极部署液冷,散热市场空间庞大。2024 年国内多次政策加码智算中心建设,优秀服务器厂商加速落地国产AI 生态系统,如华为发布 2024 数据中心能源十大趋势中就指出智算芯片需要采用液冷方式进行冷却,新华三、浪潮、曙光、宁畅、超聚变等服务器厂商均积极发布液冷解决方案。此外,运营商在加速 AI 投资的同时也大力加速液冷落地,如中国电信在上海投资建设全国规模最大运营商级智算中心,将全部采用液冷散热方案,液冷市场弹性空间不断扩大。
海外映射,英伟达加速液冷方案落地,VRT 发展如火如荼。英伟达在 2023 年 5 月获得美国能源部拨款的 COOLERCHIPS 液冷系统,就是采用浸没+冷板的混合模式,此外台湾经济日报预测 NV B100 系列产品搭载的散热技术将从原先的风冷升级为液冷,产业龙头的认可和背书将更大程度催化液冷技术的落地。从海外产业链来看,Vertiv 对液冷不断加大投资(如在 2023 年 12 月收购 CoolTera),也验证海外散热行业对液冷技术的重视。
投资建议:液冷散热从 PUE 政策驱动到实际产业刚需驱动,主要得益于国内 AI 算力和配套生态链的崛起,伴随 2024 年智算中心加速建设,服务器厂商和运营商共同大力投资配套设备,液冷行业真正的“刚需”放量元年有望到来。
建议关注:全链条能力-英维克、高澜股份、申菱环境、佳力图;核心部件供应-同飞股份、飞荣达、银轮股份、强瑞技术、科创新源、川润股份等。
风险提示:算力需求不及预期,AIDC 发展不及预期。
国盛证券:液冷的放量元年
液冷落地驱动力发生边际变化,AI 服务器起量推动液冷散热成为刚需。液冷技术发展已久,但此前主要驱动力为 PUE 值相关的政策驱动,实际应用中风冷依旧占据主导地位,究其根本在于风冷尚能满足大部分散热需求;算力时代来临,GPU 服务器起量,液冷落地的驱动力发生根本性变革,我们认为 2024 年是国产算力加速发展的黄金期,也是液冷散热的放量元年:
➢ 直接“导火索”:AI 服务器功耗较传统服务器大幅提升。大模型兴起后的 AI时代,并行计算网络下异构架构成为主流,AI 服务器不仅使用传统 CPU 芯片,还增加大量高功率的 GPU 芯片,整机功率随之大幅走高,如 NVIDIA A100 SXM芯片单卡功耗 400W,8 卡 AI 服务器单论 GPU 的热功耗就有 3.2kW,H100 PCIe 5.0 芯片单卡功耗更是高达 700W;传统通用服务器以 H3C 为例,R4900 G6服务器处理器最大功率为 385W。从几百瓦的 CPU 服务器到几千瓦的 GPU 异构服务器,热功耗提升超数十倍。
➢ 根源驱动力:风冷上限无法满足 AI 散热需求。风冷制冷单机柜的上限通常是15kW 左右,液冷数据中心单机柜可支持 30kW 以上的散热能力。以 H100 为例,假设满配 8 卡,单台 H100 服务器仅内部 GPU 所需的功耗就达到 5.6kW(且不论 CPU、存储和额外的整机散热),风冷制冷阈值有限,成为实操痛点,无法对 AI 服务器机柜进行散热,液冷散热加速成为“必选”。
➢ 辅佐动力:冷板式液冷性价比拐点将至。产业在落地液冷散热中,面临较大的问题在于初期投资较传统风冷更多,但伴随 AIDC 建设加速,高功率机柜渗透率大幅提高,用电量远超传统机柜,液冷较风冷更省电的优势逐渐凸显,节约的电费有望逐步“摊薄”前期投资额,我们预测冷板式液冷的整体投资+运维性价比拐点有望加速到来。
落地国内,芯片厂、服务器厂、运营商合力建设 AIDC 并积极部署液冷,散热市场空间庞大。2024 年国内多次政策加码智算中心建设,优秀服务器厂商加速落地国产AI 生态系统,如华为发布 2024 数据中心能源十大趋势中就指出智算芯片需要采用液冷方式进行冷却,新华三、浪潮、曙光、宁畅、超聚变等服务器厂商均积极发布液冷解决方案。此外,运营商在加速 AI 投资的同时也大力加速液冷落地,如中国电信在上海投资建设全国规模最大运营商级智算中心,将全部采用液冷散热方案,液冷市场弹性空间不断扩大。
海外映射,英伟达加速液冷方案落地,VRT 发展如火如荼。英伟达在 2023 年 5 月获得美国能源部拨款的 COOLERCHIPS 液冷系统,就是采用浸没+冷板的混合模式,此外台湾经济日报预测 NV B100 系列产品搭载的散热技术将从原先的风冷升级为液冷,产业龙头的认可和背书将更大程度催化液冷技术的落地。从海外产业链来看,Vertiv 对液冷不断加大投资(如在 2023 年 12 月收购 CoolTera),也验证海外散热行业对液冷技术的重视。
投资建议:液冷散热从 PUE 政策驱动到实际产业刚需驱动,主要得益于国内 AI 算力和配套生态链的崛起,伴随 2024 年智算中心加速建设,服务器厂商和运营商共同大力投资配套设备,液冷行业真正的“刚需”放量元年有望到来。
建议关注:全链条能力-英维克、高澜股份、申菱环境、佳力图;核心部件供应-同飞股份、飞荣达、银轮股份、强瑞技术、科创新源、川润股份等。
风险提示:算力需求不及预期,AIDC 发展不及预期。
液冷落地驱动力发生边际变化,AI 服务器起量推动液冷散热成为刚需。液冷技术发展已久,但此前主要驱动力为 PUE 值相关的政策驱动,实际应用中风冷依旧占据主导地位,究其根本在于风冷尚能满足大部分散热需求;算力时代来临,GPU 服务器起量,液冷落地的驱动力发生根本性变革,我们认为 2024 年是国产算力加速发展的黄金期,也是液冷散热的放量元年:
➢ 直接“导火索”:AI 服务器功耗较传统服务器大幅提升。大模型兴起后的 AI时代,并行计算网络下异构架构成为主流,AI 服务器不仅使用传统 CPU 芯片,还增加大量高功率的 GPU 芯片,整机功率随之大幅走高,如 NVIDIA A100 SXM芯片单卡功耗 400W,8 卡 AI 服务器单论 GPU 的热功耗就有 3.2kW,H100 PCIe 5.0 芯片单卡功耗更是高达 700W;传统通用服务器以 H3C 为例,R4900 G6服务器处理器最大功率为 385W。从几百瓦的 CPU 服务器到几千瓦的 GPU 异构服务器,热功耗提升超数十倍。
➢ 根源驱动力:风冷上限无法满足 AI 散热需求。风冷制冷单机柜的上限通常是15kW 左右,液冷数据中心单机柜可支持 30kW 以上的散热能力。以 H100 为例,假设满配 8 卡,单台 H100 服务器仅内部 GPU 所需的功耗就达到 5.6kW(且不论 CPU、存储和额外的整机散热),风冷制冷阈值有限,成为实操痛点,无法对 AI 服务器机柜进行散热,液冷散热加速成为“必选”。
➢ 辅佐动力:冷板式液冷性价比拐点将至。产业在落地液冷散热中,面临较大的问题在于初期投资较传统风冷更多,但伴随 AIDC 建设加速,高功率机柜渗透率大幅提高,用电量远超传统机柜,液冷较风冷更省电的优势逐渐凸显,节约的电费有望逐步“摊薄”前期投资额,我们预测冷板式液冷的整体投资+运维性价比拐点有望加速到来。
落地国内,芯片厂、服务器厂、运营商合力建设 AIDC 并积极部署液冷,散热市场空间庞大。2024 年国内多次政策加码智算中心建设,优秀服务器厂商加速落地国产AI 生态系统,如华为发布 2024 数据中心能源十大趋势中就指出智算芯片需要采用液冷方式进行冷却,新华三、浪潮、曙光、宁畅、超聚变等服务器厂商均积极发布液冷解决方案。此外,运营商在加速 AI 投资的同时也大力加速液冷落地,如中国电信在上海投资建设全国规模最大运营商级智算中心,将全部采用液冷散热方案,液冷市场弹性空间不断扩大。
海外映射,英伟达加速液冷方案落地,VRT 发展如火如荼。英伟达在 2023 年 5 月获得美国能源部拨款的 COOLERCHIPS 液冷系统,就是采用浸没+冷板的混合模式,此外台湾经济日报预测 NV B100 系列产品搭载的散热技术将从原先的风冷升级为液冷,产业龙头的认可和背书将更大程度催化液冷技术的落地。从海外产业链来看,Vertiv 对液冷不断加大投资(如在 2023 年 12 月收购 CoolTera),也验证海外散热行业对液冷技术的重视。
投资建议:液冷散热从 PUE 政策驱动到实际产业刚需驱动,主要得益于国内 AI 算力和配套生态链的崛起,伴随 2024 年智算中心加速建设,服务器厂商和运营商共同大力投资配套设备,液冷行业真正的“刚需”放量元年有望到来。
建议关注:全链条能力-英维克、高澜股份、申菱环境、佳力图;核心部件供应-同飞股份、飞荣达、银轮股份、强瑞技术、科创新源、川润股份等。
风险提示:算力需求不及预期,AIDC 发展不及预期。
✋热门推荐