英伟达正为中国区开发新款特供AI芯片 共有三款

基于Ampere架构的A100系列计算卡在过去三年里被众多高性能计算集群(HPC)所采用,英伟达在去年推出了新一代基于Hopper架构的H100系列计算卡,进一步提高了算力,这些GPU大量用于人工智能和深度学习任务。由于众所周知的原因,英伟达为了绕开去年施加的相关出口限制,先后推出了A800系列和H800系列计算卡专供中国市场使用。与原有的A100/H100系列相比,A800/H800系列的规格基本相同,比较大的区别在于NVLink互连总线的连接速率。 随着近期新一轮更加严格的管控措施,A800/H800系列计算卡也逃脱不了限制,甚至连消费端的GeForce RTX 4090游戏显卡也受到了影响。据《科创板日报》的报道,从产业链人士处了解到,英伟达故技重施,正在开发针对中国区的最新改良版芯片,包括了HGX H20、L20 PCle和L2 PCle三款产品。 据了解,HGX H20、L20 PCle和L2 PCle都是基于H100计算卡改造而来,英伟达最快会在本月16号之后公布相关信息,而国内的厂商最快会在未来几天拿到对应的产品。目前《科创板日报》已向英伟达求证该消息的真实性,但截至发稿为止,英伟达暂时还没有回应。 H100所搭载的是GH100芯片,其完整的芯片配置了8组GPC、72组TPC、144组SM、共18432个FP32 CUDA核心。其采用了第四代Tensor Core,共576个,并配有60MB的L2缓存。有不过实际产品中没有全部打开,其中SXM5版本中启用了132组SM,共16896个FP32 CUDA核心,528个Tensor Core以及50MB的L2缓存,而PCIe 5.0版本则启用了114组SM,FP32 CUDA核心数量只有14592个。此外,前者的TDP达到了700W,后者则为350W。 此外,H100支持英伟达第四代NVLink接口,可提供高达900 GB/s的带宽。同时H100是第一款支持PCIe 5.0标准的GPU,也是第一款采用HBM3的GPU,最多支持六颗HBM3,带宽为3TB/s,是A100采用HBM2E的1.5倍,默认显存容量为80GB。

Nov 10, 2023 - 09:00
 0  5
英伟达正为中国区开发新款特供AI芯片 共有三款

基于Ampere架构的A100系列计算卡在过去三年里被众多高性能计算集群(HPC)所采用,英伟达在去年推出了新一代基于Hopper架构的H100系列计算卡,进一步提高了算力,这些GPU大量用于人工智能和深度学习任务。由于众所周知的原因,英伟达为了绕开去年施加的相关出口限制,先后推出了A800系列和H800系列计算卡专供中国市场使用。与原有的A100/H100系列相比,A800/H800系列的规格基本相同,比较大的区别在于NVLink互连总线的连接速率。

英伟达正为中国区开发新款特供AI芯片 共有三款

随着近期新一轮更加严格的管控措施,A800/H800系列计算卡也逃脱不了限制,甚至连消费端的GeForce RTX 4090游戏显卡也受到了影响。据《科创板日报》的报道,从产业链人士处了解到,英伟达故技重施,正在开发针对中国区的最新改良版芯片,包括了HGX H20、L20 PCle和L2 PCle三款产品。

据了解,HGX H20、L20 PCle和L2 PCle都是基于H100计算卡改造而来,英伟达最快会在本月16号之后公布相关信息,而国内的厂商最快会在未来几天拿到对应的产品。目前《科创板日报》已向英伟达求证该消息的真实性,但截至发稿为止,英伟达暂时还没有回应。

H100所搭载的是GH100芯片,其完整的芯片配置了8组GPC、72组TPC、144组SM、共18432个FP32 CUDA核心。其采用了第四代Tensor Core,共576个,并配有60MB的L2缓存。有不过实际产品中没有全部打开,其中SXM5版本中启用了132组SM,共16896个FP32 CUDA核心,528个Tensor Core以及50MB的L2缓存,而PCIe 5.0版本则启用了114组SM,FP32 CUDA核心数量只有14592个。此外,前者的TDP达到了700W,后者则为350W。

此外,H100支持英伟达第四代NVLink接口,可提供高达900 GB/s的带宽。同时H100是第一款支持PCIe 5.0标准的GPU,也是第一款采用HBM3的GPU,最多支持六颗HBM3,带宽为3TB/s,是A100采用HBM2E的1.5倍,默认显存容量为80GB。

like

dislike

love

funny

angry

sad

wow

李芷晴 https://tszching.uk