产品中心PRDUCTS
- 凯发K8国际官网入口详解壁仞刚刚发布的GPU:单芯片PF|三门齐开|LOPS算力
- 凯发娱乐广西出台“人工智能+制造”行动方案|男男车车好快的车车真人免费网站|
- 凯发·k8(国际)了解电子元器件封装的基础知识|单挑王破解方法|
- 凯发·k8国际(中国)首页登录|魔兽贴吧27|通富微电:2024年净利润同比增长
- k8凯发国际官方入口兰剑智能:公司在智能装卸机器人等产品已采用人工智能AI算法进
技术支持RECRUITMENT
凯发K8国际官网入口详解壁仞刚刚发布的GPU:单芯片PF|三门齐开|LOPS算力
2025-08-01 09:34:46
8月9日壁仞科技的首颗GPU芯片发布之际,发布会上播放的宣传片还真是能让人联想起英伟达“IamAI”的那则著名视频◈★★ღ。而壁仞科技选择的这条赛道,和大部分做AI芯片的国内厂商都不大一样:其GPU芯片◈★★ღ、板卡和系统是要和英伟达正面硬碰硬,用于云上大规模的AI训练与推理,以及HPC的◈★★ღ。
壁仞科技创始人◈★★ღ、董事长◈★★ღ、CEO张文说从最初走访20家客户的反馈来看,大家都想要一款“国产大算力芯片”◈★★ღ。虽说“做通用GPU芯片,99%都做不下去”,但“我思考,周期长◈★★ღ、壁垒高◈★★ღ、投入大,换句话说就是资本密集◈★★ღ、人才密集和资源密集的需求◈★★ღ。这三点恰好都是我的长项◈★★ღ。”于是在成功说服投资人以后,壁仞就开启了这一征程◈★★ღ。
壁仞科技成立于2019年9月,用张文的话来说“三年时间,发展到千人团队◈★★ღ、芯片从PPT到量产”是个奇迹◈★★ღ。今年3月底就有壁仞BR100芯片成功点亮的消息,“全球通用GPU算力记录,第一次由中国企业创造◈★★ღ。”张文说,“中国通用GPU芯片,第一次进入每秒1千万亿次的计算新时代◈★★ღ。”
而从壁仞科技的宣传片来看,其GPU芯片要覆盖“从微观细胞到浩瀚宇宙,从坚实的道路到虚拟的空间”,从生物科学◈★★ღ、工业设计◈★★ღ、生产制造,到农业耕作◈★★ღ、航天航海◈★★ღ、地质勘探与宇宙探索◈★★ღ。大约算是与英伟达的全方位市场重合了◈★★ღ。要做到这些可真的不容易,也绝不仅仅是算力堆砌所能轻易达成的◈★★ღ。本文我们就详细谈谈壁仞科技本次发布的1个架构◈★★ღ、2颗芯片(及对应的OAMmodule与PCIe板卡)◈★★ღ、1台服务器,以及对应于生态建设的软件栈◈★★ღ。
这次壁仞科技发布了两颗芯片:BR100和BR104◈★★ღ。这两者的区别主要在于BR100是两片相同的die(或chiplet)封装到一起;BR104则只用了1片die,所以相关算力与IO等参数大多为前者的一半,适配不同的市场需求◈★★ღ。
所以我们将注意力主要放在BR100身上◈★★ღ。从一些关键数据就可以看出本次发布的BR100GPU是真正的“大”芯片凯发K8国际官网入口凯发K8国际官网入口◈★★ღ。壁仞在宣传中提到“创下全球(通用GPU芯片的)算力记录”“单芯片算力达到PFLOPS级别”“峰值算力是国际厂商在售旗舰产品3倍以上”◈★★ღ。
从制造和封装技术的堆料来看,应该更能体会其规模,包括7nm工艺◈★★ღ、“770亿个晶体管”,以及张文提到的“1000mm2”左右的diesize◈★★ღ。这个diesize数字当然也就突破了光刻机所能处理的reticlelimit,所以是将两片die封装到一起◈★★ღ。
从壁仞科技联合创始人◈★★ღ、CTO洪洲的介绍来看,BR100明确采用了台积电的2.5D CoWoS-S封装方案——两片die和周边HBM2e内存都放在一片硅中介(silicon interposer)上◈★★ღ。我们在刚刚发布的《先进封装的现在和将来》一文中详细介绍过这种先进封装技术,国内厂商在用的应当还寥寥无几◈★★ღ。
基于以上数字,推荐感兴趣的同学去比一比,以及Intel Ponte Vecchio GPU,在die size◈★★ღ、晶体管数量和先进封装技术的应用上都有一定的可比性;也能更进一步地体会壁仞BR100大约是怎样的定位◈★★ღ。
实际上,英伟达在今年GTC上发布◈★★ღ、尚未上市的Hopper架构的GH100diesize为814mm2,800亿个晶体管◈★★ღ。“大芯片”之间过招,在堆料上真的已经到了白热化程度◈★★ღ。
BR100的理论算力水平如上图所示,不同格式与精度的算力值,对应于BR100在训练和推理方面的适用性◈★★ღ。壁仞提到的“全球算力记录”和突破PFLOPS,应该就是指BF16格式(1024TFLOPS)◈★★ღ。
这里有个TF32+,是壁仞新推的一种数据格式,后文将会提到◈★★ღ。在AI训练中相对关键的BF16◈★★ღ、TF32/TF32+峰值理论算力,都有着很漂亮的水平;着力推理的Int8也达到了2048TOPS◈★★ღ。
其他配置数据还包括2.5D封装在一起的64GBHBM2e内存,“超300MB片上缓存”,2.3TB/s外部I/O带宽,64路高清编码◈★★ღ、512路高清解码加速◈★★ღ。
对比“国际厂商在售旗舰”的峰值算力数据——这很显然比的就是Ampere架构的A100;AI计算相关主要数据格式的差异还是实打实的(FP32的数据,属于欺负A100的算力侧重点了;而且A100堆的FP64算力在HPC领域也是很重要的)◈★★ღ。
据说在“开发者云上的实测算力”,BR100的数据还更好看一些三门齐开◈★★ღ。有兴趣的同学还可以拿尚未发售的英伟达Hopper新架构来比一比,虽然这种峰值算力对比的意义并不算特别大◈★★ღ。另外要考虑对比双方的芯片产品大规模铺货的时间◈★★ღ。
到更为真实的负载中,跑主流◈★★ღ、具代表性的网络,包括CV◈★★ღ、NLP,还有现在很流行的Transformer,壁仞BR100仍然是有不小的优势的,“平均加速比2.6x”三门齐开◈★★ღ。不过这种涉及到实际业务的对比,不仅是芯片本身,还要带上系统◈★★ღ、软件的对比,应当进一步明确对比对象和内容◈★★ღ。我们很期待未来看到壁仞BR100及对应系统参与MLPerf基准测试◈★★ღ。
实则从这些与竞品的性能对比数据,是能够发现壁仞研发团队的前瞻性的◈★★ღ。这家公司2019年定义BR100芯片,到如今产品发布历经3年时间,AI与通用计算加速市场环境变化不小◈★★ღ。首次做芯片,就要预见未来3年的算力增长,并在对应时间节点把产品拿出来,既有风险又有难度◈★★ღ。
另外,单die的BR104主要配置与参数如下图所示◈★★ღ。据说即便是单die的BR104,相比于“国际厂商在售旗舰”仍然有着1.4-1.6倍的算力优势,包括上述不同数据格式,与主流模型基准测试性能比较◈★★ღ。
有关芯片架构◈★★ღ、特性◈★★ღ、存储子系统◈★★ღ、IO互连的部分此处还尚未提到;比如说主机接口PCIeGen5,也特别支持了CXL互连协议;还有壁仞自研的BLink点对点全互连技术能将8个GPU有效连接在一起等等◈★★ღ。我们将这部分放到本文的最后◈★★ღ。
更往上的板级系统层面,BR100◈★★ღ、BR104芯片当然是需要对应到具体的产品形态的◈★★ღ。这次壁仞发布了两款具体的硬件产品:壁砺100和壁砺104,分别应用了BR100和BR104芯片,这两款产品分别以OAM(OCPAcceleratorModule)模组与PCIe板卡的形态存在◈★★ღ。算力规格之外,功耗分别对应550W和300W◈★★ღ。
壁仞科技联合创始人◈★★ღ、总裁徐凌杰特别提到,其中壁砺100“在板级和系统层面做了非常多的创新”◈★★ღ。供电方面,“我们专门为这套系统打造了48V电源,有着超高的电源密度和开关频率,提供稳定的供电和超高的电源效率◈★★ღ。”
而在散热方面,“我们在板卡上采用快速均温技术,增加了热腔体积和撞风面积,有效提升了散热效率◈★★ღ。”徐凌杰表示,“我们还优化了散热器的外形,能够在不影响散热的前提下降低5%以上的风阻◈★★ღ。”除此之外,“考虑到系统的稳定性和可靠性,我们也设计了一套专门的中断和保护机制◈★★ღ。”右图的热力图表现的是OAM模组之上温度的分布情况◈★★ღ。
系统和性能扩展相关的部分,应该也是很多人关注的重点◈★★ღ。“我们把8个OAM模组放在通用UBB主板上,形成8卡之间点对点的全互连拓扑◈★★ღ。充分利用BR100上面的高速接口,和UBB的互连基础设施,8张卡之间两两互连凯发K8国际官网入口◈★★ღ。”徐凌杰说,“节点内每张卡能够有448GB/s的互连带宽,节点之外还有64GB的带宽◈★★ღ。”8卡对分带宽1.8TB/s◈★★ღ。
这是“国内芯片设计厂商中,第一个实现在OAM系统中,单节点8卡的全互连拓扑”◈★★ღ。全互连拓扑的价值,自然就在于专线通信,每张卡在系统中完全对称,便于分布式调度和部署三门齐开◈★★ღ。
PCIe板卡形态的壁砺104则能够部署在大部分2-4U的服务器里◈★★ღ。徐凌杰特别提到,壁砺104也能够实现多卡之间的高速互连◈★★ღ。“我们为此专门设计了高速的桥片,能够在4张卡之间形成点对点的全互连拓扑,带宽192GB/s◈★★ღ。”
值得一提的是,本次发布会上壁仞特别宣布了与浪潮合作推出的OAM服务器:海玄◈★★ღ。这台服务器的理论峰值算力(BF16)达到8PFLOPS;512GBHBM2e内存;支持PCIe5.0和CXL;1.8TB/s对分互连带宽;最大功耗7kW◈★★ღ。
这个部分的最后,有必要说一说AI芯片与GPU厂商于系统层面的常规对比项目:少不了要和“国际厂商”对比TCO(总拥有成本)和功耗◈★★ღ。这是真正涉及到性价比和效率的部分◈★★ღ。
徐凌杰表示,“用国际巨头在售的旗舰产品,6000台服务器(DGXA100640GB?)可以达到15EFLOPS的浮点算力,需要3000台机柜,占地空间1万平方米以上,峰值功耗39兆瓦,最高需要3.4亿度电每年,相当于4.2万吨煤的发电量◈★★ღ。”
而如果换成OAM服务器海玄,“只需要2000台海玄服务器,达到16EFLOPS的算力;只需要1000个机柜,占地面积不超过3500平方米,峰值功耗14兆瓦,1.2亿度年用电量,相当于1.5万吨标准煤发电量,实现了整体方案64%的成本下降◈★★ღ。”
当然这是个理想数据,我们在不少AI芯片供应商那里都看到过类似的对比;实际情况很大程度还是受到业务类型◈★★ღ、开发生态◈★★ღ、软件和系统效率等各方面的因素影响◈★★ღ。目前壁砺104PCIe板卡已经向部分用户“开放邀测”,而海玄OAM服务器则“正在内部进行紧锣密鼓的测试,即将在下个季度与客户见面”◈★★ღ。
洪洲在介绍芯片架构之前就提到,壁仞科技要“占领数字经济的制高点”◈★★ღ。“我们计划通过我们的芯片◈★★ღ、计算卡,要承载我们的软件来对接应用◈★★ღ。刚开始兼容主流生态,然后抢占整个生态的话语权”◈★★ღ。“我们关键是要打造生态,真正将生态打好才是立足之本◈★★ღ。”
要在现如今的通用计算GPU市场有所发展,芯片做得再好,没有庞大的生态都将难以生存◈★★ღ。而且生态一直也是英伟达赖以生存与业绩数年持续蹿升的根源所在三门齐开◈★★ღ。英伟达当前所涉足的通用计算加速领域,每年GTC上新发布的加速库◈★★ღ、框架◈★★ღ、软件和应用,都足以让竞争对手汗颜——甚至是一些细分◈★★ღ、小众的领域◈★★ღ。
尤其是每年更新个什么库,相同硬件的效率就提升1倍,有时都足以将DSA架构芯片的效率领先优势吃干抹净◈★★ღ。更不用谈上层应用面向开发者时,易用性有时可以将竞争对手甩开几条街◈★★ღ。
壁仞科技作为一家刚刚发布第一颗芯片◈★★ღ、成立才3年的新入局者,自然不大可能做到一蹴而就◈★★ღ。我们此前采访不少生态投入时间超过5年的AI芯片企业,他们都对英伟达的生态建设水平感到无奈◈★★ღ。这预计也将成为壁仞科技接下来很长一段时间内要投入大量人力物力的部分◈★★ღ。
上面这张图是壁仞的BIRENSUPA(以下简称SUPA)软件全栈,从驱动◈★★ღ、硬件抽象层◈★★ღ、编程平台◈★★ღ、框架,到具体的解决方案和应用◈★★ღ。除了相关壁仞GPU自身架构特性的一些接口(下文架构介绍中也会有涉及),这里比较值得一提的包括框架层支持PyTorch◈★★ღ、TensorFlow,和已经在合作中的百度飞桨PaddlePaddle——百度也出现在发布会上,给出了“产品兼容性证明”;框架层有个壁仞自研的推理引擎suInfer◈★★ღ。
上层的解决方案,现阶段主要有两个:AutoStream和suCTR凯发K8国际官网入口◈★★ღ。壁仞科技联席CEO李新荣介绍说,AutoStream智能视频分析引擎是基于GStreamer框架开发的软件库,用于端到端的智能分析◈★★ღ。“它可以对图像以及视频的数据做前端和后端的处理,充分利用壁仞GPU的解码能力和推理加速能力,高效地支持视频分析应用◈★★ღ。”未来还会有更多AutoStream的功能问世◈★★ღ。
而suCTR是个广告推荐训练框架,“支持基于GPU架构的训练框架,用在广告推荐场景上;采用多级稀疏参数存储架构,单机就可以支持TB级参数,并且可以通过多级扩展来支持更多的大规模参数;兼容TensorFlow,减少用户开发的迁移成本◈★★ღ。”
开发者比较关心的部分具体内容可见以下PPT;就一家刚刚发布芯片的企业而言,我们认为这样的生态构建水平已经是比较优秀的了:
另外作为生态建设的一环,壁仞科技“开发者云”当前已经上线◈★★ღ。壁仞也现场演示了开发者云的使用◈★★ღ。“开发者云是基于壁仞suCloud机器学习平台搭建的集成式开发环境,旨在为开发者提供可远程访问壁仞GPU资源的云端入口◈★★ღ。”
生态建设前期,壁仞似乎和不少高校展开了合作,主要着力在和高校建立合作关系,从学术研究◈★★ღ、人才培养和科研成果转换上入手◈★★ღ。从壁仞展示的视频来看,目前涉及的合作方向包括医疗影像◈★★ღ、分子动力学◈★★ღ、电磁仿真等领域◈★★ღ。虽然不清楚合作深度和成果产出如何,但这本身就是生态扩展◈★★ღ、为未来打基础的长远方案◈★★ღ。
感觉能在发布会上从高抽象层级谈技术的企业,在国内还真是稀缺◈★★ღ。壁仞在这次发布会上,花了比较多的篇幅着墨于自家GPU芯片的“壁立仞”架构凯发K8国际官网入口◈★★ღ。做大算力可不是堆晶体管就行的,这其中涉及到PPA权衡◈★★ღ、内存功耗限制问题◈★★ღ、兼容性等等◈★★ღ。本文最后,我们就来谈一谈构成BR100/BR104芯片的壁立仞架构,有何独特之处◈★★ღ。
洪洲给出了壁立仞架构的6大特性:TF32+数据格式支持◈★★ღ、TDA张量数据存取加速器◈★★ღ、C-Warp协作开发模式◈★★ღ、NME近存储计算引擎◈★★ღ、NUMA/UMA访存机制◈★★ღ、SVI安全虚拟实例◈★★ღ。虽然听起来其中的某些还是比较通用◈★★ღ。
这是BR100逻辑框架图,其上包含有计算单元◈★★ღ、2Dmesh片上网◈★★ღ、HBM2e存储系统◈★★ღ、媒体引擎◈★★ღ、连接主机的PCIeGen5接口◈★★ღ、互连接口◈★★ღ。
放大计算核部分,这是流处理器簇(SPC),采用标准化的模块化设计,上面能跑4096并行线程◈★★ღ。一个SPC内部包含有16个EU(执行单元),每4个EU可配置成1个CU(计算单元)◈★★ღ。一个BR100内部有32个这样的SPC流媒体簇◈★★ღ。
放大其中的EU◈★★ღ。一个EU主要包含两部分,一部分是“通用流式处理器(V-core)”◈★★ღ。“我们采用了SIMT通用并行处理器”,BR100的“通用性主要就来自这个处理器,它支持各种各样的指令,而且是完全并行的通用架构”◈★★ღ。这部分应该也是能够兼容CUDA的原因◈★★ღ。
另一个部分就是tensorcore◈★★ღ。“我们的做法和业界不大一样◈★★ღ。我们的tensor核是完全集成在向量核里面的,作为向量核的加速器◈★★ღ。”洪洲说,“其优点在于,可以把16个tensor核连在一起,达成更大的tensor核,让矩阵运算效率得到极大提高◈★★ღ。我们算下来大概能提高30%◈★★ღ。”
“矩阵运算是AI◈★★ღ、HPC里面最重要的运算◈★★ღ。所以这个设计至关重要三门齐开◈★★ღ。这样的设计能提高能效比,让数据重用性变得更好◈★★ღ。”
“我觉得到底用通用架构还是DSA架构,这个争论是没有意义的◈★★ღ。”洪洲谈到,“BR100里面,这两者都有了,既有通用性,也有很好的PPA◈★★ღ。”
分布式共享L2cache也是洪洲特别提到的创新点◈★★ღ。“传统GPU的L2cache一般在芯片中间,或者芯片边上,在memorycontroller旁边◈★★ღ。我们的设计是分布式缓存,和每个大的计算核在一起,也能够共享,通过片上网将其连在一起◈★★ღ。”“这样的好处是,让数据和计算单元挨得很近,与此同时又在芯片level做共享◈★★ღ。”
BR100所用的片上网络(NoC),为“网格式多播(multicast)片上互连”◈★★ღ。“权重一般来说是可以共享多播的;当你跑模型并行,trainingsample也可以共享多播◈★★ღ。这样就能极大减少对内存的带宽压力,减少片上网link的带宽压力◈★★ღ。”
IO方面值得一提的特性,除了PCIeGen5主机接口支持——128GB/s带宽,并且支持CXL互连协议以外;BLink点对点全互连技术,在壁仞科技的版图中应该也是很重要的——可类比于英伟达的NVLink◈★★ღ。
“我们有8组BLink接口,其中7个接口可以连接另外7个GPU,最终将8个GPU有效连在一起◈★★ღ。”洪洲说,“我们为什么要自研这个接口?因为它能够给我们更好的控制◈★★ღ。通过这项技术,把8个GPU当成1个GPU来用,并且把数据多播◈★★ღ、计算核之间同步都通过接口来实现◈★★ღ。”
6大亮点中的第一个就是TF32+数据格式的支持◈★★ღ。“两年前,头部厂商引入了TF32,这个格式能够让网络比较容易收敛◈★★ღ。但我们和客户交流的时候发现,这还远远不够◈★★ღ。很多客户在某些场景下,为了0.1%的精度提高,宁愿速度跑慢一点,或者加更多设备◈★★ღ。”
“我们的TF32+,精度bit有15bit(E8M15),TF32就只有10bit◈★★ღ。我们增加了5bit,相当于增加了32倍精度◈★★ღ。”洪洲说,“即使这样,我们的TF32+算力仍然是头部厂家TF32的3.3倍◈★★ღ。”所以最终达成了“更高的精度”和“更大的算力”凯发k8天生赢家一触即发◈★★ღ。
架构层面的另一个亮点在于TDA(TensorDataAccelerator)张量数据存取加速器◈★★ღ。这个加速器用于offload计算单元(SPC)的数据存取工作◈★★ღ。“它是个专门的加速器,像数据的加压◈★★ღ、解压◈★★ღ、地址计算◈★★ღ、同步◈★★ღ。它能让计算和数据搬动做到异步◈★★ღ。”
实际上,以下多项特性都着力于减少数据通讯产生的开销——在AI计算时代,这个命题正被不断放大◈★★ღ。而“高算力”架构现在总是要花大量的精力在应对存储墙的问题上◈★★ღ。包括C-Warp协作并发◈★★ღ、NME近存储计算引擎◈★★ღ、NUMA/UMA访存机制:
比如C-Warp协作并发相比于传统GPU的warp和warp之间不能直接通讯(需要经由cache来交换数据),“我们这种模式可以藉由一些同步方式,通过RegisterFile来直接传递数据,也就减少了数据的搬移◈★★ღ。”
而NME近存计算引擎应当和前面提到的分布式L2cache也有关,“让计算发生在数据呆着的地方◈★★ღ。数据走到哪儿,计算就应该在哪儿发生◈★★ღ。”这里的“reductionengine”大约是关窍所在◈★★ღ。NUMA/UMA访存机制也是考量不同数据特性,减少数据通讯的距离和次数◈★★ღ。
洪洲说由于数据存取需要大量开销,很多冯诺依曼体系架构的芯片,功耗真正花在“算”的部分就只有10%◈★★ღ。“我们很骄傲地说,BR100测下来,大部分功耗都是花在了‘算‘上面◈★★ღ。基于不同的场景,有些场景能到70%,有些60%,这已经非常好了◈★★ღ。这是对计算模式的颠覆◈★★ღ。”以上所有技术在此应当都是至关重要的◈★★ღ。
虚拟化和安全相关的技术,对当代数据中心GPU而言自然也不能少◈★★ღ。SVI安全虚拟实例特性的一个亮点,应该是支持1◈★★ღ、2◈★★ღ、4◈★★ღ、8份实例的“物理切分”◈★★ღ。“每个物理切分,memory◈★★ღ、缓存◈★★ღ、计算单元◈★★ღ、片上网的link都是私有的,和旁边在跑的东西完全隔离,相互不会有影响◈★★ღ。”
另外还有国密1级安全标准支持等特性,以及性能方面BR100“即使切成8份,每份算力也有256TOPS(INT8),是现在主流推理卡的2倍性能”等◈★★ღ。
壁仞BR100/BR104芯片,以及软件生态◈★★ღ、OAM模组与PCIe板卡的发布还是相当振奋人心的凯发K8国际官网入口凯发K8国际官网入口◈★★ღ。至少从这次的发布会来看,3年时间交出的答卷让人满意三门齐开◈★★ღ。无论是芯片算力水平◈★★ღ、架构亮点◈★★ღ、所用的制造和封装技术,还是系统产品的能效◈★★ღ、TCO◈★★ღ。而且如前所述,壁砺104很快就要量产出货了,海玄OAM服务器今年Q4也将开放邀测三门齐开◈★★ღ。
不过GPU通用计算和AI市场的竞争也实在不简单,要在既有市场参与者占据统领地位的环境中占得一席之地,甚至“抢占生态话语权”都绝非短时间内可以达成◈★★ღ。实际上,英伟达当前的优势,一方面来自xPU芯片和系统的覆盖,不仅是GPU芯片和系统,还体现在networking等领域的不断开花结果凯发在线平台◈★★ღ。而老生常谈的软件生态,更是全栈自下而上的覆盖,以及持续不断的行业横向扩张◈★★ღ。
无论如何壁仞BR100的发布都是个出色的开端,接下来等待壁仞科技的还会有更多的挑战◈★★ღ。产品落地和持续的生态建设会是所有人都将密切关注的凯发K8国际官网入口凯发K8官网◈★★ღ。◈★★ღ。