Ascend910B:修订间差异

来自About High Performance
跳到导航 跳到搜索
无编辑摘要
无编辑摘要
第1行: 第1行:


# 昇腾910B芯片主要用于训练服务器。
| 参数/特性 | 昇腾910B |
# 昇腾910B芯片的主要特性是FP32的性能提升,其FP32算力可以达到75T。
| --- | --- |
# 支持PCle 5.0。
| 发布年份 | 2023 |
# 芯片峰值为400W
| 用途 | AI训练服务器芯片 |
# 昇腾910B芯片将八个NPU模组互联互通,每个NPU模组提供了56GB的HCCS的双向带宽。模组间的互联带宽传输速度是392GB/s,与英伟达A800的400GB/s的物联带宽基本持平。
| FP16算力(液冷环境) | 400T |
# 昇腾910B芯片提供200G网口,上一代是100G。
| FP16算力(风冷环境) | 313T |
# 昇腾910B芯片使用的是HBM为64GB。
| FP16算力(表卡) | 280T |
# 在液冷环境下,昇腾910的FP16算力达到400T,在风冷的环境下,FP16算力只有313T。标卡FP16的算力280T。
| FP32算力 | 75T |
# 昇腾910B芯片的生态适配了Llama、GPT、清华大学自研的大模型等,能支持的原生模型还有盘古大模型和文心一言等。
| 内存类型 | HBM |
| 内存大小 | 64GB |
| 支持的PCle版本 | PCle 5.0 |
| NPU模组互联互通 | 是 |
| 每个NPU模组的HCCS双向带宽 | 56GB |
| 模组间的最大双向互联带宽 | 392GB/s |
| 网口 | 200G |
| 生态适配 | Llama、GPT、清华大学自研的大模型等 |
| 支持的原生模型 | 盘古大模型、文心一言等 |


[https://xueqiu.com/5919076646/262393914]
[https://xueqiu.com/5919076646/262393914]

2023年11月6日 (一) 16:01的版本

| 参数/特性 | 昇腾910B | | --- | --- | | 发布年份 | 2023 | | 用途 | AI训练服务器芯片 | | FP16算力(液冷环境) | 400T | | FP16算力(风冷环境) | 313T | | FP16算力(表卡) | 280T | | FP32算力 | 75T | | 内存类型 | HBM | | 内存大小 | 64GB | | 支持的PCle版本 | PCle 5.0 | | NPU模组互联互通 | 是 | | 每个NPU模组的HCCS双向带宽 | 56GB | | 模组间的最大双向互联带宽 | 392GB/s | | 网口 | 200G | | 生态适配 | Llama、GPT、清华大学自研的大模型等 | | 支持的原生模型 | 盘古大模型、文心一言等 |

[1]