Ascend910B:修订间差异

来自About High Performance
跳到导航 跳到搜索
无编辑摘要
无编辑摘要
第1行: 第1行:


| 参数/特性 | 昇腾910B |
以下是华为昇腾910B芯片的关键特性和参数:
| --- | --- |
 
| 发布年份 | 2023 |
{| class="wikitable"
| 用途 | AI训练服务器芯片 |
|-
| FP16算力(液冷环境) | 400T |
! 特性/参数 !! 描述
| FP16算力(风冷环境) | 313T |
|-
| FP16算力(表卡) | 280T |
| 发布年份 || 2023年
| FP32算力 | 75T |
|-
| 内存类型 | HBM |
| 用途 || AI训练服务器芯片,主要用于Atlas 800-9000训练服务器
| 内存大小 | 64GB |
|-
| 支持的PCle版本 | PCle 5.0 |
| FP32算力 || 75TFLOPS
| NPU模组互联互通 | |
|-
| 每个NPU模组的HCCS双向带宽 | 56GB |
| FP16算力(液冷环境) || 400TFLOPS
| 模组间的最大双向互联带宽 | 392GB/s |
|-
| 网口 | 200G |
| FP16算力(风冷环境) || 313TFLOPS
| 生态适配 | Llama、GPT、清华大学自研的大模型等 |
|-
| 支持的原生模型 | 盘古大模型、文心一言等 |
| FP16算力(标卡) || 280TFLOPS
|-
| HBM容量 || 64GB  
|-
| 支持的PCle版本 || 支持PCle 5.0,传输带宽优于只能支持PCle 4.0的英伟达A800
|-
| NPU模组互联互通 || 将八个NPU模组互联互通,每个NPU模组提供了56GB的HCCS的双向带宽
|-
| 模组间的互联带宽传输速度 || 392GB/s,与英伟达A800的400GB/s的物联带宽基本持平
|-
| 网口 || 植入200G的网口,上一代是100G
|-
| 生态适配 || 适配了Llama、GPT、清华大学自研的大模型等,能支持的原生模型还有盘古大模型和文心一言等
|}


[https://xueqiu.com/5919076646/262393914]
[https://xueqiu.com/5919076646/262393914]

2023年11月6日 (一) 16:06的版本

以下是华为昇腾910B芯片的关键特性和参数:

特性/参数 描述
发布年份 2023年
用途 AI训练服务器芯片,主要用于Atlas 800-9000训练服务器
FP32算力 75TFLOPS
FP16算力(液冷环境) 400TFLOPS
FP16算力(风冷环境) 313TFLOPS
FP16算力(标卡) 280TFLOPS
HBM容量 64GB
支持的PCle版本 支持PCle 5.0,传输带宽优于只能支持PCle 4.0的英伟达A800
NPU模组互联互通 将八个NPU模组互联互通,每个NPU模组提供了56GB的HCCS的双向带宽
模组间的互联带宽传输速度 392GB/s,与英伟达A800的400GB/s的物联带宽基本持平
网口 植入200G的网口,上一代是100G
生态适配 适配了Llama、GPT、清华大学自研的大模型等,能支持的原生模型还有盘古大模型和文心一言等

[1]