1764187836142706.png

1. A100:数据中心AI计算的奠基石

A100是英伟达2020年发布的旗舰级数据中心GPU,基于Ampere架构,主要特性包括:

  • 架构:Ampere
  • CUDA核心数:6912
  • Tensor核心:432
  • 显存:40GB/80GB HBM2e
  • 带宽:1.6TB/s
  • NVLink支持:可连接多个GPU以扩展算力
  • 应用场景:深度学习训练、推理、科学计算、大规模数据分析

A100可广泛应用于高性能计算(HPC)和深度学习...

Continue reading >>

在人工智能和深度学习领域,NVIDIA 凭借其强大的 GPU 产品线占据着举足轻重的地位。NVIDIA 拥有数十款功能各异的 GPU 产品,可用于部署和运行不同规模的机器学习模型,从边缘设备到大规模数据中心,几乎涵盖了所有应用场景。然而,NVIDIA GPU 的命名规则较为复杂,涉及架构代号(如 Ampere、Hopper)、性能等级(如 A100、A40)以及其他技术特征等多重维度,这使得用户在...

Continue reading >>

◎NVIDIA GPU参数速查表 | 更新日期:20251129GPU型号产品架构产品形态算力情况,挂*为稀疏值显存显存带宽GPU互联详细参数GB300Blackwell
Ultra
多芯组合,2个B300和1个Grace CPUFP4:30/38.9P*
FP8:10/20P*
FP16:5/10P*
TF32:2.5/5P*
576G HBM3e16TB/sNvlink 2x1.8TB/s查看B300Bl...Continue reading >>

上一篇写了Docker特权模式取消改造 → Docker特权权限与安全性实践,这篇主要写 Nvidia GPU 在 Docker 容器中使用及调用验证。首先需要了解下 Nvidia Container Runtime 架构,即GPU是怎么在容器内调用使用的。

image.png

NVIDIA Container Runtime 架构:基本原理是用钩子把宿主机显卡驱动映射到容器内使用。

The...

Continue reading >>