nvidia-smi(NVIDIA System Management Interface)是NVIDIA官方提供的GPU管理工具,提供管理和监控 GPU 的接口。其核心功能包括NVIDIA GPU运行状况、工作负载、硬件状态诊断和资源调度管理。

核心功能

功能模块具体能力适用场景实时监控显存占用、温度、功耗、时钟频率深度学习训练过程监控进程管理查看/终止占用GPU的进程资源泄漏应急处理计算模式控制切...Continue reading >>

站在大语言模型外部看需要准备些什么样的训练数据,分什么阶段,怎样去训练大语言模型,把大语言模型看成一个黑盒。

LLM都是如何训练出来的呢?

GPT的训练分为以下3个阶段:

1、预训练Pretrain

2、监督微调SFT (Supervised Fine-Tuning)

3、基于反馈的强化学习RLHF(包含了Reward Model、PPO (Proximal Policy Optimization)

一、Pr...

Continue reading >>

上一篇我们使用 Docker部署bge-m3/bge-reranker模型,由于测试环境GPU卡资源紧张,基于成本考虑,需要在同一张卡上运行多个模型。现在以 bge-m3/bge-reranker 模型为例,将两个模型部署在同一张英伟达 L20 GPU卡上。

🎯 同时运行的方案

方案1:使用不同端口分别部署(推荐)

这是最直接和稳定的方式:

# 启动 embe...
Continue reading >>

安装与配置 NVIDIA Container Toolkit

  1. 确认前置条件
    在开始之前,请确保系统已经安装了NVIDIA GPU驱动程序(NVIDIA 驱动≥535.86.10,支持 CUDA 12.2+),并且可以正常运行 nvidia-smi 命令。同时,Docker Engine(版本建议 Docker 24.0+)也需要被安装好。

  2. 安装 NVIDIA Contain...

Continue reading >>

1764187836142706.png

1. A100:数据中心AI计算的奠基石

A100是英伟达2020年发布的旗舰级数据中心GPU,基于Ampere架构,主要特性包括:

  • 架构:Ampere
  • CUDA核心数:6912
  • Tensor核心:432
  • 显存:40GB/80GB HBM2e
  • 带宽:1.6TB/s
  • NVLink支持:可连接多个GPU以扩展算力
  • 应用场景:深度学习训练、推理、科学计算、大规模数据分析

A100可广泛应用于高性能计算(HPC)和深度学习...

Continue reading >>