- 1 1. Introduction
- 2 2. Vérification des informations du GPU avec nvidia-smi
- 3 3. Récupération des informations de processus avec nvidia-smi
- 4 4. Installation et vérification des pilotes NVIDIA
- 5 5. Vérification du fonctionnement du GPU avec TensorFlow
- 6 6. Surveillance de l’utilisation du GPU et journalisation
- 7 7. Conclusion
1. Introduction
Lors de l’utilisation d’un GPU sous Ubuntu, il est crucial de surveiller précisément son état. Cela est particulièrement important pour des tâches telles que l’apprentissage profond et le rendu graphique, où la compréhension de l’utilisation du GPU et des versions des pilotes est essentielle. Cet article explique comment utiliser nvidia-smi
, un outil de gestion GPU NVIDIA, et fournit un guide pour vérifier l’état du GPU sous Ubuntu.
2. Vérification des informations du GPU avec nvidia-smi
nvidia-smi
est un outil en ligne de commande qui vous permet de surveiller l’utilisation du GPU NVIDIA, la consommation de mémoire et d’autres détails. Il est particulièrement utile pour la surveillance en temps réel de l’activité du GPU et la récupération d’informations détaillées sur l’utilisation.
Utilisation de base
La commande suivante affiche l’utilisation du GPU et la consommation de mémoire en temps réel :
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1
Cette commande fournit des informations détaillées, y compris l’utilisation du GPU, la consommation de mémoire et la mémoire disponible. Vous pouvez également spécifier l’intervalle de mise à jour en secondes à l’aide de l’option -l
.
Format de sortie et journalisation dans un fichier
Par défaut, la sortie est affichée sous forme de tableau, mais vous pouvez également la produire au format CSV pour un traitement plus facile. Si vous souhaitez enregistrer les informations dans un fichier, utilisez l’option -f
pour spécifier le chemin du fichier de sortie.
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /path/to/output.csv
Cette méthode vous permet d’enregistrer l’utilisation du GPU pour une analyse ultérieure.

3. Récupération des informations de processus avec nvidia-smi
En utilisant nvidia-smi
, vous pouvez récupérer des informations sur les processus qui utilisent actuellement le GPU. Cela permet d’identifier quels processus consomment les ressources du GPU et dans quelle mesure.
Obtention des informations de processus
Exécutez la commande suivante pour vérifier le PID et l’utilisation de la mémoire des processus utilisant le GPU :
nvidia-smi --query-compute-apps=pid,process_name,used_memory --format=csv,noheader
Cette commande renvoie une liste des processus GPU en cours d’exécution ainsi que leur utilisation de la mémoire.
Sous-commande pmon de nvidia-smi
L’outil nvidia-smi
comprend une sous-commande appelée pmon
, qui fournit des informations plus détaillées sur les processus GPU.
nvidia-smi pmon --delay 10 -s u -o DT
Cette commande affiche les informations des processus GPU à des intervalles spécifiés. L’option --delay
définit l’intervalle de mise à jour en secondes, et vous pouvez personnaliser les informations affichées.
4. Installation et vérification des pilotes NVIDIA
Pour utiliser un GPU NVIDIA sous Ubuntu, vous devez installer le pilote NVIDIA approprié. Vous trouverez ci‑dessous les étapes d’installation et de vérification du pilote.
Installation du pilote
Tout d’abord, installez le pilote NVIDIA recommandé pour votre système en utilisant la commande suivante :
sudo apt install nvidia-driver-510
Une fois l’installation terminée, redémarrez votre système.
Vérification de l’installation
Après le redémarrage, vérifiez que le pilote est correctement installé en utilisant la commande suivante :
nvidia-smi
Si la commande affiche la version du pilote et la version de CUDA, l’installation a réussi.

5. Vérification du fonctionnement du GPU avec TensorFlow
Pour confirmer que le GPU fonctionne correctement, vous pouvez utiliser TensorFlow, un framework d’apprentissage automatique, pour les tests.
Installation d’Anaconda
Tout d’abord, installez Anaconda pour configurer l’environnement.
bash ./Anaconda3-2022.05-Linux-x86_64.sh
conda update -n base conda
conda update anaconda
conda update -y --all
conda install tensorflow-gpu==2.4.1
Vérification de la reconnaissance du GPU par TensorFlow
Ensuite, vérifiez si TensorFlow reconnaît le GPU en exécutant la commande suivante :
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
Si le dispositif GPU apparaît dans la liste, TensorFlow a détecté le GPU avec succès.
6. Surveillance de l’utilisation du GPU et journalisation
En utilisant nvidia-smi
, vous pouvez surveiller l’utilisation du GPU en temps réel et enregistrer les données. Cela permet de suivre l’utilisation du GPU sur de longues périodes et d’optimiser les performances.
Mise en place d’une surveillance régulière
Pour mettre en place une surveillance périodique, utilisez l’option -l
dans nvidia-smi
pour spécifier l’intervalle de mise à jour. Vous pouvez également enregistrer la sortie dans un fichier.
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /var/log/gpu.log
Contrôle programmatique avec les liaisons Python
nvidia-smi
fournit des liaisons Python (nvidia-ml-py
), vous permettant de récupérer les informations du GPU de manière programmatique. Cela permet une surveillance et un contrôle personnalisés.

7. Conclusion
nvidia-smi
est un outil puissant pour surveiller et gérer l’utilisation des GPU NVIDIA sur Ubuntu. Cet article a couvert son utilisation de base, la récupération des informations de processus, l’installation des pilotes et la vérification du fonctionnement du GPU avec TensorFlow. Utilisez ces méthodes pour maximiser les performances du GPU et optimiser votre système.