Guia para Verificar a GPU no Ubuntu: Como Usar e Configurar o nvidia-smi

1. Introdução

Ao utilizar uma GPU no Ubuntu, é crucial monitorar seu status com precisão. Isso é especialmente importante para tarefas como aprendizado profundo e renderização gráfica, onde entender o uso da GPU e as versões dos drivers é essencial. Este artigo explica como usar o nvidia-smi, uma ferramenta de gerenciamento de GPUs NVIDIA, e fornece um guia para verificar o status da GPU no Ubuntu.

年収訴求

2. Verificando informações da GPU com nvidia-smi

nvidia-smi é uma ferramenta de linha de comando que permite monitorar o uso da GPU NVIDIA, consumo de memória e outros detalhes. É particularmente útil para monitoramento em tempo real da atividade da GPU e para obter informações detalhadas de uso.

Uso básico

O comando a seguir exibe o uso da GPU em tempo real e o consumo de memória:

nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1

Este comando fornece informações detalhadas, incluindo a utilização da GPU, uso de memória e memória disponível. Você também pode especificar o intervalo de atualização em segundos usando a opção -l.

Formato de saída e registro em arquivo

Por padrão, a saída é exibida em formato de tabela, mas você também pode exportá‑la em formato CSV para facilitar o processamento. Se desejar salvar as informações em um arquivo, use a opção -f para especificar o caminho do arquivo de saída.

nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /path/to/output.csv

Este método permite registrar o uso da GPU para análise posterior.

3. Obtendo informações de processos com nvidia-smi

Usando o nvidia-smi, você pode obter informações sobre os processos que estão utilizando a GPU no momento. Isso ajuda a identificar quais processos estão consumindo recursos da GPU e em que medida.

Obtendo informações de processos

Execute o comando a seguir para verificar o PID e o uso de memória dos processos que utilizam a GPU:

nvidia-smi --query-compute-apps=pid,process_name,used_memory --format=csv,noheader

Este comando retorna uma lista dos processos da GPU em execução no momento, juntamente com o uso de memória.

Subcomando pmon do nvidia-smi

A ferramenta nvidia-smi inclui um subcomando chamado pmon, que fornece informações mais detalhadas sobre os processos da GPU.

nvidia-smi pmon --delay 10 -s u -o DT

Este comando exibe informações dos processos da GPU em intervalos especificados. A opção --delay define o intervalo de atualização em segundos, e você pode personalizar as informações exibidas.

4. Instalando e verificando drivers NVIDIA

Para usar uma GPU NVIDIA no Ubuntu, você deve instalar o driver NVIDIA apropriado. Abaixo estão os passos para instalar e verificar o driver.

Instalando o driver

Primeiro, instale o driver NVIDIA recomendado para o seu sistema usando o comando a seguir:

sudo apt install nvidia-driver-510

Após a conclusão da instalação, reinicie o seu sistema.

Verificando a instalação

Depois de reiniciar, verifique se o driver foi instalado corretamente usando o comando a seguir:

nvidia-smi

Se o comando exibir a versão do driver e a versão do CUDA, a instalação foi bem‑sucedida.

5. Verificando o funcionamento da GPU com TensorFlow

Para confirmar que a GPU está funcionando corretamente, você pode usar o TensorFlow, um framework de aprendizado de máquina, para testes.

Instalando o Anaconda

Primeiro, instale o Anaconda para configurar o ambiente.

bash ./Anaconda3-2022.05-Linux-x86_64.sh
conda update -n base conda
conda update anaconda
conda update -y --all
conda install tensorflow-gpu==2.4.1

Verificando o reconhecimento da GPU pelo TensorFlow

Em seguida, verifique se o TensorFlow reconhece a GPU executando o comando a seguir:

from tensorflow.python.client import device_lib
device_lib.list_local_devices()

Se o dispositivo GPU aparecer na lista, o TensorFlow detectou a GPU com sucesso.

6. Monitorando o uso da GPU e registrando

Usando nvidia-smi, você pode monitorar o uso da GPU em tempo real e registrar os dados. Isso ajuda a acompanhar a utilização da GPU ao longo de longos períodos e otimizar o desempenho.

Configurando Monitoramento Regular

Para configurar o monitoramento periódico, use a opção -l no nvidia-smi para especificar o intervalo de atualização. Você também pode registrar a saída em um arquivo.

nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /var/log/gpu.log

Controle Programático com Bindings Python

nvidia-smi fornece bindings Python (nvidia-ml-py), permitindo que você recupere informações da GPU programaticamente. Isso possibilita monitoramento e controle personalizados.

7. Conclusão

nvidia-smi é uma ferramenta poderosa para monitorar e gerenciar o uso de GPUs NVIDIA no Ubuntu. Este artigo abordou seu uso básico, a recuperação de informações de processos, a instalação de drivers e a verificação do funcionamento da GPU com TensorFlow. Utilize esses métodos para maximizar o desempenho da GPU e otimizar seu sistema.

年収訴求