1. Introdução
Ao utilizar uma GPU no Ubuntu, é crucial monitorar seu status com precisão. Isso é especialmente importante para tarefas como aprendizado profundo e renderização gráfica, onde entender o uso da GPU e as versões dos drivers é essencial. Este artigo explica como usar o nvidia-smi, uma ferramenta de gerenciamento de GPUs NVIDIA, e fornece um guia para verificar o status da GPU no Ubuntu.
2. Verificando informações da GPU com nvidia-smi
nvidia-smi é uma ferramenta de linha de comando que permite monitorar o uso da GPU NVIDIA, consumo de memória e outros detalhes. É particularmente útil para monitoramento em tempo real da atividade da GPU e para obter informações detalhadas de uso.
Uso básico
O comando a seguir exibe o uso da GPU em tempo real e o consumo de memória:
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1
Este comando fornece informações detalhadas, incluindo a utilização da GPU, uso de memória e memória disponível. Você também pode especificar o intervalo de atualização em segundos usando a opção -l.
Formato de saída e registro em arquivo
Por padrão, a saída é exibida em formato de tabela, mas você também pode exportá‑la em formato CSV para facilitar o processamento. Se desejar salvar as informações em um arquivo, use a opção -f para especificar o caminho do arquivo de saída.
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /path/to/output.csv
Este método permite registrar o uso da GPU para análise posterior.

3. Obtendo informações de processos com nvidia-smi
Usando o nvidia-smi, você pode obter informações sobre os processos que estão utilizando a GPU no momento. Isso ajuda a identificar quais processos estão consumindo recursos da GPU e em que medida.
Obtendo informações de processos
Execute o comando a seguir para verificar o PID e o uso de memória dos processos que utilizam a GPU:
nvidia-smi --query-compute-apps=pid,process_name,used_memory --format=csv,noheader
Este comando retorna uma lista dos processos da GPU em execução no momento, juntamente com o uso de memória.
Subcomando pmon do nvidia-smi
A ferramenta nvidia-smi inclui um subcomando chamado pmon, que fornece informações mais detalhadas sobre os processos da GPU.
nvidia-smi pmon --delay 10 -s u -o DT
Este comando exibe informações dos processos da GPU em intervalos especificados. A opção --delay define o intervalo de atualização em segundos, e você pode personalizar as informações exibidas.
4. Instalando e verificando drivers NVIDIA
Para usar uma GPU NVIDIA no Ubuntu, você deve instalar o driver NVIDIA apropriado. Abaixo estão os passos para instalar e verificar o driver.
Instalando o driver
Primeiro, instale o driver NVIDIA recomendado para o seu sistema usando o comando a seguir:
sudo apt install nvidia-driver-510
Após a conclusão da instalação, reinicie o seu sistema.
Verificando a instalação
Depois de reiniciar, verifique se o driver foi instalado corretamente usando o comando a seguir:
nvidia-smi
Se o comando exibir a versão do driver e a versão do CUDA, a instalação foi bem‑sucedida.

5. Verificando o funcionamento da GPU com TensorFlow
Para confirmar que a GPU está funcionando corretamente, você pode usar o TensorFlow, um framework de aprendizado de máquina, para testes.
Instalando o Anaconda
Primeiro, instale o Anaconda para configurar o ambiente.
bash ./Anaconda3-2022.05-Linux-x86_64.sh
conda update -n base conda
conda update anaconda
conda update -y --all
conda install tensorflow-gpu==2.4.1
Verificando o reconhecimento da GPU pelo TensorFlow
Em seguida, verifique se o TensorFlow reconhece a GPU executando o comando a seguir:
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
Se o dispositivo GPU aparecer na lista, o TensorFlow detectou a GPU com sucesso.
6. Monitorando o uso da GPU e registrando
Usando nvidia-smi, você pode monitorar o uso da GPU em tempo real e registrar os dados. Isso ajuda a acompanhar a utilização da GPU ao longo de longos períodos e otimizar o desempenho.
Configurando Monitoramento Regular
Para configurar o monitoramento periódico, use a opção -l no nvidia-smi para especificar o intervalo de atualização. Você também pode registrar a saída em um arquivo.
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /var/log/gpu.log
Controle Programático com Bindings Python
nvidia-smi fornece bindings Python (nvidia-ml-py), permitindo que você recupere informações da GPU programaticamente. Isso possibilita monitoramento e controle personalizados.

7. Conclusão
nvidia-smi é uma ferramenta poderosa para monitorar e gerenciar o uso de GPUs NVIDIA no Ubuntu. Este artigo abordou seu uso básico, a recuperação de informações de processos, a instalação de drivers e a verificação do funcionamento da GPU com TensorFlow. Utilize esses métodos para maximizar o desempenho da GPU e otimizar seu sistema.


![[Guia Completo do Lubuntu] Da Instalação à Otimização da Distribuição Linux Leve](https://www.linux.digibeatrix.com/wp-content/uploads/2024/09/image-375x236.png)
