Průvodce kontrolou GPU v Ubuntu: Jak používat a konfigurovat nvidia-smi

1. Úvod

Při používání GPU na Ubuntu je klíčové přesně monitorovat jeho stav. To je obzvláště důležité pro úlohy jako hluboké učení a grafické renderování, kde je porozumění využití GPU a verzím ovladačů nezbytné. Tento článek vysvětluje, jak používat nvidia-smi, nástroj pro správu NVIDIA GPU, a poskytuje průvodce kontrolou stavu GPU na Ubuntu.

2. Kontrola informací o GPU pomocí nvidia-smi

nvidia-smi je nástroj příkazového řádku, který vám umožňuje monitorovat využití NVIDIA GPU, spotřebu paměti a další podrobnosti. Je obzvláště užitečný pro monitorování aktivity GPU v reálném čase a získávání podrobných informací o využití.

Základní použití

Následující příkaz zobrazuje využití GPU a spotřebu paměti v reálném čase:

nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1

Tento příkaz poskytuje podrobné informace, včetně využití GPU, využití paměti a dostupné paměti. Můžete také zadat interval aktualizace v sekundách pomocí volby -l.

Formát výstupu a záznam do souboru

Výchozím způsobem se výstup zobrazuje ve formátu tabulky, ale můžete ho také vypsat ve formátu CSV pro snadnější zpracování. Pokud chcete informace uložit do souboru, použijte volbu -f k určení cesty k výstupnímu souboru.

nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /path/to/output.csv

Tato metoda vám umožňuje zaznamenávat využití GPU pro pozdější analýzu.

3. Získávání informací o procesech pomocí nvidia-smi

Pomocí nvidia-smi můžete získat informace o procesech, které v současnosti využívají GPU. To pomáhá identifikovat, které procesy spotřebovávají zdroje GPU a do jaké míry.

Získávání informací o procesech

Spusťte následující příkaz k ověření PID a využití paměti procesů používajících GPU:

nvidia-smi --query-compute-apps=pid,process_name,used_memory --format=csv,noheader

Tento příkaz vrátí seznam aktuálně běžících procesů GPU spolu s jejich využitím paměti.

Podpříkaz pmon nvidia-smi

Nástroj nvidia-smi obsahuje podpříkaz nazvaný pmon, který poskytuje podrobnější informace o procesech GPU.

nvidia-smi pmon --delay 10 -s u -o DT

Tento příkaz zobrazuje informace o procesech GPU v určených intervalech. Volba --delay nastavuje interval aktualizace v sekundách a můžete přizpůsobit zobrazené informace.

4. Instalace a ověření ovladačů NVIDIA

Pro použití NVIDIA GPU na Ubuntu musíte nainstalovat příslušný ovladač NVIDIA. Níže jsou kroky pro instalaci a ověření ovladače.

Instalace ovladače

Nejprve nainstalujte doporučený ovladač NVIDIA pro váš systém pomocí následujícího příkazu:

sudo apt install nvidia-driver-510

Po dokončení instalace restartujte systém.

Ověření instalace

Po restartu zkontrolujte, zda je ovladač správně nainstalován, pomocí následujícího příkazu:

nvidia-smi

Pokud příkaz zobrazí verzi ovladače a verzi CUDA, instalace byla úspěšná.

5. Ověření provozu GPU pomocí TensorFlow

Pro potvrzení, že GPU funguje správně, můžete použít TensorFlow, rámec pro strojové učení, k testování.

Instalace Anaconda

Nejprve nainstalujte Anaconda k nastavení prostředí.

bash ./Anaconda3-2022.05-Linux-x86_64.sh
conda update -n base conda
conda update anaconda
conda update -y --all
conda install tensorflow-gpu==2.4.1

Kontrola rozpoznání GPU pomocí TensorFlow

Dále ověřte, zda TensorFlow rozpoznává GPU spuštěním následujícího příkazu:

from tensorflow.python.client import device_lib
device_lib.list_local_devices()

Pokud se v seznamu objeví zařízení GPU, TensorFlow úspěšně detekovalo GPU.

6. Monitorování využití GPU a záznam

Pomocí nvidia-smi můžete sledovat využití GPU v reálném čase a zaznamenávat data. To pomáhá sledovat využití GPU po dlouhou dobu a optimalizovat výkon.

Nastavení pravidelného monitorování

Pro nastavení periodického monitorování použijte v nvidia-smi volbu -l, která určuje interval aktualizace. Výstup můžete také zaznamenávat do souboru.

nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /var/log/gpu.log

Programová kontrola pomocí Pythonových vazeb

nvidia-smi poskytuje Pythonové vazby (nvidia-ml-py), které umožňují programově získávat informace o GPU. To umožňuje přizpůsobené monitorování a řízení.

7. Závěr

nvidia-smi je výkonný nástroj pro sledování a správu využití NVIDIA GPU v Ubuntu. Tento článek pokrýval jeho základní použití, získávání informací o procesech, instalaci ovladačů a ověřování fungování GPU pomocí TensorFlow. Využijte tyto metody k maximalizaci výkonu GPU a optimalizaci vašeho systému.

侍エンジニア塾