1. Pengenalan
Apabila menggunakan GPU pada Ubuntu, adalah penting untuk memantau statusnya dengan tepat. Ini terutamanya penting untuk tugas seperti pembelajaran mendalam dan rendering grafik, di mana pemahaman penggunaan GPU dan versi pemacu adalah penting. Artikel ini menerangkan cara menggunakan nvidia-smi
, alat pengurusan GPU NVIDIA, dan menyediakan panduan untuk memeriksa status GPU pada Ubuntu.
2. Memeriksa Maklumat GPU dengan nvidia-smi
nvidia-smi
ialah alat baris perintah yang membolehkan anda memantau penggunaan GPU NVIDIA, penggunaan memori, dan butiran lain. Ia sangat berguna untuk pemantauan masa nyata aktiviti GPU dan mendapatkan maklumat penggunaan terperinci.
Penggunaan Asas
Perintah berikut memaparkan penggunaan GPU masa nyata dan penggunaan memori:
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1
Perintah ini memberikan maklumat terperinci, termasuk penggunaan GPU, penggunaan memori, dan memori yang tersedia. Anda juga boleh menentukan selang kemas kini dalam saat menggunakan pilihan -l
.
Format Output dan Log Fail
Secara lalai, output dipaparkan dalam format jadual, tetapi anda juga boleh mengeluarkannya dalam format CSV untuk pemprosesan yang lebih mudah. Jika anda ingin menyimpan maklumat ke dalam fail, gunakan pilihan -f
untuk menentukan laluan fail output.
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /path/to/output.csv
Kaedah ini membolehkan anda merekod penggunaan GPU untuk analisis kemudian.

3. Mendapatkan Maklumat Proses dengan nvidia-smi
Dengan menggunakan nvidia-smi
, anda boleh mendapatkan maklumat mengenai proses yang sedang menggunakan GPU. Ini membantu mengenal pasti proses mana yang menggunakan sumber GPU dan sejauh mana.
Mendapatkan Maklumat Proses
Jalankan perintah berikut untuk memeriksa PID dan penggunaan memori proses yang menggunakan GPU:
nvidia-smi --query-compute-apps=pid,process_name,used_memory --format=csv,noheader
Perintah ini mengembalikan senarai proses GPU yang sedang berjalan beserta penggunaan memorinya.
Subperintah nvidia-smi pmon
Alat nvidia-smi
termasuk subperintah yang dipanggil pmon
, yang memberikan maklumat lebih terperinci mengenai proses GPU.
nvidia-smi pmon --delay 10 -s u -o DT
Perintah ini memaparkan maklumat proses GPU pada selang masa yang ditetapkan. Pilihan --delay
menetapkan selang kemas kini dalam saat, dan anda boleh menyesuaikan maklumat yang dipaparkan.
4. Memasang dan Mengesahkan Pemandu NVIDIA
Untuk menggunakan GPU NVIDIA pada Ubuntu, anda mesti memasang pemandu NVIDIA yang sesuai. Berikut ialah langkah-langkah untuk memasang dan mengesahkan pemandu tersebut.
Memasang Pemandu
Pertama, pasang pemandu NVIDIA yang disyorkan untuk sistem anda menggunakan perintah berikut:
sudo apt install nvidia-driver-510
Setelah pemasangan selesai, mulakan semula sistem anda.
Mengesahkan Pemasangan
Selepas memulakan semula, periksa sama ada pemandu dipasang dengan betul menggunakan perintah berikut:
nvidia-smi
Jika perintah memaparkan versi pemandu dan versi CUDA, pemasangan berjaya.

5. Mengesahkan Operasi GPU dengan TensorFlow
Untuk mengesahkan bahawa GPU berfungsi dengan betul, anda boleh menggunakan TensorFlow, sebuah rangka kerja pembelajaran mesin, untuk ujian.
Memasang Anaconda
Pertama, pasang Anaconda untuk menyediakan persekitaran.
bash ./Anaconda3-2022.05-Linux-x86_64.sh
conda update -n base conda
conda update anaconda
conda update -y --all
conda install tensorflow-gpu==2.4.1
Menyemak Pengenalan GPU dengan TensorFlow
Seterusnya, sahkan sama ada TensorFlow mengenali GPU dengan menjalankan perintah berikut:
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
Jika peranti GPU muncul dalam senarai, TensorFlow telah berjaya mengesan GPU tersebut.
6. Memantau Penggunaan GPU dan Pencatatan
Dengan menggunakan nvidia-smi
, anda boleh memantau penggunaan GPU secara masa nyata dan mencatat data. Ini membantu menjejaki penggunaan GPU dalam jangka masa panjang dan mengoptimumkan prestasi.
Menetapkan Pemantauan Berkala
Untuk menetapkan pemantauan berkala, gunakan pilihan -l
dalam nvidia-smi
untuk menentukan selang kemas kini. Anda juga boleh mencatat output ke fail.
Kawalan Programatik dengan Ikatan Python
nvidia-smi
menyediakan ikatan Python (nvidia-ml-py
), membolehkan anda mendapatkan maklumat GPU secara programatik. Ini membolehkan pemantauan dan kawalan yang disesuaikan.
BLOCK-FIGURE-3
7. Kesimpulan
nvidia-smi
ialah alat yang berkuasa untuk memantau dan mengurus penggunaan GPU NVIDIA pada Ubuntu. Artikel ini merangkumi penggunaan asasnya, mendapatkan maklumat proses, memasang pemacu, dan mengesahkan operasi GPU dengan TensorFlow. Gunakan kaedah ini untuk memaksimumkan prestasi GPU dan mengoptimumkan sistem anda.