Comment vérifier que PyTorch consomme du GPU ?
PyTorch est une plateforme écrite en Python pour écrire des programmes d'apprentissage automatiques pour les machines. Afin de pouvoir effectuer des calculs tensoriels, la plateforme nécessite d'importantes ressources. Elle peut donc utiliser votre GPU afin d'améliorer ses performances. Vous pouvez, grâce à quelques instructions Python, savoir si PyTorch utilise votre GPU et, dans le cas où plusieurs sont installés dans votre machine, connaître lesquels.
PyTorch intègre dans son code le package "CUDA". Ce package fournit les méthodes permettant d'exploiter le GPU en plus de votre CPU, pour effectuer des calculs tensoriels. Plusieurs méthodes permettent de savoir si le GPU est pris en compte. La fonction "is_available()" détermine si CUDA est capable de gérer votre carte graphique. Elle retourne true si c'est le cas.
>>> import torch >>> torch.cuda.is_available() True
Si CUDA peut prendre en charge votre carte graphique, vous pouvez alors utiliser d'autres méthodes pour avoir plus d'informations. La méthode "device_count()" vous donne le nombre de cartes graphiques que PyTorch peut utiliser sur votre ordinateur. La méthode "current_device()" retourne l'identifiant du périphérique utilisé par CUDA. Avec cet identifiant, vous pouvez alors utiliser la fonction "device()". Elle vous retourne l'adresse physique du périphérique. Cette information est difficile à comprendre pour un humain, alors utilisez plutôt la méthode "get_device_name()" avec le même identifiant. Vous obtiendrez alors le nom de la carte graphique.
>>> torch.cuda.device_count() 1 >>> torch.cuda.current_device() 0 >>> torch.cuda.device(0) <torch.cuda.device at 0x7edca0a14df1> >>> torch.cuda.get_device_name(0) 'GeForce RTX 3060'