🔥알림🔥
① 테디노트 유튜브 - 구경하러 가기!
② LangChain 한국어 튜토리얼 바로가기 👀
③ 랭체인 노트 무료 전자책(wikidocs) 바로가기 🙌
④ RAG 비법노트 LangChain 강의오픈 바로가기 🙌
⑤ 서울대 PyTorch 딥러닝 강의 바로가기 🙌

최대 1 분 소요

딥러닝 프레임워크에서 GPU 사용여부를 체크할 수 있는 API에 대하여 알려드리도록 하겠습니다.

본 내용은 Ubuntu 18.04 CUDA 10.2 에서 10.0으로 Downgrade 하기 와 연관성 있는 내용이며, CUDA 버젼의 다운그레이드가 필요하신 분은 보시기 바랍니다.

Tested Environments

  • TensorFlow (1.14.0)
  • Keras (2.2.4)
  • Pytorch (1.3.1)

1. TensorFlow

import tensorflow as tf

print(tf.__version__)
# 1.14.0

tf.test.is_gpu_available(
    cuda_only=False,
    min_cuda_compute_capability=None
)
# True

2. Keras

from keras import backend as K

print(keras.__version__)
# 2.2.4

K.tensorflow_backend._get_available_gpus()
# ['/job:localhost/replica:0/task:0/device:GPU:0']

3. PyTorch

import torch

torch.cuda.device_count()
# 1

torch.cuda.get_device_name(0)
# GeForce RTX 2080 Ti

torch.cuda.is_available()
# True

댓글남기기