VOD 강의 안내
[인프런] Google 공인! 텐서플로(TensorFlow) 딥러닝 개발자 자격증 취득 - 후기 구경가기

최대 1 분 소요

딥러닝 프레임워크에서 GPU 사용여부를 체크할 수 있는 API에 대하여 알려드리도록 하겠습니다.

본 내용은 Ubuntu 18.04 CUDA 10.2 에서 10.0으로 Downgrade 하기 와 연관성 있는 내용이며, CUDA 버젼의 다운그레이드가 필요하신 분은 보시기 바랍니다.

Tested Environments

  • TensorFlow (1.14.0)
  • Keras (2.2.4)
  • Pytorch (1.3.1)

1. TensorFlow

import tensorflow as tf

print(tf.__version__)
# 1.14.0

tf.test.is_gpu_available(
    cuda_only=False,
    min_cuda_compute_capability=None
)
# True

2. Keras

from keras import backend as K

print(keras.__version__)
# 2.2.4

K.tensorflow_backend._get_available_gpus()
# ['/job:localhost/replica:0/task:0/device:GPU:0']

3. PyTorch

import torch

torch.cuda.device_count()
# 1

torch.cuda.get_device_name(0)
# GeForce RTX 2080 Ti

torch.cuda.is_available()
# True

댓글남기기