Tensorflow, Keras, Pytorch GPU 사용여부 체크하기
Dec 11, 2019

딥러닝 프레임워크에서 GPU 사용여부를 체크할 수 있는 API에 대하여 알려드리도록 하겠습니다.

본 내용은 Ubuntu 18.04 CUDA 10.2 에서 10.0으로 Downgrade 하기 와 연관성 있는 내용이며, CUDA 버젼의 다운그레이드가 필요하신 분은 보시기 바랍니다.

Tested Environments

  • TensorFlow (1.14.0)
  • Keras (2.2.4)
  • Pytorch (1.3.1)

1. TensorFlow

import tensorflow as tf

print(tf.__version__)
# 1.14.0

tf.test.is_gpu_available(
    cuda_only=False,
    min_cuda_compute_capability=None
)
# True

2. Keras

from keras import backend as K

print(keras.__version__)
# 2.2.4

K.tensorflow_backend._get_available_gpus()
# ['/job:localhost/replica:0/task:0/device:GPU:0']

3. PyTorch

import torch

torch.cuda.device_count()
# 1

torch.cuda.get_device_name(0)
# GeForce RTX 2080 Ti

torch.cuda.is_available()
# True


관련 글 더보기

- [Keras] 콜백함수 (1) - 학습률(learning rate): ReduceLROnPlateau

- [Keras] 손실함수(Loss Function)와 평가지표(metric) 커스텀하기

- keras를 활용한 word2vec pre-trained 모델을 로딩하여 IMDB 감정분석 분류문제 해결하기

- Tensorflow를 활용하여 Mnist data classification을 CNN으로 구현

- Machine Learning - Single Layer NN과 Multi Layer NN으로 XOR문제 다뤄보기

데이터 분석, 머신러닝, 딥러닝의 대중화를 꿈 꿉니다.