🔥알림🔥
① 테디노트 유튜브 -
구경하러 가기!
② LangChain 한국어 튜토리얼
바로가기 👀
③ 랭체인 노트 무료 전자책(wikidocs)
바로가기 🙌
④ RAG 비법노트 LangChain 강의오픈
바로가기 🙌
⑤ 서울대 PyTorch 딥러닝 강의
바로가기 🙌
Tensorflow, Keras, Pytorch GPU 사용여부 체크하기
딥러닝 프레임워크에서 GPU 사용여부를 체크할 수 있는 API에 대하여 알려드리도록 하겠습니다.
본 내용은 Ubuntu 18.04 CUDA 10.2 에서 10.0으로 Downgrade 하기 와 연관성 있는 내용이며, CUDA 버젼의 다운그레이드가 필요하신 분은 보시기 바랍니다.
Tested Environments
- TensorFlow (1.14.0)
- Keras (2.2.4)
- Pytorch (1.3.1)
1. TensorFlow
import tensorflow as tf
print(tf.__version__)
# 1.14.0
tf.test.is_gpu_available(
cuda_only=False,
min_cuda_compute_capability=None
)
# True
2. Keras
from keras import backend as K
print(keras.__version__)
# 2.2.4
K.tensorflow_backend._get_available_gpus()
# ['/job:localhost/replica:0/task:0/device:GPU:0']
3. PyTorch
import torch
torch.cuda.device_count()
# 1
torch.cuda.get_device_name(0)
# GeForce RTX 2080 Ti
torch.cuda.is_available()
# True
댓글남기기