Fast Model Inference
TensorFlow Lite
빠른 inference를 위한 tensorflow버전. 학습에 필요한 operation이 전부 삭제되어 있다.
- TFLite is for mobile devices, works on CPU and a few mobile GPUs, Plus TPUs. Including the Edge TPUs.
Pytorch Mobile
Pytorch에서도 TF Lite와 동일한 목적의 프로젝트로 Pytorch Mobile을 만들고 있다.
https://pytorch.org/mobile/home/
TensorRT
TensorRT는 cuda의 wrapper로써 Nvidia GPU에서만 동작하는 방식이다. TensorFlow에서도 TensorRT를 backend로 지원하고 있는데, 다만 일부 operation의 사용이 불가능한 대신에 학습/인퍼런스의 속도가 매우 빠르다. TensorFlow모델을 읽어서 TensorRT로 변환하여 serving할 수 있다고 한다.
- TensorRT is from Nvidia, *only for Nvidia GPUs*.
* pytorch모델을 TensorRT로 변환하는 프로젝트도 NVIDIA에서 추진중이다.
https://github.com/NVIDIA-AI-IOT/torch2trt
'Development > for Machine Learning' 카테고리의 다른 글
딥러닝을 위한 장비 (2) | 2020.09.21 |
---|---|
라즈베리파이 모델 4에 pytorch 설치하기 (2) | 2020.06.22 |
ML Python 프로젝트의 test code만들기(feat. Pytest) (0) | 2020.03.16 |
딥러닝 프로젝트를 위한 클라우드 GPU 자원, Google Cloud Platform (0) | 2019.12.08 |
Github Markdown 사용법 (0) | 2017.08.21 |
댓글