preloader
Deep learning

Triton Inference Server 입문기 - (2)

Triton Inference Server 입문기 - (2)

저번 포스팅(Triton Inference Server 입문기 - (1))과 이어집니다!

이번 포스팅에선 Triton Inference Server를 직접 실행시켜보고자 합니다!
예제 레포는 여기입니다! https://github.com/jjerry-k/triton_sample
그럼 레포 구성 > ML/DL 모델 > 클라이언트 API 순으로 설명을 해보겠습니다!

(설명이 필요 없고 실행부터 해보고 싶으시면….레포의 README 참고…)

레포 구성

triton_sample
├── api
├── model_repository
├── docker-compose.yml
├── README.md
├── test_image
└── test_run.py

api

  • FastAPI로 작성한 Restful API 코드

model_repository

  • Trinton Inference Server 에서 사용할 ML/DL 모델의 설정 파일, 모델 파일 구성

Etc

  • 생략….
support-btn
도움이 되셨다면 몰랑이에게 밀크티를...!
더 다양한 포스팅을 채우도록 노력할게요!
comments powered by Disqus