CNF Taxonomies

CNF Taxonomies는 정보를 체계적으로 분류하고 조직화하기 위해 정의된 계층적 분류 체계입니다.

모델 서빙


모델 서빙(Model Serving)은 학습이 완료된 AI 모델을 API 또는 서비스 형태로 배포해, 실제 운영 환경에서 외부 요청에 따라 추론 결과를 실시간 또는 비동기적으로 제공하는 기술을 의미합니다. 모델을 단순히 저장하는 것이 아닌, 예측을 요청받아 처리하고 응답하는 일련의 과정을 관리하는 역할을 하며, AI 서비스를 “제품화”하는 핵심 구성 요소입니다. LLM, 챗봇, 추천 시스템, 비전 AI 등 모든 AI 기반 서비스의 실시간 응답 품질과 확장성은 모델 서빙 인프라에 의해 좌우됩니다.

주요 특징

  • API 기반 제공: 모델을 REST API 또는 gRPC 형태로 외부 시스템과 연결.
  • 실시간·비동기 대응: 요청에 따라 즉시 응답하거나 대기열 기반 처리 가능.
  • 인프라와 통합 운영: 서버, 컨테이너, 클라우드 환경에서 쉽게 배포 가능.
  • 리소스 최적화: 요청량에 따라 자동 확장 또는 GPU 자원 할당 조정 가능.
  • 모델 버전 관리: 여러 모델 버전을 동시에 운영 및 전환 가능.

장점

  • 운영 환경 연결 용이: 추론 기능을 웹, 앱, 시스템 등과 쉽게 연동.
  • 서비스 확장성 확보: 수많은 요청을 분산 처리하며 안정성 유지 가능.
  • 모니터링 및 로그 가능: 추론 사용량, 성능, 오류 등을 실시간 추적.
  • A/B 테스트 가능: 모델 성능 비교를 위한 다중 서빙 구성 용이.
  • 자동화 연계: CI/CD, MLOps 파이프라인에 연결해 반복 배포 자동화 가능.

관련 용어

  • Model Inference: 학습된 모델을 통해 예측 결과를 생성하는 실행 과정.
  • Endpoint: 외부 요청을 수신하는 API 진입 지점(URL 또는 주소).
  • Autoscaling: 요청 수에 따라 인스턴스 수를 자동 조정하는 기능.
  • Latency / Throughput: 응답 속도와 초당 요청 처리량을 측정하는 지표.
  • Model Registry: 학습 완료된 모델을 저장·버전 관리하는 저장소.

주요 솔루션 및 사용 사례

  • 주요 솔루션
    • TensorFlow Serving: TensorFlow 모델 전용 서빙 시스템.
    • TorchServe: PyTorch 모델을 API 형태로 제공하는 서빙 프레임워크.
    • KServe (KFServing): Kubernetes 기반 확장 가능한 모델 서빙 플랫폼.
    • Seldon Core: ML 모델의 확장형 서빙 및 A/B 테스트 지원 프레임워크.
    • Amazon SageMaker Endpoint: 클라우드 기반 실시간 모델 서빙 서비스.
  • 사용 사례
    • 챗봇 백엔드 운영: 사용자 질문에 대해 AI 모델 응답을 실시간 전달.
    • 모바일 앱 연동: 사용자 요청을 받아 서버에서 모델 추론 후 결과 반환.
    • 이상 탐지 시스템: 실시간 로그 데이터를 분석하여 이상 여부 판단.
    • 맞춤형 추천 서비스: 사용자 행동에 따라 개별화된 추천 결과 제공.
    • 자동화 배포 시스템: 새 모델 학습 완료 시 서빙 시스템에 자동 반영.

Go to Top