CNF Taxonomies

CNF Taxonomies는 정보를 체계적으로 분류하고 조직화하기 위해 정의된 계층적 분류 체계입니다.

Gemma


Gemma는 Google DeepMind에서 개발한 경량 오픈 LLM(Large Language Model) 시리즈로, Gemini 아키텍처의 핵심 기술을 바탕으로 설계된 모델입니다.
개방형(Open Weight) 라이선스로 제공되어 누구나 연구, 개발, 상업적 사용이 가능하며, 소형 모델임에도 불구하고 뛰어난 성능과 높은 추론 효율성을 자랑합니다.

주요 목표는 프라이버시 보호, 경량화된 모델 운영, 온프레미스 사용 용이성이며, 로컬 환경에서 구동 가능한 2B(20억) 및 7B(70억) 파라미터 버전이 대표적입니다.
LLM 기술의 대중화와 안전한 활용을 지향하며, 클라우드 기반 서비스 없이도 고성능 AI를 구축할 수 있도록 설계되었습니다.

주요 특징

  • 경량 LLM 구조: 2B, 7B 규모의 모델로 로컬 및 엣지 디바이스에서 동작 가능
  • Gemini 아키텍처 기반: Google의 차세대 LLM 기술에서 핵심 구조를 채택
  • 오픈 가중치(Open Weights): 상업적 활용이 가능한 개방형 라이선스 제공
  • FP8 최적화: NVIDIA 하드웨어에서의 효율적 실행을 위한 FP8 지원
  • 사전 학습 + 미세조정 가능: 다양한 도메인 특화 용도로 파인튜닝 가능

장점

  • 온프레미스 최적화: 클라우드 없이도 자체 인프라에서 고성능 모델 운영 가능
  • 라이선스 자유도: 상업적 활용과 맞춤형 개발이 가능한 오픈 웨이트 구조
  • 추론 효율성: 고속 서빙 환경에 적합한 경량 구조, FP8 지원으로 속도 향상
  • 책임 있는 AI 지향: 안전하고 검증된 모델 아키텍처와 활용 가이드 제공

관련 용어

  • Gemini: Google DeepMind의 차세대 멀티모달 AI 아키텍처
  • Open Weight License: 모델 가중치를 공개하고 상업적 활용까지 허용하는 라이선스 방식
  • vLLM: 고속 추론을 위한 서빙 엔진. Gemma 모델과 함께 많이 사용됨
  • FP8: 고속 연산을 위한 부동소수점 형식. 추론 속도 및 메모리 최적화에 사용
  • 온프레미스(On-Premise): 클라우드가 아닌 자체 서버 또는 내부 환경에서의 운영

주요 솔루션 및 사용 사례

  • 주요 솔루션
    • Gemma 2B: 소형 LLM, Edge/PC 환경에서 고속 작동
    • Gemma 7B: 중형 모델로 범용 대화, 요약, 질의응답 등 폭넓은 활용
    • Gemma + vLLM: 빠른 추론을 위한 최적의 조합으로, 로컬 모델 서빙에 활용
    • Gemma LoRA 파인튜닝: PEFT 기술을 통한 저비용 도메인 특화
  • 사용 사례
    • AI 비서: 개인정보를 클라우드에 저장하지 않고도 자체 비서 기능 구현
    • 의료/금융 분야 응답 자동화: 보안이 중요한 환경에서 로컬로 자연어 처리 수행
    • 연구용 LLM 실험: 오픈 웨이트 기반으로 연구와 검증에 최적
    • 기업 내 FAQ 시스템: 내부 데이터와 결합하여 전용 질의응답 시스템 구축
    • 로컬 코드 도우미: IDE와 연계한 자연어 기반 코드 생성 도우미

Go to Top