LLaMA
LLaMA(Large Language Model Meta AI)는 Meta(구 Facebook)에서 개발한 오픈소스 대규모 언어 모델(LLM) 시리즈로, 연구 및 상업적 활용이 가능한 고성능 모델입니다.
GPT와 같은 폐쇄형 모델과 달리 모델 가중치(weight)를 공개하고 있으며, 경량화와 고성능을 동시에 추구합니다.
LLaMA 시리즈는 LLaMA 1, 2, 3로 발전하고 있으며, 최신 버전인 LLaMA 3(2024년 공개)은 8B, 70B 파라미터 버전으로 출시되어 다양한 활용이 가능하고, 성능도 GPT-3.5 수준을 능가한다는 평가를 받습니다.
주요 특징
- 오픈소스 공개: 사전학습된 모델 가중치 및 코드 제공
- 경량 고성능 모델: 7B, 13B, 34B, 65B 등 다양한 파라미터 규모 제공
- 문맥 길이 증가: LLaMA 3는 최대 8K 토큰까지 확장 지원
- 언어 범용성 확보: 다국어 학습 데이터 기반으로 다양한 언어 처리 가능
- 파인튜닝 최적화: LoRA, QLoRA 등 경량 미세조정 방식에 최적화됨
장점
- 커스터마이징 유연성: 기업 내부 데이터로 쉽게 파인튜닝 가능
- 온프레미스 활용 가능: 자체 인프라에 배포하여 데이터 프라이버시 보장
- 다양한 서빙 옵션: HuggingFace, vLLM, Ollama 등과 연동 쉬움
- 개발자 친화성: 연구용 라이선스 외에 상업용 오픈 옵션도 확대 중
- 추론 비용 절감: 대규모 클라우드 없이도 경량 환경에서 활용 가능
관련 용어
- LLaMA 2 / 3: Meta의 두 번째, 세 번째 세대 오픈소스 LLM 시리즈
- LoRA (Low-Rank Adaptation): 파라미터 수를 줄여 빠르게 파인튜닝하는 기법
- Quantization (양자화): 모델을 FP16, INT8 등으로 경량화하여 추론 효율 높임
- Ollama: 로컬 환경에서 쉽게 서빙할 수 있는 도구
- Meta AI: Facebook의 인공지능 연구 부서
주요 솔루션 및 사용 사례
- 주요 솔루션
- 2 7B / 13B / 70B: 다양한 용량과 성능 선택 가능
- 3 8B / 70B: 최신 버전으로 성능 및 문맥 이해력 강화
- Code LLaMA: 코드 작성에 특화된 LLaMA 확장 모델
- LLaVA: LLaMA + Vision 기능을 결합한 멀티모달 모델
- Hugging Face Transformers: 손쉬운 파인튜닝과 서빙 가능
- 사용 사례
- 내부 챗봇 개발: FAQ, 고객 대응, 문서 자동화 등 비공개 데이터에 최적
- 보안·금융 AI: 사내 네트워크에서의 로컬 AI 운영
- 멀티모달 AI 기초 연구: Vision + Text 모델과의 결합 실험
- 코드 생성 도우미: 개발 업무 자동화 및 자연어 → 코드 변환
- AI 연구 및 교육: 대학, 연구기관에서 LLM 구조 및 성능 비교용 활용