Slide 25
Slide 25 text
• Google의 개방형 LLM/VLM 모델
• 로컬 서버 및 Google 클라우드를 통해 사용 가능
• 두 가지 크기 옵션
– 2B, 7B (Gemma 1): 6조개의 토큰으로 훈련
– 9B, 27B (Gemma 2): 8조 / 13조 토큰으로 훈련
• 세 가지 모델 유형
– Gemma, PaliGemma (VLM), RecurrentGemma
(Non-transformer architecture)
• 지원 프레임워크
– JAX, Keras, TensorFlow, PyTorch
Gemma
25