Google, 오픈 모델 Gemma 4 공개

1 week ago 2
  • Google DeepMind가 Gemini 3 기술을 기반으로 한 차세대 오픈 AI 모델 Gemma 4를 발표, 매개변수당 지능 효율을 극대화한 구조로 설계됨
  • 모델은 E2B, E4B, 26B, 31B 네 가지 크기로 제공되며, 모바일·IoT부터 개인용 GPU 환경까지 폭넓은 실행 범위를 지원
  • 멀티모달 추론, 140개 언어 지원, 에이전트형 워크플로, 세밀한 파인튜닝, 효율적 아키텍처 등 주요 기능을 포함
  • 수학·코딩·멀티모달 이해 영역에서 Gemma 3 대비 성능이 크게 향상되었으며, 보안·신뢰성 기준은 Google 상용 모델과 동일 수준 유지
  • 모델 가중치는 Hugging Face, Ollama, Kaggle, LM Studio, Docker 등에서 다운로드 가능하며, 로컬 및 클라우드 환경 통합 실행을 지원함

Gemma 4 — 차세대 오픈 AI 모델

  • Gemma 4Gemini 3의 연구와 기술을 기반으로 개발된 Google DeepMind의 최신 오픈 모델로, 매개변수당 지능 효율(intelligence-per-parameter) 을 극대화한 구조를 가짐
  • 모델은 E2B, E4B, 26B, 31B 네 가지 크기로 제공되며, 모바일·IoT부터 개인용 워크스테이션까지 다양한 환경에서 실행 가능
  • 멀티모달 추론, 140개 언어 지원, 에이전트형 워크플로, 세밀한 파인튜닝, 효율적 아키텍처를 주요 기능으로 포함
  • 성능 벤치마크에서 Gemma 3 대비 전반적인 향상치를 기록하며, 특히 수학·코딩·멀티모달 이해 영역에서 높은 점수를 달성
  • 보안·신뢰성 기준은 Google의 상용 모델과 동일 수준으로 유지되며, Hugging Face, Ollama, Kaggle, LM Studio, Docker 등에서 모델 가중치를 다운로드 가능

모델 구성 및 효율성

  • Gemma 4는 Gemini 3의 기술 기반으로 설계되어 지능 효율을 극대화한 오픈 모델 구조를 채택
  • 모델 크기는 E2B, E4B, 26B, 31B 네 가지 버전으로 구분되며, 각 버전은 컴퓨팅 자원과 메모리 효율성에 따라 최적화됨
    • E2B·E4B: 모바일 및 IoT 기기용으로, 최대 효율성과 오프라인 실행 지원
    • 26B·31B: 개인용 GPU 환경에서 프론티어급 추론 능력 제공

주요 기능

  • Agentic workflows

    • 함수 호출(function calling) 을 네이티브로 지원해, 사용자를 대신해 계획·앱 탐색·작업 수행이 가능한 자율형 에이전트 구축 가능
  • Multimodal reasoning

    • 오디오와 비주얼 이해 능력을 결합해 풍부한 멀티모달 애플리케이션 개발 지원
  • Support for 140 languages

    • 단순 번역을 넘어 문화적 맥락 이해를 포함한 다국어 경험 생성 가능
  • Fine tuning

    • 사용자가 선호하는 프레임워크와 기법으로 특정 작업 성능 향상을 위한 파인튜닝 가능
  • Efficient architecture

    • 자체 하드웨어에서 실행 가능하며, 효율적인 개발 및 배포 환경 제공

성능

  • Gemma 4는 다양한 텍스트 생성 관련 데이터셋과 지표를 기반으로 평가됨
  • 주요 벤치마크 결과 (Gemma 4 31B IT 기준):
    • Arena AI (text): 1452 (Gemma 3 27B 대비 1365)
    • MMMLU (다국어 Q&A): 85.2%
    • MMMU Pro (멀티모달 추론): 76.9%
    • AIME 2026 (수학): 89.2%
    • LiveCodeBench v6 (코딩 문제): 80.0%
    • GPQA Diamond (과학 지식): 84.3%
    • τ2-bench (에이전트 도구 사용): 86.4%
  • 전반적으로 Gemma 3 대비 모든 항목에서 성능 향상을 보이며, 특히 수학·코딩·멀티모달 이해 영역에서 큰 개선

E2B 및 E4B — 모바일 및 IoT용

  • 오디오·비전 지원을 통해 엣지 디바이스에서 실시간 처리 가능
  • 스마트폰, Raspberry Pi, Jetson Nano 등에서 완전 오프라인 실행거의 제로 지연(latency) 성능 제공
  • Google AI Edge Gallery를 통해 체험 가능

26B 및 31B — 고성능 로컬 AI

  • IDE, 코딩 어시스턴트, 에이전트형 워크플로에 적합한 고급 추론 기능 제공
  • 소비자용 GPU에 최적화되어 학생·연구자·개발자가 로컬 AI 서버 환경을 구축 가능
  • Google AI Studio에서 직접 실행 가능

보안 및 신뢰성

  • Gemma 4는 Google의 상용 모델과 동일한 인프라 보안 프로토콜을 적용
  • 기업 및 공공기관이 사용할 수 있는 투명하고 신뢰할 수 있는 기반 제공
  • 최고 수준의 보안·신뢰성 기준을 충족하면서도 최신 AI 기능을 제공

다운로드 및 실행

  • 모델 가중치 다운로드

    • Hugging Face, Ollama, Kaggle, LM Studio, Docker Hub에서 Gemma 4 모델 가중치 제공
  • 학습 및 배포 지원

    • Jax, Vertex AI, Keras, Google AI Edge, Google Kubernetes Engine, Ollama 등 다양한 플랫폼과 통합 지원
    • 공식 문서 및 API를 통해 훈련·배포·추론 환경 구성 가능

Gemmaverse 커뮤니티

  • Gemmaverse를 통해 전 세계 개발자들이 Gemma를 활용해 구축한 프로젝트를 탐색 가능
  • Google DeepMind의 X, Instagram, YouTube, LinkedIn, GitHub 채널을 통해 최신 업데이트 제공
  • 구독을 통해 최신 AI 혁신 소식 수신 가능
Read Entire Article