구글(Google)이 차세대 오픈모델 ‘젬마 4(Gemma 4)’를 공식 발표했다. 이번 모델은 고급 추론과 에이전트 기반 워크플로(agentic workflows)를 위해 특수 설계된 제품군으로, 파라미터당 전례 없는 수준의 지능을 제공한다. 구글은 이를 통해 개발자와 연구자들이 다양한 하드웨어 환경에서 효율적이고 강력한 AI를 활용할 수 있도록 지원한다는 목표를 내세웠다.
젬마 시리즈는 출시 이후 폭발적인 반응을 얻었다. 개발자들은 젬마를 4억회 이상 다운로드했으며, 10만개 이상의 변형 모델로 구성된 ‘젬마버스(Gemmaverse)’ 생태계를 구축했다. 구글은 커뮤니티의 활발한 참여와 피드백을 반영해 젬마 4를 개발했으며, 이번 모델은 아파치 2.0(Apache 2.0) 라이선스로 공개돼 누구나 상업적으로 활용할 수 있다. 이는 개발자들에게 데이터와 모델에 대한 제어권을 부여하고, 디지털 주권을 강화하는 조치로 평가된다.
젬마 4는 다양한 하드웨어 환경과 사용 사례에 맞춰 E2B(Effective 2B), E4B(Effective 4B), 26B Mixture of Experts(MoE), 31B Dense 등 네 가지 크기로 제공된다. 먼저 ‘E2B’·‘E4B’ 모델은 스마트폰, IoT 기기 등 엣지 환경에서 초저지연 실행을 지원하며, 음성 인식과 멀티모달 기능을 강화했다. ‘26B MoE’ 모델은 레이턴시 최적화에 초점을 맞춰 빠른 속도를 제공한다. 마지막으로 ‘31B Dense’ 모델은 출력 품질을 중심으로 설계돼 연구 및 미세 조정에 적합하다.
특히 31B 모델은 Arena AI 텍스트 리더보드에서 오픈모델 기준 3위를 기록했으며, 26B 모델은 6위에 올랐다. 구글은 젬마 4가 20배 큰 모델도 압도하는 성능을 보여준다고 강조했다.
젬마 4는 단순한 대화형 모델을 넘어 다양한 고급 기능을 지원한다. 먼저 ‘고급 추론’에서는 수학 문제 해결, 복잡한 지시 이행 등에서 뛰어난 성능을 입증한다. ‘에이전트 기반 워크플로’에서는 함수 호출, 시스템 지침 등을 기본 지원해 자율형 에이전트 구축이 가능하다. ‘코드 생성 역량’에서는 오프라인 코드 생성을 지원, 워크스테이션을 로컬 중심 AI 코드 어시스턴트로 전환한다. ‘멀티모달 지원’에서는 이미지·비디오·오디오 입력을 처리하며 가변 해상도와 음성 인식 기능을 제공한다. ‘긴 컨텍스트 윈도’에서 엣지 모델은 128K, 대형 모델은 최대 256K까지 지원해 장문 문서 처리가 가능하다. 마지막으로 ‘140개 이상 언어 지원’으로 글로벌 이용자를 위한 고성능 애플리케이션 구축에 최적화됐다.
구글은 젬마 4를 활용한 여러 개의 성공 사례를 확인했다. 불가리아 INSAIT 연구소는 구글 젬마 기반으로 불가리아어 전용 언어모델(BgGPT)을 개발했으며, 미국 예일대와의 협력 프로젝트에서는 암 치료의 새로운 가능성을 발견하는 데 활용됐다. 또 구글은 픽셀 팀, 퀄컴, 미디어텍 등 하드웨어 기업과 협력해 젬마 4를 스마트폰과 엣지 기기에서 최적화했다.
젬마 4는 구글의 독점 모델과 동일한 엄격한 인프라 보안 프로토콜을 적용받는다. 이를 통해 기업은 보안과 신뢰성을 확보하면서도 최첨단 기능을 활용할 수 있다.
구글의 젬마 4는 개방성과 성능, 효율성을 모두 갖춘 차세대 오픈모델로, 모바일부터 대형 GPU까지 다양한 환경에서 활용 가능하다. 젬마 4는 글로벌 AI 생태계의 혁신을 가속할 것으로 기대되고 있다.
한편 구글의 젬마1은 2024년 2월에 출시된 제미나이의 경량 오픈소스 버전으로, 20억·70억 파라미터 모델을 제공한다. 구글의 독점적 AI 전략에서 오픈소스로 전환한 첫 사례다. 같은해 6월에 출시된 젬마2는 성능 향상 및 다양한 변형 모델을 추가하고, 보안·저장 기능을 강화했다. 젬마3는 고급 추론 능력 강화, 의료·특수 연구용 변형을 포함하며 지난해 3월 출시됐다.











































