최근 AI 분야가 단연 IT 업계에서는 하루가 멀다하고 화두가 되고 있는 가운데 얼마전 구글에서는 젬마(Gemma) 3를 공개하며 인공지능(AI) 기술 경쟁에서 새로운 도약을 선언했습니다. 특히 중국 딥시크(DeepSeek)의 빠른 성장으로 AI 업계는 단순한 성능을 넘어 경제성과 연산 효율성까지 중요한 핵심 요소로 자리 잡고 있습니다. 이 흐름 속에서 구글의 젬마 3는 단일 GPU에서도 강력한 성능을 제공하는 오픈소스 거대언어모델(LLM)로 주목받고 있습니다.
딥시크를 넘어선 효율성 젬마3가 가진 강점
딥시크가 높은 효율성의 AI 모델을 내놓으며 산업의 판도를 바꾼 이후, 구글은 이에 대응해 연산 최적화 관점에서 젬마 3를 선보였다. 젬마 3는 다양한 크기의 모델 옵션(10억~270억 개 파라미터)을 제공하며, 사용자 필요에 따라 최적의 모델을 선택할 수 있는 유연성을 갖췄다. 동시에 최대 12만8,000개의 토큰을 처리할 수 있어 방대한 양의 데이터도 신속하고 정밀하게 분석이 가능합니다.
이 모델의 성능은 AI 모델 성능 지표로 사용되는 ‘엘로(Elo) 점수’를 통해 확인할 수 있다. 체스 경기에서 선수들의 실력을 평가하기 위해 사용되던 엘로 점수는 이제 AI 모델 간의 비교에도 활용되며, 기술적 역량을 단적으로 보여준다. 구글 딥마인드의 보고서에 따르면 딥시크의 ‘R1’ 모델은 1,338~1,363점을 기록했으며, 젬마 3는 그 점수의 약 98%에 달하는 유사한 성능을 구현한것이 특징입니다.
딥시크 R1 모델이 성능 면에서는 근소한 우위를 보이지만, 핵심 차이는 GPU 효율성에서 드러난다. 딥시크 R1은 32개의 엔비디아 GPU H100을 필요로 하는 반면, 젬마 3는 단 하나의 GPU로 같은 수준의 퍼포먼스를 낸다. 이는 높은 연산 효율성을 통해 메타의 라마(LLaMA) 3와 비교할 때도 한층 적은 리소스로 더 우수한 엘로 점수를 달성할 수 있음을 입증합니다.
이 놀라운 최적화는 ‘지식 증류(Distillation)’ 기법에 뿌리를 둔다. 대규모 모델에서 학습된 정보를 보다 작은 모델로 전이하여 전반적인 효율성을 유지하면서 연산 자원을 효과적으로 줄이는 방법이다. 결과적으로 딥시크 R1이 6,710억 개의 매개변수를 사용하고 필요에 따라 일부를 활성화하는 반면, 젬마 3는 10억~270억 개 매개변수만으로도 탁월한 퍼포먼스를 보여줍니다.
멀티모달 AI와 오픈소스를 통한 차별화 전략
구글은 젬마 3를 통해 메타, 오픈AI, 딥시크 등과 경쟁하면서 더 개방적이며 확장 가능한 AI 생태계를 구축하려 하고 있다. 젬마 3는 단순히 강력한 성능의 AI 모델을 개발하는 데 그치지 않고 오픈소스 접근 방식을 채택함으로써 연구자와 개발자가 자유롭게 활용하고 개선할 수 있는 환경을 제공한다.
특히 이 모델은 멀티모달 AI 기능을 지원한다는 점에서 주목할 만하다. 멀티모달 AI는 텍스트뿐만 아니라 이미지, 영상, 음성 등 다양한 데이터 유형을 동시에 이해하고 처리할 수 있는 기술이다. 젬마 3에 탑재된 ‘SigLIP 비전 인코더’는 최대 896×896 해상도의 이미지를 처리하며, 의료 진단, 자율주행, 감정 분석과 같은 여러 분야에서 실질적인 응용 가능성을 보인다.
젬마3(Gemma3) 주요 특징
– 효율성과 성능: 기존 모델에 비해 성능과 효율성이 대폭 개선되었으며, 단일 GPU 환경에서도 높은 성능을 발휘하도록 최적화됐다.
– 다국어 지원: 140개 이상의 언어를 지원하며, 이 중 35개 이상의 언어에서 바로 활용 가능한 수준의 성능을 제공한다. 다양한 언어에 대한 처리 능력 또한 크게 향상되었다.
– 멀티모달 기능: 텍스트 처리뿐 아니라 이미지와 동영상의 분석까지 가능하여 다양한 데이터 유형을 다룰 수 있는 기능을 포함한다.
– 다양한 하드웨어 환경 지원: 여러 하드웨어 환경에서 매끄럽게 작동하도록 설계됐고, 사용자는 시스템에 맞춰 1B, 4B, 12B, 27B 크기의 모델 중 선택할 수 있다.
– 확장된 컨텍스트 창: 최대 128,000개 토큰의 프롬프트 입력 처리 가능하며, 이전 모델 대비 컨텍스트 제공 능력이 약 16배 향상됐다.
– 다양한 정밀도 수준: 32비트의 전체 정밀도부터 4비트의 최저 정밀도까지 총 다섯 가지 정밀도를 지원해 다양한 AI 애플리케이션에 맞춤형 활용이 가능하다.
– 활용 가능성: 젬마 3는 개인용 워크스테이션이나 모바일 기기에서도 사용할 수 있는 높은 실용성을 제공하며, 여러 인공지능 관련 산업 분야에서 폭넓은 응용이 기대된다.
구글 딥마인드의 젬마3는 성능과 효율성을 모두 잡은 혁신적 AI 모델로, 다양한 하드웨어와 언어 환경에 최적화되었다. 멀티모달 기능까지 갖추면서 인공지능 활용도를 한 단계 끌어올릴 전망이라고 합니다.