구글 클라우드, 제미나이·이마젠 신규 버전 공개

▲ 구글 클라우드 CI (사진제공: 구글 클라우드)

구글 클라우드는 8일 자사 기업용 AI 플랫폼 '버텍스 AI(Vertex AI)' 업데이트를 공개했다.

지난 5월 프리뷰 버전으로 선보였던 제미나이 1.5 플래시(Gemini 1.5 Flash)를 공식 출시했다. 제미나이 1.5 플래시는 짧은 지연, 가격 경쟁력, 100만 토큰 컨텍스트 윈도우(context window)를 결합해, 소매기업 채팅 에이전트·문서 처리·전체 데이터를 통합 분석할 수 있는 리서치 에이전트 등에 사용할 수 있다. 

구글 클라우드는 제미나이 1.5 플래시에 대해 성능·지연 시간·비용 효율성 면에서 GPT-3.5 터보(GPT-3.5 Turbo)를 비롯한 동급 모델 대비 이점을 제공한다고 설명했다. GPT-3.5 터보 대비 60배가량 더 긴 100만 개 토큰 컨텍스트 윈도우를 제공하며, 1만 자 입력 기준 평균 40% 속도가 빠르다. 또한 3만 2,000자 이상 입력 시 컨텍스트 캐싱(context caching) 기능으로 GPT-3.5 터보 대비 입력 비용을 최대 4배 절감시킬 수 있다.

최대 200만 개의 토큰 컨텍스트 윈도우를 지원하는 제미나이 1.5 프로(Gemini 1.5 Pro)도 정식 버전으로 출시됐다. 일반적으로 6분 분량 동영상을 분석하려면 10만 개 이상 토큰이 소요되며, 대규모 코드 베이스는 100만 개 이상이 든다. 구글 클라우드는 수많은 코드 라인에서 버그를 찾거나, 연구 자료에서 필요한 정보를 검색하고, 몇 시간 분량 오디오 및 동영상을 분석하는 등 다양한 영역을 지원한다.

구글 클라우드는 제미나이 1.5 프로 및 제미나이 플래시 모델의 컨텍스트 윈도우를 효율적으로 활용할 수 있도록 해당 모델에 컨텍스트 캐싱(context caching) 기능을 프리뷰 버전으로 제공한다. 컨텍스트 길이가 증가하면 앱에서 응답을 얻는 데 많은 시간과 비용이 소요된다. 버텍스 AI 컨텍스트 캐싱(Vertex AI context caching)은 자주 사용하는 컨텍스트 캐시 데이터를 활용해 최대 76%까지 비용을 절감할 수 있다. 컨텍스트 캐싱 API를 제공하는 업체는 현재 구글 클라우드가 유일하다.

이어서 일부 고객에게 프로비저닝 처리량(provisioned throughput)을 제공한다. 이를 통해 제미나이 1.5 플래시를 포함한 구글 자체 모델 사용량을 필요에 맞게 적절히 확장할 수 있다. 이 기능은 고객 워크로드에 대한 예측 가능성과 안전성을 제공한다.

아울러 3분기부터 기업이 자사 생성형 AI 에이전트를 특정 제공업체 데이터로 그라운딩할 수 있는 새로운 서비스를 제공한다. 이를 통해 타사 데이터를 생성형 AI 에이전트에 통합해 고유한 사용 사례를 발굴하고, AI 경험 전반에서 엔터프라이즈 지식(enterprise truth)을 더 많이 도출할 수 있다. 구글 클라우드는 서비스 제공을 위해 무디스(Moody’s), 모건스탠리 캐피털 인터내셔널(MSCI), 톰슨 로이터(Thomson Reuters), 줌인포(Zoominfo) 등과 협력 중이다.

금융업∙의료계∙보험업과 같은 데이터 집약적 산업에서는 생성형 AI가 일반 지식(world knowledge)이 아닌 제공된 컨텍스트만을 기반으로 답변을 생성해야 하는 경우가 많다. 이러한 산업을 지원하기 위해 구글 클라우드는 그라운딩 위드 하이 피델리티 모드(Grounding with High-Fidelity Mode)를 실험적 프리뷰 버전으로 선보였다.

하이 피델리티 모드는 여러 문서를 아우르는 요약, 금융 데이터 전반에서 데이터 추출, 사전 정의된 문서 세트 처리와 같은 그라운딩 사례를 지원하기 위해 구축했다. 또한 사용자가 제공한 컨텍스트만을 사용해 답변을 생성하도록 미세 조정된 제미나이 1.5 플래시를 기반으로 구동된다.

이마젠 3(Imagen 3)는 구글의 최신 이미지 생성 기반 모델이다. 이전 모델 대비 40% 이상 빠른 이미지 생성으로 프로토타이핑과 반복 작업을 지원한다. 아울러 프롬프트 이해·명령 수행 능력 개선·실사 수준의 인물 그룹 생성·이미지 내 텍스트 렌더링 제어 능력 등이 향상됐다. 이마젠 3는 사전 액세스 권한을 부여받은 일부 버텍스 AI 고객에게 프리뷰 버전으로 제공된다. 다중 언어 지원, 구글 딥마인드 신스ID(SynthID) 디지털 워터마킹 등 보안 기능, 다양한 화면 비율 지원 등을 함께 제공한다.

구글 클라우드는 버텍스 AI에서 제공되는 엄선된 자사 모델, 오픈 모델, 타사 모델 제품군을 기용한다. 최근에는 앤트로픽(Anthropic)이 출시한 클로드 3.5 소넷(Claude 3.5 Sonnet)을 버텍스 AI에 추가했고, 구글 클라우드 환경에서 클로드 3.5 소넷으로 테스트하거나 운영 환경에 배포할 수 있다. 올해 하반기에는 미스트랄(Mistral)과 파트너십을 강화하며, 미스트랄 스몰(Mistral Small)·미스트랄 라지(Mistral Large)·미스트랄 코드스트랄(Mistral Codestral)을 버텍스 AI 모델 가든(Model Garden)에서 제공한다.

이 밖에도 제미나이 모델 개발에 활용된 동일한 연구 기술을 바탕으로 구축한 오픈 모델 제품군 젬마(Gemma)의 후속 모델을 발표했다. 7월부터 버텍스 AI에서 이용할 수 있으며, 전 세계 연구자와 개발자를 대상으로 공식 출시된 젬마 2(Gemma 2)는 90억 개(9B)와 270억 개(27B) 파라미터 사이즈로 제공된다.