Gemini 3 Flash는 그 이름처럼 속도와 효율성에 중점을 두면서도, 최첨단 모델에 준하는 뛰어난 성능을 자랑합니다. 특히 ‘사고 모드’를 활성화했을 때 Gemini 3 Pro, Anthropic의 Sonnet 4.5, OpenAI의 GPT-5.2와 대등하거나 때로는 능가하는 벤치마크 결과를 보여줍니다. 또한, 이전 모델과 마찬가지로 1백만 토큰의 방대한 컨텍스트 윈도우를 제공하여 복잡한 작업을 처리할 수 있습니다.
멀티모달 추론 능력
Google은 멀티모달 추론 분야에서 선도적인 입지를 다져왔으며, Gemini 3 Flash 역시 텍스트, 이미지, 오디오 파일, 비디오를 아우르는 추론 능력을 갖추고 있습니다. 특히 즉석에서 시각화를 생성하는 기능이 강화되었으며, 멀티모달 MMMU-Pro 벤치마크에서는 Gemini 3 Pro를 근소하게 앞서는 성과를 보였습니다.
코딩 능력 향상
최근 Google 모델의 또 다른 발전 영역은 코딩입니다. Gemini 3 Flash는 SWE-Bench Verified 벤치마크에서 Gemini 3 Pro와 Sonnet 4.5를 능가하며, 비록 GPT-5.2가 여전히 최고 성능을 유지하지만 상당한 발전을 이루었습니다. Warp의 CEO인 Zach Lloyd는 Gemini 3 Flash가 낮은 지연 시간과 비용 효율성이 중요한 ‘Warp의 제안 코드 차이점’에 가장 적합하며, 오류 수정 정확도가 8% 향상되었다고 언급했습니다.
비용 효율성 및 속도
Gemini 3 Flash는 인풋/아웃풋 토큰 백만 개당 $0.5/$3의 비용으로, 이전 모델인 Gemini 2.5 Flash($0.3/$2.5)보다 가격이 상승했지만, Anthropic의 Claude Sonnet($3/$5)이나 Claude Haiku($1/$5)보다 훨씬 저렴합니다. 또한, Gemini 2.5 Flash 대비 평균 30% 적은 토큰으로 답변을 생성하며, Gemini 2.5 Pro 모델보다 3배 더 빠릅니다.
가용성
이 새로운 모델은 Google AI Studio 및 Vertex AI를 통한 API 형태로 제공되며, Google의 새로운 AI 코딩 도구인 Antigravity, Gemini CLI, Android Studio에서도 활용 가능합니다. 또한, Google 검색의 AI 모드와 Gemini 앱의 ‘빠른’ 및 ‘생각 중’ 모드에서도 Gemini 3 Flash가 구동됩니다.