新機能・リリース 2026年03月04日
#AI #Google #Gemini #Flash #Lite

Googleのモデル戦略が一気に加速。Gemini 3シリーズ、ラインナップ完成へ

ニュース(事実)

GoogleがGemini 3.1 Flash Liteを、API経由で開発者向けにプレビュー公開した。
Gemini 3シリーズの中でも最軽量のモデルで、低コスト・超高速な推論処理を売りにしている。
同時期にGemini 3.1 Proのプレビューも公開され、Deep Think / Pro / Flash / Flash Liteと、シリーズのラインナップがほぼ揃った形だ。

これはつまり、「目的に応じてGeminiを選び分ける時代」が本格的に始まった、ということだ。

3行まとめ

  • 本質: Gemini 3シリーズが用途別に4モデル展開。軽量・高速な Flash Lite が最後のピースとして登場
  • 構造: Deep Think(高度推論)→ Pro(汎用高性能)→ Flash(高速)→ Flash Lite(超軽量)と役割が明確に分かれている
  • これから: コスト重視のアプリや、低遅延・高頻度の処理が求められる用途での採用が広がりそう

初心者向け:まずここだけ読めばOK

Gemini 3.1 Flash Liteは、Googleが出したAIモデルの中で「一番軽くて速いやつ」。
重いモデルは賢いけど、APIの呼び出しコストが高くなりがち。
そこに「安くて速い」選択肢が公式で追加された、というのが今回のポイントだ。


用語の整理

  • 推論(Inference): AIが質問や入力に対して答えを導き出す処理のこと。モデルが賢くても、推論が遅ければ使い物にならない
  • コンテキストウィンドウ: AIが一度に読める文章の長さ。1Mトークン = 約75万語分を一気に処理できるイメージ
  • 軽量モデル: パラメータ数を抑え、推論速度とコスト効率を優先したAIモデル。精度はやや落ちるが速くて安い

詳細

1. なぜ重要か

AIモデルの「賢さ競争」は続いているけど、実務では別の問題も出てきている。
それが「APIコストが高すぎる問題」だ。

たとえば、ユーザーが送ったメッセージを要約するだけの機能に、最上位モデルを使うのはオーバースペック。
月末に請求書を見てヒヤッとした経験がある開発者は、少なくないはずだ。

ミニストーリー: 「高すぎる請求書との戦い」

スタートアップで一人開発をしているAさん。
チャットボットに「お問い合わせの自動分類」機能を追加したら、月のAPI費用が3倍に膨らんだ。
精度は十分なのに、最上位モデルを使い続けるのはコスト的につらい。
「もっと軽いモデルがあれば…」と思っていたところに、Flash Liteの登場。
同じ分類タスクをコストの数分の一で回せるようになり、プロダクトの継続に余裕が生まれた。

Flash Liteはこういう「賢さはそこそこでいい、でも速くて安くないと困る」用途のために作られたモデルだ。

2. Gemini 3シリーズ全モデル比較

モデル 特徴 主な用途 コンテキスト ベンチマーク(ARC-AGI-2)
Gemini 3 Deep Think(思考モード) 最高精度・高度推論 数学、科学、複雑な推論タスク - 84.6%(ARC-AGI-2公式)
Gemini 3.1 Pro 汎用高性能 複雑な文書処理、マルチモーダル 1Mトークン 77.1%(ARC-AGI-2公式)
Gemini Flash 高速・バランス型 リアルタイム応答が必要なアプリ - -
Gemini 3.1 Flash Lite 超軽量・低コスト 低遅延・高頻度タスク、大量バッチ処理 - -

Deep Thinkがリリースされたのがつい最近で、そこにPro、Flash、Flash Liteと続いた。
「用途別に使い分ける」という設計思想が、ここまで明確なのはGemini 3シリーズが初めてかもしれない。

3. Flash Lite が刺さるシーン

軽量モデルが「使える」シーンは、実はかなり多い。

  • 大量テキストの前処理: ログや問い合わせデータのフィルタリング
  • モバイルアプリ内のリアルタイム処理: レスポンス速度が体験に直結する場面
  • コスト圧縮が必要なスタートアップ: API費用を抑えながらAIを組み込みたい
  • 低レイテンシが求められる処理: レスポンスの速さが優先される環境

Humanity's Last Exam(超難問ベンチマーク)でDeep Thinkが48.4%を記録しているのを見ると、重いタスクには重いモデルを、という使い分けが自然に見えてくる。

4. TypeScript/JavaScript SDKのパブリックプレビュー

地味に見逃せないのが、Gen AI SDKのTypeScript/JavaScript版がパブリックプレビューになった点だ。
これまでPythonが主流だったGemini API周りのエコシステムが、フロントエンド・Node.js開発者にも広がりやすくなった。
Next.jsやNuxtで動くWebアプリにGemini APIを組み込む、という選択肢が現実的になってきたと言える。

5. 影響(誰にどう効くか)

個人開発者・スタートアップ: APIコストを抑えながらGeminiを使える選択肢が増えた。
まずFlash Liteで試して、精度が足りなければFlashやProにアップグレード、という段階的な設計がしやすくなる。

エンタープライズ: 社内ツールの大量バッチ処理に軽量モデルを当てることで、コスト効率を高められる。
高度な分析タスクだけにDeep Thinkを使う、という「使い分け設計」が本格的に機能し始める。

フロントエンド開発者: TypeScript SDKのプレビューが始まったことで、ブラウザ・Node.js環境からのAPI統合が書きやすくなる。

今日の1アクション

Google AI StudioでGemini APIキーを取得し、モデルIDに gemini-3.1-flash-lite-preview を指定して呼び出してみよう。
無料枠でも試せるので、まず「自分のユースケースで使えそうか」を実際に動かして確かめてみてほしい。

出典


筆者コメント

Gemini 3シリーズのラインナップを見ていると、Googleがモデル設計に「役割の明確化」を持ち込んだのがよくわかる。
「一番賢いモデルを使えばいい」という時代は終わりつつあって、「このタスクには何を使うか」を選ぶ能力が、開発者に求められるようになってきた気がする。

Flash Liteの登場は地味に見えるけど、「AIを実運用で使い続けるためのコスト設計」という観点では、けっこう重要な一手だと思っている。
賢さよりも経済合理性。そのバランス感覚がプロダクトの寿命を決める、というのは、AI以外の技術選定でも変わらない話だ。