グーグル、Geminiをアップデート 最速モデル「Gemini 2.5 Flash-Lite」と、プレビュー版の安定版を公開

米国時間2025年6月17日、米グーグルは大規模言語モデル「Gemini 2.5」シリーズの正式版提供を開始し、併せて最速・最安の新モデル「Gemini 2.5 Flash-Lite」をプレビュー版として公開した。
用途に応じた選択肢が広がり、生成AIの実用性がさらに高まる見通しだ。
最速・最安のFlash-Lite、分類や要約タスクに最適
グーグルは、生成AIモデル「Gemini 2.5」シリーズのアップデートを発表し、これまでプレビュー版だった「Gemini 2.5 Pro」と「Gemini 2.5 Flash」を正式な安定版として提供開始した。
同時に、最も軽量かつ高速な「Gemini 2.5 Flash-Lite」をプレビュー版として投入した。
Flash-Liteは、コストと処理速度を最適化した設計となっており、「思考モデル(※)」としての処理機能を初期設定では無効化している。
これは、分類や要約といった高スループットな処理を重視するユースケースを想定した構成であり、Gemini 1.5/2.0 Flashからの効率的なアップグレード手段とされる。
Flashの正式版では価格の改定が行われ、入力トークンは100万トークンあたり15セントから30セントに引き上げられた。
一方で、出力トークンは2.5ドルから2.3ドルへと引き下げられた。
入力は高くなり、出力は安くなったことになる。
グーグルはこの価格調整について「Flashの卓越した価値を反映した調整。依然として最高のコストパフォーマンスを提供する」と説明している。
Proモデルは価格に変更はなく、複雑なコーディングやエージェント型タスクに向けた最上位モデルとして位置づけられている。
※思考モデル:生成AIにおける「思考(reasoning)」処理のこと。
出力生成前に一時的に情報を整理・内省する機構を備え、低速だが高性能なモデル構成を指す。
用途分化が進むGemini 2.5 AI導入の裾野さらに拡大へ
今回のアップデートにより、「Gemini 2.5」シリーズは明確に差別化されたといえる。
Flash-Liteはシンプルで高速なタスクに、Flashはバランス型に、Proは高機能・高精度が求められる分野に最適化されており、導入企業や開発者が目的に応じてモデルを柔軟に選択できる環境が整った。
特にFlash-Liteの登場は、コストと速度を重視する開発現場や小規模な業務ツールの設計にとって大きな追い風となるだろう。
思考処理をオフにし、応答速度を向上させることは、リアルタイム処理やバッチ分析との相性が良いため、チャットボットや分類システムなどでの応用が期待できる。
ただし、思考機能をオフにした構成は、複雑な文脈理解や創造的生成を要するシーンではパフォーマンスに限界がある可能性もある。
そのため、用途ごとのモデル選定と評価がより一層求められることになるだろう。
現在、Flash-Liteを含むすべてのモデルは、Google AI StudioおよびVertex AIから利用可能で、FlashおよびProはGeminiアプリからのアクセスにも対応している。
今後、各モデルの実運用におけるパフォーマンス評価とユーザー体験のフィードバックが、さらなるモデル進化の鍵を握ることになるだろう。