Google、AIで画像の真偽を可視化する新ツール「Backstory」を発表 テスターも募集中

2025年7月21日、米Googleは、オンライン画像の出所や利用履歴を解析できる新ツール「Backstory(バックストーリー)」を発表した。
AIを用いて画像の真偽や変遷を読み解く仕組みで、現在はテスト段階。専用サイトでテスターの募集も開始している。
画像の出所や改変履歴をAIで分析、利用状況も追跡
Backstoryは、画像ファイルと任意のテキストプロンプトを入力すると、当該画像のネット上での出現時期や文脈、拡散履歴などを調査し、視覚的にわかりやすいレポート形式で提示するAIツールである。
特に注目されるのは、画像が生成AIで作られたものかどうか、またデジタル的な改変が施されているかを自動で判別する機能だ。
さらに、過去の使用例や意味の変化といった“文脈の移り変わり”も解析できる点が特徴となっている。
画像の信頼性を評価するには、出所の明示だけでなく、使用目的や拡散先、文脈との整合性といった多角的な視点が必要とされる。
Backstoryは、こうした情報を一元的に確認できる手段として、報道や調査、研究用途での活用が期待される。
現在一般公開の時期は明らかにされておらず、テスト段階にあるが、専用サイトではテスト参加希望者に対し、ウェイティングリストへの登録フォームが用意されている。
生成AI時代の画像リテラシーに寄与、課題は精度と倫理
Backstoryの登場は、画像が氾濫する現在のネット環境において、ユーザーの「視覚リテラシー」向上を後押しする可能性がある。
特にSNSでは、AI生成による写真風の画像と現実の写真が混在し、誤情報の拡散リスクが高まっているとみられる。
そうした状況下で、出所や文脈を即座に把握できる仕組みは、情報の受け手に限らず、メディア関係者や研究者にとっても有用なツールとなると考えられる。
一方で、AIが提示する情報の「正確性」に対し、ユーザーが過信してしまう懸念も否定できない。
現時点では、画像改変の検出精度や文脈理解の面で課題が残っている可能性があり、ツールの出力をどう受け取るかは、最終的に人間のリテラシーに委ねられる場面が多くなるだろう。
正式リリースに向けては、精度の向上とあわせて、AIが導く結論への依存を避けるための倫理的ガイドラインの整備が求められていくとみられる。
ニュースリリース:https://deepmind.google/discover/blog/exploring-the-context-of-online-images-with-backstory/