Meta、最新AIモデル「Llama 4」を発表 マルチモーダル対応で広がる応用範囲

2025年4月5日、Metaは最新の大規模言語モデル(LLM)「Llama 4」を発表した。
このモデルはテキストと画像の両方を処理できるマルチモーダル対応を特徴とし、AI技術の新たな進化を示している。
Llama 4の主な特徴と技術的進化
Llama 4は、Metaが開発した最新の大規模言語モデルであり、以下のような特徴を備えている。
まず、テキストと画像の両方を処理できるマルチモーダル対応したことがあげられる。
これにより、ユーザーは多様な形式のデータを一つのモデルで解析・生成することが可能となった。
次に、Mixture of Experts(MoE)アーキテクチャの採用がある。
MoEは、モデル内に複数の専門家(エキスパート)を配置し、入力に応じて適切なエキスパートを動的に活性化する仕組みだ。計算効率が向上し、トレーニングや推論の品質が高まった。
さらに、Llama 4は多言語対応も強化されており、200以上の言語で事前トレーニングが行われている。100以上の言語をサポートすることで、グローバルなユーザーに対しても高い適応性を示している。
具体的なモデルとしては、Llama 4 ScoutとLlama 4 Maverickが既に公開されており、Behemothは現在トレーニング中である。
Scoutは170億のアクティブパラメータと16のエキスパートを持ち、単一のNVIDIA H100 GPU上で動作するよう設計されている。
一方、Maverickは同じく170億のアクティブパラメータを持つが、128のエキスパートを搭載し、より高度なタスクに対応可能である。
Metaは、Llama 4におけるバイアス対策にも注力している。
特に、政治的・社会的なトピックに関しては、中立的な応答を目指し、拒否率を低減させる取り組みが行われている。
具体的には、Llama 3.3では7%の拒否率であったのに対し、Llama 4では2%未満にまで減少したと報告されている。
今後の展望
Metaは、Llama 4のオープンソース化を進め、開発者がカスタマイズ可能な環境を提供することで、多様なアプリケーションへの応用を目指している。
今後、Llama 4のマルチモーダル対応能力は、さまざまな分野での応用が期待される。たとえば、医療分野では、患者の診断画像とテキストデータを統合的に解析し、より精度の高い診断支援が可能となるだろう。
また、教育分野では、テキストと画像を組み合わせた教材の自動生成や、多言語対応によるグローバルな学習支援が実現される可能性がある。
さらに、Metaが進めるオープンソース化により、開発者コミュニティはLlama 4を基盤とした新しいアプリケーションの開発を加速させることができる。これにより、AI技術の民主化が進み、中小企業やスタートアップ企業でも高度なAIモデルを活用したサービス提供が可能となるだろう。
総じて、Llama 4の登場は、AI技術の新たな可能性を切り拓くものであり、今後の発展が注目される。