Mixture of Agentsとは?
読み方: ミクスチャー・オブ・エージェンツ
30秒まとめ
複数のAIモデルを組み合わせてそれぞれの強みを活かし、より高品質な出力を得る手法。
Mixture of Agentsの意味・定義
Mixture of Agents(MoA)は、複数の異なるAIモデルを組み合わせて協調動作させることで、単一モデルでは達成できない高品質な出力を生成する手法です。具体的には、複数のLLMにそれぞれ回答を生成させ、それらの回答を別のLLMが統合・改善して最終出力を生成するアーキテクチャです。例えば、GPT-4o、Claude、Geminiの回答を統合モデルが分析し、各モデルの最良の部分を組み合わせた回答を作成します。Mixture of Experts(MoE)がモデル内部の構造であるのに対し、MoAは複数の独立したモデルの協調に焦点を当てている点が異なります。GensparkなどのAI検索エンジンで活用されています。