モデル崩壊とは?

読み方: モデルホウカイ

30秒まとめ

AIが自身の生成データで再学習を繰り返すことで出力品質が劣化していく現象。「2026年問題」とも関連。

モデル崩壊の意味・定義

モデル崩壊(Model Collapse)は、AIモデルがAI自身によって生成されたデータ(合成データ)で再学習を繰り返すことで、出力の品質・多様性が段階的に劣化していく現象です。具体的には、学習データ中のレアなパターンや少数派の表現が世代を重ねるごとに失われ、出力が画一的・平均的になっていきます。この問題は「2026年問題」とも呼ばれ、インターネット上のテキストデータに占めるAI生成コンテンツの割合が急増する中で、LLMの学習に使用する高品質な「人間が書いたテキスト」が枯渇するリスクが指摘されています。Epoch AI等の研究機関は、高品質な学習用テキストデータが2026年頃に底をつくと予測しています。対策として、学習データのフィルタリング(AI生成コンテンツの排除)、合成データの品質管理、人間によるデータキュレーション、連合学習などのアプローチが研究されています。

関連する用語

運営者が開発したAIマーケティングツール