スケーリング則とは?
読み方: スケーリングそく
30秒まとめ
モデルのサイズ・データ量・計算量と性能の間に成り立つ予測可能な法則性。
スケーリング則の意味・定義
スケーリング則(Scaling Law)は、AIモデルの性能がモデルのパラメータ数、学習データ量、計算量(FLOPs)に対してべき乗則に従って予測可能に向上するという法則です。OpenAIの研究(Kaplan et al., 2020)で体系的に示され、DeepMindのChinchilla論文(2022)でさらに精緻化されました。この法則により、大規模な計算投資が性能向上に直結することが理論的に裏付けられ、GPT-4やGeminiなどの大規模モデル開発を正当化する根拠となりました。一方で、スケーリングだけでは限界があるという指摘もあり、データの質、アーキテクチャの改善、推論時計算(Test-time Compute)など、スケーリング以外のアプローチも注目されています。