正則化とは?
読み方: セイソクカ
30秒まとめ
AIモデルが訓練データに過度に適合するのを防ぎ、未知のデータへの汎化性能を高める技術群。
正則化の意味・定義
正則化(Regularization)は、AIモデルが訓練データに過剰に適合してしまうオーバーフィッティング(過学習)を防止し、未知のデータに対する予測精度(汎化性能)を維持するための技術群です。「程よく学習を制限する」ことで、モデルがデータ内のノイズやパターンを暗記するのではなく、本質的なパターンを学ぶよう誘導します。 代表的な手法として、(1)L1正則化(Lasso):不要なパラメータをゼロにして自動的に特徴量選択を行う、(2)L2正則化(Ridge):パラメータが大きくなりすぎるのを抑制する、(3)ドロップアウト(Dropout):学習時にランダムにニューロンを無効化して依存関係を減らす、(4)データ拡張(Data Augmentation):画像の回転や反転など、訓練データを増やして多様性を確保する、(5)早期停止(Early Stopping):検証データの性能が低下し始めたら学習を止める、などがあります。適切な正則化は実用的なAIモデル構築において不可欠な技術です。