バッチ正規化(Batch Normalization)とは?
読み方: バッチセイキカ
30秒まとめ
ニューラルネットワークの学習を安定化・高速化するための正規化手法。深層学習の標準技術。
バッチ正規化(Batch Normalization)の意味・定義
バッチ正規化(Batch Normalization)は、ニューラルネットワークの各層の入力を正規化(平均0、分散1に近づける)することで、学習を安定化・高速化する手法です。2015年にGoogleのIoffeとSzegedyが提案し、深層学習の標準的な技術として広く普及しました。学習時にミニバッチ単位で正規化を行い、内部共変量シフト(層ごとの入力分布の変動)を軽減します。これにより、より大きな学習率を使用でき、学習の収束が速くなります。さらに、正則化効果もあり、過学習の抑制にも寄与します。画像認識モデル(ResNet、EfficientNet等)やTransformerの亜種など、現代の多くのディープラーニングアーキテクチャで採用されています。