BatchNormalizationとは?仕組み・メリット・Kerasでの使い方を画像とコードで徹底解説! BatchNormalization CNN Google Colab Keras バッチ正規化
Activation関数比較:ReLU / LeakyReLU / ELU / GELU の違いとは? Activation関数 ELU GELU Google Colab Keras LeakyReLU ReLU 活性化関数