activation関数を変えると精度はどう変わる?(relu vs gelu vs elu)【Keras×CIFAR-10実験】

activation関数を変えると精度はどう変わる?(relu vs gelu vs elu)【Keras×CIFAR-10実験】

activation CIFAR-10 CNN ELU GELU Google Colab Keras ReLU

Conv2Dのpaddingで精度は変わる?(same vs valid)【Keras×CIFAR-10実験】

Conv2Dのpaddingで精度は変わる?(same vs valid)【Keras×CIFAR-10実験】

CIFAR-10 CNN Conv2D Google Colab Keras padding 画像分類

Adamのlearning_rateを変えると何が起きる?(0.001 vs 0.01 vs 0.0001)【Keras×CIFAR-10実験】

Adamのlearning_rateを変えると何が起きる?(0.001 vs 0.01 vs 0.0001)【Keras×CIFAR-10実験】

Adam CIFAR-10 CNN Google Colab Keras Learning Rate 学習率

Conv2Dのkernel_sizeを変えると精度はどう変わる?(3×3 vs 5×5 vs 1×1)【Keras×CIFAR-10実験】

Conv2Dのkernel_sizeを変えると精度はどう変わる?(3×3 vs 5×5 vs 1×1)【Keras×CIFAR-10実験】

CIFAR-10 CNN Conv2D Google Colab Keras 画像分類