Channel Attentionを追加すると精度は上がるか?CBAM風実装をCIFAR-10で検証【Keras実験】

Channel Attentionを追加すると精度は上がるか?CBAM風実装をCIFAR-10で検証【Keras実験】

Attention CBAM Channel Attention CIFAR-10 CNN Google Colab Keras 画像分類

Depthwise Separable Convolution vs 通常Conv2Dを比較|パラメータ削減で精度はどう変わる?【Keras×CIFAR-10】

Depthwise Separable Convolution vs 通常Conv2Dを比較|パラメータ削減で精度はどう変わる?【Keras×CIFAR-10】

CIFAR-10 CNN Google Colab Keras MobileNet SeparableConv2D 画像分類 軽量化

Residual接続(スキップ接続)あり vs なし を比較|深いネットが学習できる理由を実験で確認【Keras×CIFAR-10】

Residual接続(スキップ接続)あり vs なし を比較|深いネットが学習できる理由を実験で確認【Keras×CIFAR-10】

CIFAR-10 CNN Google Colab Keras Residual接続 ResNet 画像分類