本サイトで公開しているKeras×CNN実験記事を分野別にまとめました。 深層学習を体系的に理解したい人向けのハブページです。
① CNNの基礎理解
- Dense層って何?畳み込みとの違いを解説
- 【Keras】最大値プーリング(MaxPooling)vs 平均値プーリング(AveragePooling)の違いを実験で比較
- Activation関数比較:ReLU / LeakyReLU / ELU / GELU の違いとは?
- バッチサイズを変えると精度や学習効率はどう変わる?
- 損失関数とは?種類と一覧をKerasで比較【実験グラフ付き】
- Global Average Pooling vs Flatten|CNNの最終層を実験で比較
② Optimizer・学習率まわり
- KerasでOptimizerを比較!SGD・Adam・RMSpropの精度と学習速度を検証
- 【Keras】AdamWとは?Adamとの違いを実験で比較|迷ったらAdamWの理由
- Kerasで学習率スケジューラ5種を徹底比較
- 学習率を変えると精度はどうなる?Keras×CNNで比較実験
- warmupあり vs なし|学習率ウォームアップは本当に効くのか?
③ 過学習対策まとめ
- Dropoutの効果を比較!画像分類モデルの過学習対策
- 【Keras】EarlyStopping完全ガイド|patience・monitor の選び方
- 【Keras入門】ModelCheckpointとは?ベストモデルを自動保存する方法
- 【Keras】ReduceLROnPlateau の効果を徹底検証
- 【2025年版】Loss が下がらない原因は?チェックリスト12選
- CIFAR-10で学ぶ:過学習の判定方法と実践的対策
- BatchNormalizationはDropoutと併用すべきか?4パターン比較
④ 実験系コンテンツ
- CNNの層数で精度はどう変わる?1層・2層・3層モデルを比較検証
- Dense層のユニット数を変えると何が起きるか?CNNでの実験結果
- CIFAR-10の応用例と実装方法
- Grad-CAMでAIの判断根拠を可視化してみた!
- Conv2DのFilters数(32 vs 64 vs 128)を変えると精度はどう変わる?
- 【Keras】glorot_uniformとhe_normalの違いをCNNで比較
⑤ Google Colab環境設定
- Google ColabでPythonバージョンを確認する方法【2026年版】
- 【2026年版】Google ColabでOS・GPU・CUDAバージョンを確認する方法
- 【2026年最新】Google ColabでCUDAバージョンを確認する方法
- 【2026年版】Google ColabでGPU・TPUを使う方法|設定・確認・トラブル対処まとめ
- Google ColabでRAMとディスク容量を確認する方法【2026年版】
おすすめの読み方
- Dense層・CNN基礎を理解する
- Optimizer・学習率の違いを学ぶ
- 過学習対策を実験で確認する
- 実験系記事で理解を深める