本日の Kaggle / MNIST の進捗 ; 0.99532

CNN (Convolutional Neural Network) の構造は変えずに,出力フィルタの数を倍にしただけ。先週も同じことを試していて,そのときは更新できなかったけど,今回は偶然 (?) 更新できたみたい。ただ,出力フィルタを倍にしたほうが 0.995 台を出しやすいような気もしている。

今日は上記以外に,Test Time Augumentation (参考 ; CIFAR-10でaccuracy95%--CNNで精度を上げるテクニック-- - Qiita) もトライしたが,結果的にはスコアは向上しなかった。現在,通常の Data Augumentation をやっているので,Test Time Augumentation の効果が表れてこないのかもしれない。

次はアンサンブル学習 (参考 ;ニューラルネットワークを使ったEnd-to-Endなアンサンブル学習 - Qiita) をトライしようと思っている。

以下は,本文に関係ない gist のテスト。

test of gist (public)