#Kaggle / #MNIST , たまたま 0.99532 (先週は 0.99507) を出せた
— Masahiro SATO (@satomshr) 2021年1月9日
Made my first #kaggle submission and all I got was this lousy tweet. https://t.co/CWNvCRQNOn
CNN (Convolutional Neural Network) の構造は変えずに,出力フィルタの数を倍にしただけ。先週も同じことを試していて,そのときは更新できなかったけど,今回は偶然 (?) 更新できたみたい。ただ,出力フィルタを倍にしたほうが 0.995 台を出しやすいような気もしている。
今日は上記以外に,Test Time Augumentation (参考 ; CIFAR-10でaccuracy95%--CNNで精度を上げるテクニック-- - Qiita) もトライしたが,結果的にはスコアは向上しなかった。現在,通常の Data Augumentation をやっているので,Test Time Augumentation の効果が表れてこないのかもしれない。
次はアンサンブル学習 (参考 ;ニューラルネットワークを使ったEnd-to-Endなアンサンブル学習 - Qiita) をトライしようと思っている。
以下は,本文に関係ない gist のテスト。