バックプロパゲーションを実装して、MNISTデータを使って5000回学習させた結果、lossが0.440で、accuracyが0.89(正解率89%)に到達。なお、正解率は学習の都度、上下変動しており、調子がいい場合は92%ぐらいまで上がる。
従来の数値的微分による学習の場合、一回の学習に60秒程度かかっていたが、バックプロパゲーションによる学習の場合、一回の学習に、0.1秒で済んでおり、600倍高速に学習できていることになる。5000回学習させるのに10分程度で収まり、普通に使える俺NNになりつつあると思う。
n of training:5000 learn loss:0.439986 ans:[0, 2, 6, 7, 2, 4, 5, 3, 7, 4] prd:[0, 2, 6, 7, 2, 4, 2, 2, 7, 4] in 0.108747 accuracy:0.891000