ゼロから作るDeep Learningでは、3種類の活性化関数が紹介されている(3.2章 P44) 1. シグモイド関数 2. ステップ関数 3. ReLU(Rectified Linear Unit)本通りに実装してpyplotでグラフ化してみた #!/usr/bin/python3 import numpy as np import matplotlib.p…
引用をストックしました
引用するにはまずログインしてください
引用をストックできませんでした。再度お試しください
限定公開記事のため引用できません。