SIGMA-SE Tech Blog

SIGMA-SE Tech Blog

Python - AI : 活性化関数の実装サンプルまとめ(ステップ、シグモイド、ReLU、恒等関数、ソフトマックス関数)

目的

この記事では、活性化関数であるステップ、シグモイド、ReLU、恒等関数、ソフトマックス関数関数の実装サンプルについて記載する。

概念の説明と実装サンプル

ステップ関数

前の記事 > ニューラルネットワークの活性化関数と実装サンプル で触れたステップ関数で、線形の活性化関数であり階段関数とも呼ばれる。

  • 定義
    \(x\) が \(0\) より大きければ、\(1\) を出力し、\(0\) 以下であれば \(0\) を出力する。
\[ {\normalsize h(x) = \begin{cases} 0 \hspace{5pt}\text{if}\hspace{5pt}x \leqq 0 \\ 1 \hspace{5pt}\text{if}\hspace{5pt}x > 0 \end{cases} } \]
  • 実装
$ python
 >>> import numpy as np
 >>> import matplotlib.pylab as plt
 >>> def step_func(x):    # ステップ関数の定義
 ...    return np.array(x > 0, dtype=np.int)
 ...
  • グラフ出力
$ python
 >>> x = np.arange(-5.0, 5.0, 0.1)    # 区間を-5~5 まで、描画制度を 0.1 刻みに設定
 >>> y = step_func(x)    # ステップ関数をコール
 >>> plt.title("step_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y")    # グラフタイトルを設定
 Text(0.5, 1.0, 'step_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y')
 >>> plt.ylim(-0.1, 1.1)    # y軸の範囲を設定
 (-0.1, 1.1)
 >>> plt.xlabel("x")    # x軸のラベルを設定
 Text(0.5, 0, 'x')
 >>> plt.ylabel("y")    # y軸のラベルを設定
 Text(0, 0.5, 'y')
 >>> plt.plot(x, y)    # グラフの描画
 [<matplotlib.lines.Line2D object at 0x7fc13041e278>]
 >>> plt.savefig('/var/www/vops/ops/macuos/static/macuos/img/pid18_1.png'))    # グラフの出力

pid18_1

シグモイド関数

前の記事 > ニューラルネットワークの活性化関数と実装サンプル で触れたシグモイド関数で、非線形のの活性化関数に分類される。

  • 定義
    出力値は、\(x\) が小さいほど \(0\) になく近づき、\(x\) が大きいほど \(1\) に限りなく近づく。
\[ h(x) = \frac{1}{1+e^{-x}} \]
  • 実装
$ python
 >>> import numpy as np
 >>> import matplotlib.pylab as plt
 >>> def sigmoid_func(x):    # シグモイド関数の定義
 ...     return 1 / (1 + np.exp(-x))    # 自然対数の低 (e) の -x 乗
 ...
  • グラフ出力
$ python
 >>> x = np.arange(-5.0, 5.0, 0.1)    # 区間を-5~5 まで、描画制度を 0.1 刻みに設定
 >>> y = sigmoid_func(x)    # シグモイド関数をコール
 >>> plt.title("sigmoid_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y")    # グラフタイトルを設定
 Text(0.5, 1.0, 'sigmoid_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y')
 >>> plt.ylim(-0.1, 1.1)    # y軸の範囲を設定
 (-0.1, 1.1)
 >>> plt.xlabel("x")    # x軸のラベルを設定
 Text(0.5, 0, 'x')
 >>> plt.ylabel("y")    # y軸のラベルを設定
 Text(0, 0.5, 'y')
 >>> plt.plot(x, y)
 [<matplotlib.lines.Line2D object at 0x7f727fbc1be0>]
 >>> plt.savefig('/var/www/vops/ops/macuos/static/macuos/img/pid18_2.png')    # グラフの出力

pid18_2

ReLU関数

ReLU(Rectified Linear Unit:ランプ関数、正規化線形関数)と呼ばれ、非線形の活性化関数に分類される。
※ 最近では、ニューラルネットワークにおいて、シグモイド関数より、ReLU関数が多く用いられるようになった。

  • 定義
    \(x\) が \(0\) より大きい場合、\(x\) を出力し、\(0\) 以下である場合、\(0\) を出力する。
\[ {\normalsize h(x) = \begin{cases} x \hspace{5pt}\text{if}\hspace{5pt}x > 0 \\ 0 \hspace{5pt}\text{if}\hspace{5pt}x \leqq 0 \end{cases} } \]
  • 実装
$ python
 >>> import numpy as np
 >>> import matplotlib.pylab as plt
 >>> def relu_func(x):    # ReLU関数の定義
 ...     return np.maximum(0, x)
 ...
  • グラフ出力
$ python
 >>> x = np.arange(-5.0, 5.0, 0.1)    # 区間を-5~5 まで、描画制度を 0.1 刻みに設定
 >>> y = relu_func(x)    # ReLU関数をコール
 >>> plt.title("relu_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y")    # グラフタイトルを設定
 Text(0.5, 1.0, 'relu_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y')
 >>> plt.xlabel("x")    # x軸のラベルを設定
 Text(0.5, 0, 'x')
 >>> plt.ylabel("y")    # y軸のラベルを設定
 Text(0, 0.5, 'y')
 >>> plt.plot(x, y)
 [<matplotlib.lines.Line2D object at 0x7fbf1cfeecc0>]
 >>> plt.savefig('/var/www/vops/ops/macuos/static/macuos/img/pid18_3.png')
 >>>

pid18_3

恒等関数

出力層で使われる線形の活性化関数に分類される。

  • 定義
    \(x\) をそのまま出力する。
\[ {\normalsize h(x) = x } \]
  • 実装
$ python
 >>> import numpy as np
 >>> import matplotlib.pylab as plt
 >>> def koutou_func(x):    # 恒等関数の定義
 ...     return x
 ...
  • グラフ出力
$ python
 >>> x = np.arange(-5.0, 5.0, 0.1)    # 区間を-5~5 まで、描画制度を 0.1 刻みに設定
 >>> y = koutou_func(x)    # 恒等関数をコール
 >>> plt.title("koutou_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y")    # グラフタイトルを設定
 Text(0.5, 1.0, 'koutou_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y')
 >>> plt.xlabel("x")    # x軸のラベルを設定
 Text(0.5, 0, 'x')
 >>> plt.ylabel("y")    # y軸のラベルを設定
 Text(0, 0.5, 'y')
 >>> plt.plot(x, y)
 [<matplotlib.lines.Line2D object at 0x7fba4d928f60>]
 >>> plt.savefig('/var/www/vops/ops/macuos/static/macuos/img/pid18_4.png')
 >>>

pid18_4

ソフトマックス関数

分類問題で使われる非線形の活性化関数に分類される。

  • 定義
    \(n \leqq k\) の時、\(k\) 番目の出力 \(h(x_{k})\) を表す。
\[ {\normalsize h(x_{k}) = \frac{e^{x_{k}}}{\sum_{i=1}^{n} e^{x_{i}}} } \]
  • 実装
$ python
 >>> def softmax_func(x):    # ソフトマックス関数の定義
 ...     exp_x = np.exp(x)
 ...     sum_exp_x = np.sum(exp_x)
 ...     y = exp_x / sum_exp_x
 ...     return y
 ...    
  • グラフ出力
$ python
 >>> x = np.arange(-5.0, 5.0, 0.1)    # 区間を-5~5 まで、描画制度を 0.1 刻みに設定
 >>> y = koutou_func(x)    # ソフトマックス関数をコール
 >>> plt.title("softmax_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y")    # グラフタイトルを設定
 Text(0.5, 1.0, 'softmax_func\n# arange:-5.0, 5.0, 0.1, xlabel:x, ylabel:y')
 >>> plt.xlabel("x")    # x軸のラベルを設定
 Text(0.5, 0, 'x')
 >>> plt.ylabel("y")    # y軸のラベルを設定
 Text(0, 0.5, 'y')
 >>> plt.plot(x, y)
 [<matplotlib.lines.Line2D object at 0x7ff04a9c4d68>]
 >>> plt.savefig('/var/www/vops/ops/macuos/static/macuos/img/pid18_5.png')
 >>>

pid18_5

参考文献

  • 斎藤 康毅(2018)『ゼロから作るDeep Learning - Pythonで学ぶディープラーニングの理論と実装』株式会社オライリー・ジャパン


Copyright SIGMA-SE All Rights Reserved.
s-hama@sigma-se.jp