三層のニューラルネットワークを実装する

三層のニューラルネットワークをPythonで実装する。

\(X\)を入力 、 \(W\)を重み 、 \(B\)をバイアスとすれば各層の計算は行列を使って

\begin{align}
A=XW+B
\end{align}

と計算できるのでこれを関数化して実装する。出力層以外にはシグモイド関数を、出力層にはソフトマックス関数を使う。

次のように実装すればいい。

import numpy as np

def init_network():
    network = {}

    network['w1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
    network['b1'] = np.array([0.1, 0.2, 0.3])
    network['w2'] = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])
    network['b2'] = np.array([0.1, 0.2])
    network['w3'] = np.array([[0.1, 0.3], [0.2, 0.4]])
    network['b3'] = np.array([0.1, 0.2])

    return network


def sigmoid(x, mode):
    if mode == 0:
        return 1 / (1 + np.exp(-x))
    if mode == 1:
        return x
    if mode == 2:
        return softmax(x)


def neural_network(network, x):
    w1, w2, w3 = network['w1'], network['w2'], network['w3']
    b1, b2, b3 = network['b1'], network['b2'], network['b3']

    z1 = layer(x, w1, b1, 0)
    z2 = layer(z1, w2, b2, 0)
    z3 = layer(z2, w3, b3, 2)

    return z3


def layer(x, w, b, mode):
    return sigmoid(np.dot(x, w) + b, mode)


def softmax(x):
    sumx = np.sum(np.exp(x))
    y = np.exp(x) / sumx
    return y


network = init_network()
x = np.array([1, 0.5])
y = neural_network(network, x)

print(y)

コメント

タイトルとURLをコピーしました