神经网络中的每个节点接受输入值,并将输入值传递给下一层,输入节点会将输入属性值直接传递给下一层(隐藏层或输出层)。在神经网络中,隐层和输出层节点的输入和输出之间具有函数关系,这个函数称为激励函数(激活函数)。
1、Sigmoid函数
%matplotlib inline import numpy as np import matplotlib.pylab as plt def sigmoid_function(x): return 1/(1 + np.exp(-x)) x = np.linspace(-5, 5) y = sigmoid_function(x) plt.plot(x, y) plt.show()
2、ReLU
%matplotlib inline import numpy as np import matplotlib.pylab as plt def relu_function(x): return np.where(x <= 0, 0, x) x = np.linspace(-5, 5) y = relu_function(x) plt.plot(x, y) plt.show()
3、SoftMax函数
import numpy as np def softmax_function(x): #print(np.exp(x)) return np.exp(x)/np.sum(np.exp(x)) # SoftMax函数 y = softmax_function(np.array([1,2,3])) print(y)
[0.09003057 0.24472847 0.66524096]