我在构建第一个神经网络时遇到了麻烦,实在找不到错误的来源。
问题
我在阅读Tariq Rashid写的书“Make your own neural network”时,尝试实现了一个手写识别神经网络,用于分类图像并确定从0到9的数字。
在训练神经网络后,测试显示每个数字的匹配度约为99%,这显然是错误的。
怀疑
书中作者处理神经网络矩阵的方式与我有些不同。例如,他将输入-隐藏层权重与输入相乘,而我则是将输入与输入-隐藏层权重相乘。
这是我在查询神经网络(前馈)时进行矩阵乘法的示意图:
我知道矩阵的点积不具备交换律,但我没有注意到自己在这里犯了错误。
- 我应该采取不同的方法吗?例如,转置所有矩阵并以不同的顺序进行乘法?
- 输入和输出矩阵的维度是否有事实上的标准?例如,它们应该成形为1×n还是n×1?
如果这种方法是错误的,那么它肯定会在使用梯度下降进行训练的反向传播中表现出来。
源代码
import numpy as npimport matplotlib.pyplotfrom matplotlib.pyplot import imshowimport scipy.special as scipyfrom PIL import Imageclass NeuralNetwork(object): def __init__(self): self.input_neuron_count = 28*28 # 每个像素一个,总共有28*28 = 784个。 self.hidden_neuron_count = 100 # 任意选择。 self.output_neuron_count = 10 # 从0到9的每个数字一个。 self.learning_rate = 0.1 # 任意选择。 # 从以零为中心且标准差与节点传入链接数相关的正态概率分布中抽样权重 # 标准差为1/√(传入链接数)。 generate_random_weight_matrix = lambda input_neuron_count, output_neuron_count: ( np.random.normal(0.0, pow(input_neuron_count, -0.5), (input_neuron_count, output_neuron_count)) ) self.input_x_hidden_weights = generate_random_weight_matrix(self.input_neuron_count, self.hidden_neuron_count) self.hidden_x_output_weights = generate_random_weight_matrix(self.hidden_neuron_count, self.output_neuron_count) self.activation_function = lambda value: scipy.expit(value) # sigmoid函数 def train(self, input_array, target_array): inputs = np.array(input_array, ndmin=2) targets = np.array(target_array, ndmin=2) hidden_layer_input = np.dot(inputs, self.input_x_hidden_weights) hidden_layer_output = self.activation_function(hidden_layer_input) output_layer_input = np.dot(hidden_layer_output, self.hidden_x_output_weights) output_layer_output = self.activation_function(output_layer_input) output_errors = targets - output_layer_output self.hidden_x_output_weights += self.learning_rate * np.dot(hidden_layer_output.T, (output_errors * output_layer_output * (1 - output_layer_output))) hidden_errors = np.dot(output_errors, self.hidden_x_output_weights.T) self.input_x_hidden_weights += self.learning_rate * np.dot(inputs.T, (hidden_errors * hidden_layer_output * (1 - hidden_layer_output))) def query(self, input_array): inputs = np.array(input_array, ndmin=2) hidden_layer_input = np.dot(inputs, self.input_x_hidden_weights) hidden_layer_output = self.activation_function(hidden_layer_input) output_layer_input = np.dot(hidden_layer_output, self.hidden_x_output_weights) output_layer_output = self.activation_function(output_layer_input) return output_layer_output
复制(训练和测试)
训练和测试数据的原始来源是The MNIST Database。我使用了从书作者网页The MNIST Dataset of Handwitten Digits下载的CSV版本。
这是我迄今为止用于训练和测试的代码:
def prepare_data(handwritten_digit_array): return ((handwritten_digit_array / 255.0 * 0.99) + 0.0001).flatten()def create_target(digit_target): target = np.zeros(10) + 0.01 target[digit_target] = target[digit_target] + 0.98 return target# 训练neural_network = NeuralNetwork()training_data_file = open('mnist_train.csv', 'r')training_data = training_data_file.readlines()training_data_file.close()for data in training_data: handwritten_digit_raw = data.split(',') handwritten_digit_array = np.asfarray(handwritten_digit_raw[1:]).reshape((28, 28)) handwritten_digit_target = int(handwritten_digit_raw[0]) neural_network.train(prepare_data(handwritten_digit_array), create_target(handwritten_digit_target))# 测试test_data_file = open('mnist_test_10.csv', 'r')test_data = test_data_file.readlines()test_data_file.close()for data in test_data: handwritten_digit_raw = data.split(',') handwritten_digit_array = np.asfarray(handwritten_digit_raw[1:]).reshape((28, 28)) handwritten_digit_target = int(handwritten_digit_raw[0]) output = neural_network.query(handwritten_digit_array.flatten()) print('target', handwritten_digit_target) print('output', output)
回答:
这是一个令人脸红的时刻。神经网络一直按预期工作。事实是我现在才注意到我忽略了测试结果,并且错误地读取了科学记数法中的数字。
在The MNIST Database的10000个测试数据上测量,这个神经网络的准确率为94.01%。