神经网络中的未知错误。是因为矩阵不满足交换律吗?

我在构建第一个神经网络时遇到了麻烦,实在找不到错误的来源。

问题

我在阅读Tariq Rashid写的书“Make your own neural network”时,尝试实现了一个手写识别神经网络,用于分类图像并确定从0到9的数字。

在训练神经网络后,测试显示每个数字的匹配度约为99%,这显然是错误的。

怀疑

书中作者处理神经网络矩阵的方式与我有些不同。例如,他将输入-隐藏层权重与输入相乘,而我则是将输入与输入-隐藏层权重相乘。

这是我在查询神经网络(前馈)时进行矩阵乘法的示意图:

示意图

我知道矩阵的点积不具备交换律,但我没有注意到自己在这里犯了错误。

  1. 我应该采取不同的方法吗?例如,转置所有矩阵并以不同的顺序进行乘法?
  2. 输入和输出矩阵的维度是否有事实上的标准?例如,它们应该成形为1×n还是n×1?

如果这种方法是错误的,那么它肯定会在使用梯度下降进行训练的反向传播中表现出来。

源代码

import numpy as npimport matplotlib.pyplotfrom matplotlib.pyplot import imshowimport scipy.special as scipyfrom PIL import Imageclass NeuralNetwork(object):    def __init__(self):        self.input_neuron_count = 28*28 # 每个像素一个,总共有28*28 = 784个。        self.hidden_neuron_count = 100 # 任意选择。        self.output_neuron_count = 10 # 从0到9的每个数字一个。        self.learning_rate = 0.1 # 任意选择。        # 从以零为中心且标准差与节点传入链接数相关的正态概率分布中抽样权重        # 标准差为1/√(传入链接数)。        generate_random_weight_matrix = lambda input_neuron_count, output_neuron_count: (             np.random.normal(0.0,  pow(input_neuron_count, -0.5), (input_neuron_count, output_neuron_count))        )        self.input_x_hidden_weights = generate_random_weight_matrix(self.input_neuron_count, self.hidden_neuron_count)        self.hidden_x_output_weights = generate_random_weight_matrix(self.hidden_neuron_count, self.output_neuron_count)        self.activation_function = lambda value: scipy.expit(value) #  sigmoid函数    def train(self, input_array, target_array):        inputs = np.array(input_array, ndmin=2)        targets = np.array(target_array, ndmin=2)        hidden_layer_input = np.dot(inputs, self.input_x_hidden_weights)        hidden_layer_output = self.activation_function(hidden_layer_input)        output_layer_input = np.dot(hidden_layer_output, self.hidden_x_output_weights)        output_layer_output = self.activation_function(output_layer_input)        output_errors = targets - output_layer_output        self.hidden_x_output_weights += self.learning_rate * np.dot(hidden_layer_output.T, (output_errors * output_layer_output * (1 - output_layer_output)))        hidden_errors = np.dot(output_errors, self.hidden_x_output_weights.T)        self.input_x_hidden_weights += self.learning_rate * np.dot(inputs.T, (hidden_errors * hidden_layer_output * (1 - hidden_layer_output)))    def query(self, input_array):        inputs = np.array(input_array, ndmin=2)        hidden_layer_input = np.dot(inputs, self.input_x_hidden_weights)        hidden_layer_output = self.activation_function(hidden_layer_input)        output_layer_input = np.dot(hidden_layer_output, self.hidden_x_output_weights)        output_layer_output = self.activation_function(output_layer_input)        return output_layer_output

复制(训练和测试)

训练和测试数据的原始来源是The MNIST Database。我使用了从书作者网页The MNIST Dataset of Handwitten Digits下载的CSV版本。

这是我迄今为止用于训练和测试的代码:

def prepare_data(handwritten_digit_array):    return ((handwritten_digit_array / 255.0 * 0.99) + 0.0001).flatten()def create_target(digit_target):    target = np.zeros(10) + 0.01    target[digit_target] = target[digit_target] + 0.98    return target# 训练neural_network = NeuralNetwork()training_data_file = open('mnist_train.csv', 'r')training_data = training_data_file.readlines()training_data_file.close()for data in training_data:    handwritten_digit_raw = data.split(',')    handwritten_digit_array = np.asfarray(handwritten_digit_raw[1:]).reshape((28, 28))    handwritten_digit_target = int(handwritten_digit_raw[0])    neural_network.train(prepare_data(handwritten_digit_array), create_target(handwritten_digit_target))# 测试test_data_file = open('mnist_test_10.csv', 'r')test_data = test_data_file.readlines()test_data_file.close()for data in test_data:    handwritten_digit_raw = data.split(',')    handwritten_digit_array = np.asfarray(handwritten_digit_raw[1:]).reshape((28, 28))    handwritten_digit_target = int(handwritten_digit_raw[0])    output = neural_network.query(handwritten_digit_array.flatten())    print('target', handwritten_digit_target)    print('output', output)

回答:

这是一个令人脸红的时刻。神经网络一直按预期工作。事实是我现在才注意到我忽略了测试结果,并且错误地读取了科学记数法中的数字

输入图像描述

在The MNIST Database的10000个测试数据上测量,这个神经网络的准确率为94.01%。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注