我构建了一个基于从维基百科获取的数据的文章分类器,这些数据来自5个不同的分类。
它们是:
金融(15篇文章) [1,0,0,0,0]体育(15篇文章) [0,1,0,0,0]政治(15篇文章) [0,0,1,0,0]科学(15篇文章) [0,0,0,1,0]无(15篇与其他无关的随机文章) [0,0,0,0,1]
我从维基百科上下载了每个类别中大约15篇较长的文章,以构建我可以用来训练网络的语料库。
在从所有文章中收集了大约1000个单词的词汇表后,我将每篇文章转换成了词向量
,并附上了正确的分类器
标签。
词向量是一个热数组
,而标签是一个独热数组
。
例如,以下是一个文章的表示方式:
[ [0,0,0,1,0,0,0,1,0,0,... > 1000], [1,0,0,0] # 这映射到金融]
因此,实际上,我有一个随机的词向量
列表,它们映射到正确的分类器
。
我的网络是一个三层的深度神经网络,每层包含500个节点。我让网络运行超过30个周期,然后显示模型的准确率。
目前,我的准确率大约在53%到55%之间。我的问题是,如何将准确率提高到90%以上?这是否可能,还是我会因为试图训练这个模型而发疯?
此外,我的主要瓶颈是什么?
根据下面的评论进行了编辑
神经网络并不是设计为在单台机器上运行得最好的,它们在有集群或至少是生产级机器的情况下表现得更好。通常会消除语料库中的“长尾” – 如果一个术语只在一个文档中出现一次,你可能想要消除它。你可能还想应用一些词干提取,这样就不会捕捉到同一个词的多个变体。我强烈建议你在修剪之前尝试对你的语料库应用TFIDF变换。
网络大小优化本身就是一个领域。基本上,你尝试增加或减少节点,看看这会把你带到哪里。有关技术讨论,请参见以下内容。https://stats.stackexchange.com/questions/181/how-to-choose-the-number-of-hidden-layers-and-nodes-in-a-feedforward-neural-netw
回答:
没有看到数据就无法知道。
可以尝试的事情:
将你的词向量转换为TFIDF。你是否在去除停用词?你可以将双-gram/三-gram添加到你的词向量中。
增加更多的文章 – 在这么小的语料库中可能很难区分它们。特定文档的长度不一定有帮助,你需要更多的文章。
30个周期对我来说感觉非常少。