如何为文本分类微调HuggingFace BERT模型

已关闭。 此问题正在寻求关于软件库、教程、工具、书籍或…

在多标签分类问题中应用自定义损失函数时出现TypeError

我正在尝试使用huggingface transfor…

如何在使用自定义数据集进行微调后检查混淆矩阵?

这个问题与如何在使用自定义数据集进行微调后检查混淆矩阵…

使用huggingface transformers进行多次训练,除了第一次之外,结果将完全相同

我有一个函数,它会从huggingface加载预训练模…

Transformers库中Pegasus模型的最大输入长度(词/句)

在Transformers库中,Pegasus模型的最…

运行run_seq2seq.py Transformers训练脚本时出错

我正在尝试训练一个seq2seq模型。我在Colab中…

BERT总是预测同一类别(微调)

我在一个金融新闻数据集上对BERT进行微调。不幸的是,…

将seq2seq NLP模型转换为ONNX格式是否会对其性能产生负面影响?

我正在考虑将一个机器学习NLP模型转换为ONNX格式,…

使用XLNet进行情感分析 – 设置正确的重塑参数

根据这个链接,我尝试使用自己的数据进行情感分析。但是我…

使用与训练时相同的数据进行预测时发生错误(期望3个输入,但接收到75个输入张量。)

在训练模型后,我尝试进行预测,但出现了错误,我不知道如…

如何使用注意力掩码计算HuggingFace Transformers BERT标记嵌入的平均值/最大值?

我正在使用HuggingFace Transforme…

使用CLI命令训练BERT

我已经从这里的变换器仓库下载了HuggingFace的…

从huggingface特征提取管道中获取句子嵌入

如何从huggingface的特征提取管道中获取整个句…

BERT tokenize URLs

我想对一堆推文进行分类,因此我使用了Hugging F…

为什么不能在多标签分类中使用交叉熵损失?

我正在对BERT模型进行微调,用于Natural Qu…

PyTorch torch.no_grad() 与 requires_grad=False 的区别

我正在学习一个PyTorch教程,该教程使用来自Hug…

使用transformers库中的Bert模型进行encode()方法返回的tokens

我有一个用于情感分析的小型数据集。分类器将是一个简单的…

如何预下载一个变换器模型

我想在一个Flask应用程序中执行文本生成任务,并将其…

Tensorflow 2.0 Hugging Face Transformers, TFBertForSequenceClassification, 推理时意外输出维度

摘要: 我想在自定义数据集上对BERT进行微调以进行句…

Tensorflow/Keras/BERT 多类文本分类准确率

我正在尝试微调 HuggingFace 的 TFBer…

使用LIME进行BERT变换器可视化结果时出现内存错误

情况:我目前正在使用LIME包,根据这个教程,可视化我…

BertForSequenceClassification是否使用CLS向量进行分类?

我正在使用Huggingface Transforme…

BertForSequenceClassification与BertForMultipleChoice在句子多类分类中的应用

我正在处理一个文本分类问题(例如情感分析),需要将一段…

如何加载微调后的视觉大语言模型?以Moondream模型为例

我已经针对自己的图像推理案例微调了moondream模…

blip2类型不匹配异常

我在尝试使用hugging face的blip2模型在…