使用文本排名算法进行摘要与BERT摘要相比有什么优势?尽管两者都可以用作抽取式摘要方法,但文本排名是否有特别的优势?
回答:
文本排名实现通常较为轻量化,即使在内存资源有限的情况下也能快速运行,而像BERT这样的变换器模型往往较大,需要大量内存。虽然TinyML社区在技术上使深度学习模型在有限资源下运行方面有出色的工作,但在某些用例中,文本排名可能在资源方面具有优势。
一些文本排名实现可以通过添加语义关系来“引导”,这可以被视为丰富所用图形的先验结构,或者在某些情况下是引入人机协同方法的一种方式。这些可以提供比那些仅基于数据训练的监督学习模型更大的优势。即便如此,对于深度学习来说,也有类似的努力(例如,迁移学习的主题变体),变换器模型可能会从中受益。
另一个潜在的好处是,文本排名方法往往更为透明,而变换器模型在可解释性方面可能具有挑战。虽然有帮助很大的工具,但这一问题在模型偏见和公平性、数据伦理、监管合规性等背景下变得重要。
基于个人经验,作为一个流行文本排名开源实现的主要提交者,我仅在需要“廉价且快速”的解决方案的用例中使用其抽取式摘要功能。否则,我建议考虑更复杂的摘要方法。例如,我建议关注U Michigan的文本排名作者Rada Mihalcea及其研究生的持续研究。
在比较“哪种文本摘要方法效果更好?”时,我会指向生成式摘要的工作,特别是John Bohannon等人在Primer的最新工作。要查看优秀的例子,请查看他们的团队使用自然语言理解、知识图谱、生成式摘要等生成的CV19研究的“每日简报”。Amy Heineike在“解锁COVID-19论文、文章和对话的机器”中讨论了他们的方法。