字体:大 中 小
护眼
关灯
上一页
目录
下一章
第234章 板上钉钉的收购(上) (第6/6页)
要方面的研究人员亦即研究抽取式文本摘要的研究人员受先入为主的影响对生成式文本摘要认识不到位也是常有的事情。 举个例子,就比如说林灰在搞定生成式文本摘要时所提出的预训练。 按说,这个东西并不算什么高深的概念。 所谓的预训练倒是不难理解,无非就是对训练模型的数据进行粗处理而已。 但这玩意就比较难想到,以前伊芙·卡莉在进行抽取式文本摘要这方面的调校时候就几乎没用到预训练。 多数情况下都是直接进行训练的,很少应用到预训练这一步骤。 至于为什么省却了预训练这一步骤。 是因为textrank算法在应用过程中就很少会进行数据训练。 按照林灰在论文中进行的补充。 预训练的通常做法一般是将大量低成本收集的训练数据放在一起。 而后以某一种或者某一类特定预训方法去学习这些训练数据其中的共性。 然后将其中的共性移植到特定任务的模型中。 再使用相关特定领域的少量标注数据进行更细致的调校。 完成这一过程之后,今后用于实际应用的模型模型只需要从共性出发。 再去学习特定任务的特殊部分即可。 大概类似于对于部分方程先求通解再去找特解的过程。 听起来似乎蛮抽象的。 实际上也没多么高深。 涉及到机器学习这方面,无论多么高深的东西。 其本质上基本都是在模仿人。 因此只要了解人处理问题的方式,就能理解机器学习处理问题的方式。猪熊的穿越:2014
上一页
目录
下一章