穿越:2014_第234章 板上钉钉的收购(上) 首页

字体:      护眼 关灯

上一页 目录 下一章

本站域名并非永久域名!随时会关闭!请到→→→点击这里

   第234章 板上钉钉的收购(上) (第2/2页)

失得无影无踪。

    看到林灰所修改的内容,伊芙·卡莉才愈发明白她同林灰之间所隔着的距离远比其曾经设想的距离还要大。

    甚至一时间伊芙·卡莉有点绝望,原本以为在林灰身边几個月之后她同林灰的距离会逐渐缩短。

    但看到林灰补充之后的论文后,伊芙·卡莉却一时之间有种错觉。

    即她跟林灰之间的差距甚至有三四年之多。

    虽然只是三四年,但在算法方面迭代迅速的情况下,三四年的差距是相当大的。

    三四年的差距在某些算法岗位。

    差不多就是“前辈盆满钵满后浪没有饭碗”那种区别。

    可以说是相当冰冷残酷了。

    说实话伊芙·卡莉内心深处是一个极其骄傲的人。

    但自从林灰搞得东西问世之后,她内心的那份骄傲破碎了。

    在跟林灰日渐的接触中,她残存的骄傲更是荡然无存。

    不过这不代表她将要甘于落寞,因为在同林灰接触的过程中。

    伊芙·卡莉似乎接触到了另外的一些概念。

    林灰搞出的东西是有很多值得骄傲的资本的,但同林灰接触的过程中伊芙·卡莉却极少感受到来自于林灰的那份骄傲。

    恰恰相反,在林灰那伊芙·卡莉收获到的通常都是一种类似于平和的感觉……

    这种平和的感觉让伊芙·卡莉在异国他乡也能察觉到一丝温暖。

    伊芙·卡莉似乎也更加明白了。

    内心深处的宁静和平和似乎远远要比骄傲更重要。

    具体到林灰当时对伊芙·卡莉撰写的那篇论文的改动。

    客观来说,其实当时那篇论文涉及到生成式文本摘要这方面林灰的改动并不算很多。

    林灰只是补充了一些内容。

    但林灰补充的内容却几乎都是精髓之所在。

    通过林灰的补充内容伊芙·卡莉更进一步了解了林灰是如何搞定南风APP里面文本摘要技术的。

    林灰在就构建生成式文本摘要算法采取了很多巧妙的方法。

    无论是基于深度学习技术设计合适的模型架构和训练策略。

    还是借助迁移学习的思想提出了基于预训练模型的生成式自动文本摘要算法。

    抑或是通过无监督来完成内容表示以及权重计算。

    这些都是伊芙·卡莉此前所没想到,或者说从来没深刻认识的。

    一个相关领域的博士居然还有此前没认识到位的东西?

    听起来似乎有些不可思议,但事实如此。

    正所谓闻道有先后,术业有专攻。

    一时的落后于人也没什么不可承认的。

    而且伊芙·卡莉敢肯定她这种情况绝对不会是孤例。

    伊芙·卡莉觉得林灰所补充的内容未必只是她本人没想到。

    很多其余的研究者或许也是没想到的。

    甚至于林灰提出的一些新的见解相对于传统的抽取式文本摘要来说都可以说是全新的思路。

    反正伊芙·卡莉是觉得这些思路很奇妙,甚至有可以让人有一种醍醐灌顶之功效。

    之所以会有这样的功效,很大程度上是因为在此之前多数文本摘要的研究人员都是研究抽取式文本摘要的。

    抽取式文本摘要和生成式文本摘要虽然都是文本摘要。

    但从前者到后者的转变涉及到一个思路上转换的过程。

    很多时候多数传统文本摘要方面的研究人员亦即研究抽取式文本摘要的研究人员受先入为主的影响对生成式文本摘要认识不到位也是常有的事情。

    举个例子,就比如说林灰在搞定生成式文本摘要时所提出的预训练。

    按说,这个东西并不算什么高深的概念。

    所谓的预训练倒是不难理解,无非就是对训练模型的数据进行粗处理而已。

    但这玩意就比较难想到,以前伊芙·卡莉在进行抽取式文本摘要这方面的调校时候就几乎没用到预训练。

    多数情况下都是直接进行训练的,很少应用到预训练这一步骤。

    至于为什么省却了预训练这一步骤。

    是因为textrank算法在应用过程中就很少会进行数据训练。

    按照林灰在论文中进行的补充。

    预训练的通常做法一般是将大量低成本收集的训练数据放在一起。

    而后以某一种或者某一类特定预训方法去学习这些训练数据其中的共性。

    然后将其中的共性移植到特定任务的模型中。

    再使用相关特定领域的少量标注数据进行更细致的调校。

    完成这一过程之后,今后用于实际应用的模型模型只需要从共性出发。

    再去学习特定任务的特殊部分即可。

    大概类似于对于部分方程先求通解再去找特解的过程。

    听起来似乎蛮抽象的。

    实际上也没多么高深。

    涉及到机器学习这方面,无论多么高深的东西。

    其本质上基本都是在模仿人。

    因此只要了解人处理问题的方式,就能理解机器学习处理问题的方式。猪熊的穿越:2014



请记住本站永久域名

地址1→wodesimi.com
地址2→simishuwu.com
地址3→simishuwu.github.io
邮箱地址→simishuwu.com@gmail.com

加入书签 我的书架

上一页 目录 下一章