穿越:2014_第153章 大洋彼岸的邀约 首页

字体:      护眼 关灯

上一页 目录 下一页

   第153章 大洋彼岸的邀约 (第2/4页)

但总是这样的话太被动了。

    想要当老大,就得敢为天下先)

    虽然这个时空在相关领域的研究仅仅是节奏上慢了两年时间。

    但两年足以改变很多事情了。

    更何况,林灰原本就有着七年的信息优势。

    此消彼长之下,林灰就相当于有了接近十年的信息优势。

    或许有人不解,仅仅只是工作了三年,林灰凭什么能够把信息优势发挥的淋漓尽致。

    虽然前世仅仅工作了三年,但林灰说是有六年的工作经验也不过分。

    至于多余的三年工作经验哪来的?

    这说多了都是泪,加班加出来的。

    不得不说,这都是“福报”.2

    这加班多是一件美逝啊。

    不是这样的疯狂加班林灰哪有能够重生的机会?

    纵然能有重生的机会。

    不疯狂加班林灰怎么会对那些枯燥的东西记忆如此深刻呢?

    不过这些都是前尘往事了。

    因为过往的种种经历,在现在这个时空里,林灰就是当之无愧的强者。

    至于同领域的其他研究者,林灰尊重他们的努力。

    但不得不说:抱歉,你们真的好弱欸!

    并不是林灰在信口开河。

    林灰先前搞得那个生成式文本摘要这个算法所涉及到的全部技术。

    如果被这个时空下的研究团队彻底吃透。

    起码能将这个时空全世界自然语言处理以及神经网络学习方面的研究进展加速近一年的时间。

    当然这说的是马上吃透的话,能加速近一年时间。

    如果这些研究团队花了两三年才搞定相应的进展,那反而是拖累他们正常的进度了。

    抛开生成式文本摘要这个专利不谈。

    仅仅是林灰在弄生成式文本摘要时顺手牵羊搞定的那个LH文本摘要准确度衡量模型也够牛掰的了。

    如果这项技术能够被这个时空的研究团队所掌握的话,对于他们的研究也是有所助力的。

    尽管林灰当初就把如何构建模型表达的已经足够清楚,就差手把手教了。

    (构建模型的话首先要运用语言模型来评估算法生成语言的流畅度,然后使用相似度模型评估文本和摘要之间的语义相关性,最后为了有效评估实体、专有词的复现程度,引入原文信息量模型来评估)

    但此时的研究人员似乎仍然很好奇林灰是怎么构建这一衡量标准的。

    林灰记得先前伊芙·卡莉在他发的邮件中就表达了对于“LH文本摘要准确度衡量模型”究竟是如何构建的困惑。

    林灰记得伊芙·卡莉当初除了好奇林灰是怎么搞定语料库这个问题之外。

    其困惑主要集中在林灰究竟采用什么方法架构相似度模型的。

    当知道世界最顶尖学府附属的研究机构的科研人员居然好奇这事,林灰还是意外的。

    林灰踌躇满志地盖了一个“华丽的房子”。

    原本以为这个时空人们会好奇林灰是怎么盖出这个房子的。

    没想到反倒先被问道盖房子的木头是从哪开采的?

    这就是林灰当初收到伊芙·卡莉邮件时的直观感受。

    不过如果诚如伊芙·卡莉在邮件里介绍的那般,林灰也能理解伊芙·卡莉为什么困惑。

    涉及到相似度模型的架构一般都是通过计算的方式。

    通过计算语义文本相似度以衡量这两个文本的语义相似度。

    一般来说,语义相似度值越小,两个文本之间的语义差异越大,它们在语义层面的相似度越低;

    反之,该值越大,两个文本表达的语义越相似。

    或许在人们看来,区分相似文本是很简单的一件事情啊?

    这不是随便读一下就能搞定么?

    但是要知道区分相似文本不是要人来区分,而是要机器区分相似文本。

    涉及到相似度模型的构建确实不是容易的事情,毕竟人类语言表达是极其复杂的。

    更遑论大部分专业性比较强的文章里文本中还存在许多同义词、缩略语、特指词和多变的句法结构。

    这些都极大地增加了计算文本语义相似度的难度。

    但这个问题不解决不行,林灰知道计算文本语义相似度是一个很重要的分支领域。

    在信息检索领域,语义文本相似性计算在文本分类、文本聚类和实体消歧等任务中发挥着重要作用;

请记住本站永久域名

地址1→wodesimi.com
地址2→simishuwu.com
地址3→simishuwu.github.io
邮箱地址→simishuwu.com@gmail.com

加入书签 我的书架

上一页 目录 下一页