公司动态

卡内基梅隆大学开发AI届的“欧亨利”,能斩获普利策奖吗?【雅博体育】

2021-09-01 02:01 阅读次数:

本文摘要:高级的自然语言处置系统,比如OpenAI的GPT-2,可以写人性化的语言,这一点令人印象深刻印象。然而,这样的人工智能的语言往往缺少说服力和连贯性。其最明显的特点就是他们无法写令人信服的作品——人工智能分解的故事往往是标准化的,缺少上下文。 为解决问题这一问题,卡内基梅隆大学计算机科学学院的科学家们设计出有一种方法,即为一个等价的故事建构更加多“多样化”的结尾。他们回应,研究的关键是训练人工模型把注意力集中于在故事的最重要短语上,增进非标准化词的分解。

雅博体育官网

高级的自然语言处置系统,比如OpenAI的GPT-2,可以写人性化的语言,这一点令人印象深刻印象。然而,这样的人工智能的语言往往缺少说服力和连贯性。其最明显的特点就是他们无法写令人信服的作品——人工智能分解的故事往往是标准化的,缺少上下文。

为解决问题这一问题,卡内基梅隆大学计算机科学学院的科学家们设计出有一种方法,即为一个等价的故事建构更加多“多样化”的结尾。他们回应,研究的关键是训练人工模型把注意力集中于在故事的最重要短语上,增进非标准化词的分解。“故事情境由相连人物和事件的一系列句子包含。

这项任务具备挑战性,因为它必须对上下文中的角色,事件和对象展开建模,然后根据它们分解连贯且合理的结尾。总结事件和实体的语义以及它们在有所不同故事中的关系是一项十分最重要的任务,”年出版者写到,“我们的研究指出,两者的融合不会带给更加多样、更加有意思的结局。”团队利用seq2seq模型(一种长短期记忆迭代神经网络架构,需要自学倚赖关系),并创立合乎目标故事情境的文字的数学回应,自学这些文字之间的关系,将他们转化成为人类格式化的文本。

为了统合故事上下文中的关键短语,研究人员用于了一种取名为RAKE的算法,该算法根据单词的经常出现频率和共计现度为短语分配分数,然后根据适当的分数对短语展开手动排序,并将高于一定阈值的短语弃置。为了使模型需要分解更加非常丰富的结尾,科学家们通过ROCStories数据集升级了他们的模型,该数据集包括多达50,000个五句话的故事。为了评估该模型,他们用于DIST算法计算出来得出结论不反复的一元模型(来自等价文本或语音样本的n个项目的倒数序列)、二元模型(一对倒数写出单位如字母、音节,或文字)和三元模型(三个倒数写出单位)的数量,并将它们与一元、二元和三元模型的总数量DFT。

在另一项测试中,他们训练谷歌的BERT已完成开源故事填空任务,让BERT在等价两个选项的情况下自由选择准确的故事结尾,从而将模型与基线展开较为。那么人工智能的展现出如何呢?似乎想要获得普利策奖是不有可能了。虽然它在DIST测试中名列前茅,且故事完形填空的正确率超过了72%,但它有时候也不会得出一些可笑的结尾,比如“凯蒂被自己搞得瓦解了,扯了男友”,或者不准确的代词(“凯蒂”、“他自己”)。研究人员否认,必须更进一步的研究来保证输入“语义和象征物层面上的上下文”,并且它们在逻辑上是合理和完全一致的。

尽管如此,他们声称他们早已“定量地”和“定性地”指出他们的模型需要打破基线,构建“有意义的”改良。


本文关键词:雅博体育官网,卡内基,梅隆,大学,开发,届的,“,欧亨利,”,能

本文来源:雅博体育-www.yangguangyey.com