人工智能研究不包括_ 人工智能如何写科学技术类文章?美国麻省理工华裔研究生最新论文

科学家的工作包括阅读充满专业技术用语的期刊论文,阐明如何用没有科学背景的读者能够理解的语言解释他们的内容。

目前,麻省理工学院和其他地区的科学家团队开发了神经网络、人工智能( AI ),至少可以在有限的范围内阅读科学论文,在一两句中提出简单的英语摘要。

在这种有限的形式下,这种神经网络用于帮助编辑,作家和科学家扫描大量论文,初步理解他们的内容。 但是,团队开发的方法除了语言处理之外,还可以在机器翻译和语音识别等各个领域找到应用。

在麻省理工大学的研究生阿曼·邓戈夫斯基和李静( Li Jing )在《计算语言学协会学报》发表的论文中叙述了这项工作。

从物理学的AI到自然语言

这项工作的原因是为了解决物理学中的一些棘手问题而设计的基于神经网络的新人工智能开发项目。 但是,研究人员很快就意识到,同样的方法可以用来解决其他困难的计算问题(包括自然语言处理),这种方法可能超越了现有的神经网络系统。

“我们在AI工作了很多年,”Soljačić说。 “我们运用人工智能来帮助我们的研究,主要是为了更好地完成物理学。 我们对AI的了解越多,就会意识到有机会增加AI的领域。 因为物理学知道数学的构造和物理学的法则等。 我们发现,通过使用这些算法,我们可以实际帮助这些算法及其特定的AI算法。 " "

他说,这种方法可用于各种特定类型的任务,但并非全部。 “虽然我们不能说对所有的AI都有帮助,但有时我们可以改进利用物理洞察给出的AI算法。”

一般来说,神经网络试图模仿人类学习新知识的方式:计算机检验了很多不同的例子,什么是“学习”的重要潜在模式。 这样的系统被广泛应用于模式识别,例如学习识别照片中所描绘的对象等。

然而,神经网络通常难以使来自长行数据的信息与例如说明研究论文所需的信息相关联。 研究人员表示,为了改善这种能力,使用了各种技术。 举例来说,虽然已有被称作长时间存储( LSTM )和门递归单元( GRU )的技术,但这些技术还不能充分满足真正的自然语言处理的需要。

该团队提出了不是基于矩阵的算法而是像许多传统神经网络那样基于多维空间旋转向量的替代系统。 重要的概念是他们称之为旋转记忆单位( RUM )。

基本上,系统通过多维空间中的向量表示文本中的每个单词,并指向指向特定方向的特定长度的行。 每个后续单词在某个方向上分配这个向量,用理论空间表现的话,最终可以拥有数千个维度。 完成此过程后,最终向量或向量集将转换为相应的字符串。

“RUM帮助神经网络做好了两件事情,”Nakov说。 "这有助于他们更好地记住,更准确地回忆信息. "

Soljačić回忆说,开发了RUM系统,在处理了复杂的工程材料中的光的行为等一些棘手的物理问题之后,“我认为这个方法有用的可能是自然语言处理。” 他指出,与Tatalović的对话是有助于作为编辑决定要写哪篇论文的工具。 Tatalović当时正在探索科学新闻的人工智能作为他的骑士团契约项目。

“我试过自然语言处理的任务,”Soljačić说。 “我们所尝试的是归纳文章,看起来很有效”

证据就是阅读

例如,他们通过传统的基于LSTM的神经网络和基于RUM的系统来提供相同的研究论文。 得到的摘要大不相同。

LSTM系统得到了这一高度重复和技术总结。 “Baylisascariasis”杀死老鼠,威胁亚历克森林,引起失明和严重后果等疾病。 这种被称为“baylisascariasis”的感染会导致老鼠死亡,威胁阿雷格尼森林,引起失明和严重后果等疾病。 这种被称为“贝利莎scarasis”的感染杀死了老鼠,已经威胁着阿雷格尼森林。

基于同一论文,RUM系统产生了更加可读的摘要,不包括不必要的重复短语:城市浣熊比以前的假设感染者更多。 7%的受访者检测到浣熊蛔虫抗体阳性。 圣芭芭拉90%以上的浣熊是这种寄生虫的寄主。

由于扩展了基于RUM的系统,不仅可以“阅读”摘要,还可以“阅读”整篇研究论文,并且可以制作内容摘要。 研究人员试图在自己的研究论文中使用这个系统来记述这些发现——这篇报道总结的论文。

以下是一个新的神经网络总结:研究人员为RUM的旋转单元开发了一个新的表达过程,RUM是解决自然语言处理中广泛神经革命的循环记忆。

该研究得到陆军研究室、国家科学基金会、麻省理工大学- sensetime人工智能联盟和半导体研究公司的支持。 该团队还得到了《科学日报》网站的支持,该网站的报道用于训练本研究的人工智能模型。

大家都在看

相关专题