您好、欢迎来到现金彩票网!
当前位置:大兴彩票 > 改善性维护 >

新框架提高了深度神经网络的性能

发布时间:2019-06-27 17:16 来源:未知 编辑:admin

  北卡罗来纳州立大学的研究人员开发了一种新的框架,用于通过语法引导网络生成器构建深度神经网络。在实验测试中,新的网络(称为AOGNets)在视觉识别任务中的表现优于现有的最先进的框架,包括广泛使用的ResNet和DenseNet系统。

  “AOGNets比我们比较的任何网络都具有更好的预测准确性,”北卡罗来纳州电气和计算机工程助理教授兼工作论文的通讯作者Tianfu Wu说。“AOGNets也更具解释性,这意味着用户可以看到系统如何得出结论。”

  新框架使用组合语法方法进行系统架构,该方法利用先前网络系统的最佳实践,以更有效地从原始数据中提取有用信息。

  “我们发现,分层和组合语法为我们提供了一种简单,优雅的方式来统一以前的系统架构所采用的方法,而据我们所知,这是第一项利用语法进行网络生成的工作,”Wu说。

  为了测试他们的新框架,研究人员开发了AOGNets,并针对三种图像分类基准测试它们:CIFAR-10,CIFAR-100和ImageNet-1K。

  “AOGNets在公平比较中获得的性能明显优于所有最先进的网络,包括ResNets,DenseNets,ResNeXts和DualPathNets,”Wu说。“AOGNets还使用ImageNet中的网络剖析度量获得了最佳模型可解释性评分.AOGNets进一步显示了对抗性防御和平台无关部署(移动与云端)的巨大潜力。”

  “AOGNets获得了比ResNet和ResNeXt主干更好的结果,模型尺寸更小,推理时间相似或稍好一些,”Wu说。“结果显示了AOGNets在对象检测和分割任务中学习更好功能的有效性。

  这些测试是相关的,因为图像分类是视觉识别的核心基本任务之一,ImageNet是标准的大规模分类基准。同样,对象检测和分割是两个核心高级视觉任务,MS-COCO是最广泛使用的基准之一。

  “为了评估视觉识别中深度学习的新网络架构,它们是金色的测试平台,”吴说。“AOGNets是在原则语法框架下开发的,并且在ImageNet和MS-COCO中都获得了显着的改进,因此在许多实际应用中表现出对表示学习的潜在广泛和深远的影响。

  “我们对语法引导的AOGNet框架感到兴奋,并且正在探索其在其他深度学习应用中的表现,例如深层自然语言理解,深度生成学习和深度强化学习,”吴说。

  该论文“AOGNets:深度学习的组合语法架构”将于6月16日至20日在加利福尼亚州长滩举行的IEEE计算机视觉与模式识别大会上发表。论文的第一作者是李希来,博士.D。NC州的学生。该论文由独立研究员习松共同撰写。

  这项工作是在美国陆军研究办公室的支持下完成的,资金来源为W911NF1810295和W911NF1810209。

http://ememes.net/gaishanxingweihu/697.html
锟斤拷锟斤拷锟斤拷QQ微锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷微锟斤拷
关于我们|联系我们|版权声明|网站地图|
Copyright © 2002-2019 现金彩票 版权所有