科技评论

医学图像中的深度学习;元强化学习;深度神经网络的无损压缩等

  为了帮助各位学术青年更好地学习前沿研究成果和技术,联合Paper 研习社(paper.yanxishe.com),重磅推出【今日 Paper】栏目,

  每天都为你精选关于人工智能的前沿学术论文供你学习参考。以下是今日的精选内容——

  目录

  A Loss-Function for Causal Machine-Learnin

  Meta Reinforcement Learning with Autonomous Inference of Subtask Dependencie

  Wide Neural Networks with Bottlenecks are Deep Gaussian Processe

  DAWSON: A Domain Adaptive Few Shot Generation Framewor

  Multi-organ Segmentation over Partially Labeled Datasets with Multi-scale Feature Abstractio

  Deep Learning in Medical Image Registration: A Revie

  Fast and deep neuromorphic learning with time-to-first-spike codin

  End-to-end Named Entity Recognition and Relation Extraction using Pre-trained Language Model

  Localized Debiased Machine Learning: Efficient Estimation of Quantile Treatment Effects, Conditional Value at Risk, and Beyond

  因果机器学习的损失函数

  论文名称:A Loss-Function for Causal Machine-Learning作者:Yang I-Sheng发表时间:2020/1/2论文链接:https://paper.yanxishe.com/review/8168推荐理由:因果机器学习与预测治疗的净效果(真实提升)有关。给定治疗组和对照组的数据,它类似于标准的监督学习问题。不幸的是,由于数据中缺少逐点真实值,因此没有类似定义明确的损失函数。由于缺乏这种损失功能,现代机器学习的许多进步不能直接应用。作者提出了一种在这种情况下定义损失函数的新颖方法,该方法等于标准回归问题中的均方误差(MSE)。该损失函数是普遍适用的,因此提供了一个通用标准来评估可预测真实升力的任何模型/策略的质量。我们证明,尽管定义新颖,但仍然可以直接对这种损失函数执行梯度下降以找到最佳拟合。这导致了一种新的方法来训练任何基于参数的模型(例如深度神经网络)来解决因果机器学习问题而无需通过元学习器策略。

  具有子任务依赖项的自主推断的元强化学习

  论文名称:Meta Reinforcement Learning with Autonomous Inference of Subtask Dependencies作者:Sohn Sungryull /Woo Hyunjae /Choi Jongwook /Lee Honglak发表时间:2020/1/1论文链接:https://paper.yanxishe.com/review/8167推荐理由:作者提出并解决了一个新颖的快照式RL问题,其中任务以子任务图为特征,该子任务图描述了代理未知的一组子任务及其相关性。代理需要在适应阶段的几个情节中快速适应任务,以使测试阶段的收益最大化。作者没有直接学习元策略,而是开发了带有子任务图推理(MSGI)的元学习器,它通过与环境交互来推断任务的潜在参数,并在给定潜在参数的情况下最大化回报。为了促进学习,作者采用了固有的奖励方式,该奖励方式受到鼓励有效探索的上限置信度(UCB)的启发。作者在两个网格世界域和StarCraft II环境上的实验结果表明,与现有的元RL和分层RL方法相比,该方法能够准确地推断潜在任务参数,并且能够更有效地进行自适应。

  具有瓶颈的宽泛神经网络是高斯过程

  论文名称:Wide Neural Networks with Bottlenecks are Deep Gaussian Processes作者:Agrawal Devanshu /Papamarkou Theodore /Hinkle Jacob发表时间:2020/1/3论文链接:https://paper.yanxishe.com/review/8169推荐理由:最近,在神经网络的“宽限度”方面有很多工作,其中贝叶斯神经网络(BNN)被证明会收敛到高斯过程(GP),因为所有隐藏层都被发送到无限宽。但是,这些结果不适用于要求一个或多个隐藏层保持狭窄的体系结构。在本文中,作者考虑了BNN的宽限制,其中一些隐藏层(称为“瓶颈”)以有限的宽度保持。结果是GP的组合,作者称之为“瓶颈神经网络高斯过程”(瓶颈NNGP)。尽管直观,但证明的精妙之处在于表明,网络组成的广泛限制实际上就是限制性GP的组成。作者还从理论上分析了单瓶颈NNGP,发现该瓶颈在多输出网络的输出之间引起依赖性,该输出在无限的瓶颈后深度持续存在,并防止网络的内核在无限的瓶颈后失去鉴别力,深度。

  DAWSON:域自适应少量镜头生成框架

  论文名称:DAWSON: A Domain Adaptive Few Shot Generation Framework作者:Liang Weixin /Liu Zixuan /Liu Can发表时间:2020/1/2论文链接:https://paper.yanxishe.com/review/8170推荐理由:从头开始为新域训练生成对抗网络(GAN)需要大量的训练数据和几天的训练时间。为此,作者提出了DAWSON,这是一种基于元学习的GAN领域自适应FewShot生成框架。应用元学习GAN的主要挑战是,由于GAN的无可能性性质,通过在开发集上对其进行评估来获得生成器的梯度。为了解决这一挑战,作者提出了另一种GAN训练程序,该程序自然地将GAN的两步训练程序与元学习算法的两步训练程序结合在一起。DAWSON是一个即插即用框架,它支持广泛的元学习算法系列以及具有架构变量的各种GAN。在DAWSON的基础上,作者还提出了MUSIC MATINEE,这是第一个少拍音乐生成模型。作者的实验表明,MUSIC MATINEE可以仅使用目标域中的数十首歌曲就快速适应新域。其表明,DAWSON可以通过MNIST数据集中的四个样本来学习生成新的数字。作者在PyTorch和Tensorflow中发布了DAWSON的源代码实现,生成了两种流派的音乐样本和闪电视频。

  具有多尺度特征抽象的部分标记数据集的多器官分割

  论文名称:Multi-organ Segmentation over Partially Labeled Datasets with Multi-scale Feature Abstraction作者:Fang Xi /Yan Pingkun发表时间:2020/1/1论文链接:https://paper.yanxishe.com/review/8171推荐理由:本文提出了一种统一的训练策略,该策略使新型多尺度深层神经网络能够在多个部分标记的数据集上进行训练,以进行多器官分割。多尺度上下文信息对于像素级标签预测即图像分割有效。但是,这些重要信息仅被现有方法部分利用。在本文中,作者提出了一种用于多尺度特征抽象的新网络体系结构,该体系结构将金字塔特征分析集成到了图像分割模型中。为了弥合直接合并不同尺度特征引起的语义鸿沟,提出了一种相等的卷积深度机制。此外,作者建立了深层的监督机制,以细化不同规模的产出。为了充分利用不同比例的细分功能,作者设计了一个自适应加权层,以自动方式融合输出。所有这些特征一起集成到金字塔输入金字塔输出网络中,以进行有效的特征提取。最后但并非最不重要的一点是,为了减轻在训练深度分割模型中对完全注释数据的饥饿感,提出了一种统一的训练策略,以在多个部分标记的数据集上训练一个分割模型,以进行具有新颖目标自适应损失的多器官分割。作者的方法在包括BTCV,LiTS,KiTS和Spleen在内的四个可公开获得的数据集上进行了评估,其中取得了非常可观的性能。这项工作的源代码在下方URL上公开共享,以供其他人轻松地复制工作并使用引入的机制构建自己的模型。

Copyright © 2002-2019 huohu365.com. 火狐网 版权所有