CNN 论文阅读

参考网站:

知乎,计算机视觉论文速递   

https://zhuanlan.zhihu.com/c_172507674

 

 

1. 《CBAM: Convolutional Block Attention Module》

ECCV 2018

《CNN 论文阅读》

CBAM integrated with a ResBlock in ResNet

Abstract:我们提出了卷积块注意力模块(CBAM,Convolutional Block Attention Module ),这是一种用于前馈卷积神经网络的简单而有效的注意力(attention)模块。给定中间特征图,我们的模块沿着两个单独的维度(通道和空间)顺序地(sequentially)推断注意力图,然后将注意力图乘以输入特征图以进行自适应特征细化。由于CBAM是一个轻量级的通用模块,它可以无缝地集成到任何CNN架构中,代价可以忽略不计,并且可以与基本CNN一起进行端到端的训练。 我们通过对ImageNet-1K,MS~COCO检测和VOC~2007检测数据集的大量实验来验证我们的CBAM。 我们的实验表明,各种模型在分类和检测性能方面均有一定的改进,证明了CBAM的广泛适用性。 代码和模型将随后公开提供。

arXiv:链接:https://arxiv.org/abs/1807.06521

注:很棒的论文,相信可以帮助一波同学写论文(划水)

2. CVPR 2019

RePr: Improved Training of Convolutional Filters

3. Data Augmentation

《Modeling Visual Context is Key to Augmenting Object Detection Datasets》

ECCV 2018

Abstract:众所周知,用于深度神经网络的数据增广(data augmentation)对于训练视觉识别系统是十分重要的。通过人为增加训练样本的数量,它有助于减少过度拟合并改善泛化。对于物体检测(object detection),用于数据增强的经典方法包括生成通过基本几何变换和原始训练图像的颜色变化获得的图像。在这项工作中,我们更进一步,利用 segmentation annotations 来增加训练数据上存在的对象实例的数量。为了使这种方法获得成功,我们证明,适当地建模对象周围的视觉上下文( visual context )对于将它们放置在正确的环境中至关重要。否则,我们会发现之前的策略确实会受到伤害。通过我们的上下文(context)模型,当VOC’12基准测试中很少有标记示例可用时,我们实现了显著的平均精度改进。

arXiv:https://arxiv.org/abs/1807.07428

4. http://www.cs.cmu.edu/~pengtaox/

正交论文

Regularizing CNNs with Locally Constrained Decorrelations

一个新的正则的方法。就是说不希望 weight 的 channel 之间太相关。想象一个一层的网络,如果 channel 之间相关,就说明有些 channel 是浪费的。这篇文章就是对 channel 之间的 correlation 加了 penalty,让他不能太大,要 weight 越正交越好。

    原文作者:JUC
    原文地址: https://blog.csdn.net/zhuiqiuk/article/details/88196871
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞