Aggregated Residual Transformations for Deep Neural Networks

​ 我们为图像分类提出一个简单高度模块化的网络结构。网络通过重复一个block来构建,这个block聚合了一组有相同拓扑的转换。我们的简单设计产生了一个同构的多分支的 架构,它只需要设置几个超参数。这个策略揭示了一个新的维度,我们称之为"基数-cardinality"(这组转换的大小),除了深度和宽度之外的一个关键因子。在ImageNet-1K数据集上,我们的实验表明,在控制复制度的受限情况下,增加基数可以提升分类精度。而且当提升模型容量时(即增加模型复杂度),提升基数比更深或更宽更加有效。我们的模型叫ResNeXt,是参加ILSVRC 2016分类任务的基础,我们获得了第二名。我们进一步在ImageNet-5K 数据集和COCO检测数据集上研究ResNeXt,同样展示了比对应的ResNet更好的结果。代码和模型公布在https://github.com/facebookresearch/ResNeXt


You need to set client_id and slot_id to show this AD unit. Please set it in _config.yml.