基于概率的深度可分离卷积网络通道剪枝
Probability-Based Channel Pruning for Depthwise Separable Convolutional Networks
-
摘要: 1、研究背景(Context):作为网络压缩中最重要的技术之一,通道剪枝能以很小的性能损失来减少内存消耗和运行时间。通道剪枝技术促进了人工智能在日常生活应用中的发展,诸如无人驾驶汽车、机器人技术和增强现实等。但是,现有的通道剪枝方法主要集中于标准卷积网络的剪枝研究,并且主要依靠耗时的微调技术来达到性能的提升。
2、目的(Objective):本文利用逐通道卷积对每个通道仅使用一个滤波器、并且不会改变通道数量的特性,研究一种面向深度可分离卷积网络的有效通道剪枝方法。
3、方法(Method):本文提出了一种基于概率的深度可分离卷积通道剪枝方法。首先,充分利用深度可分离卷积中BN和ReLU的特性,提出了一种新的基于概率的剪枝准则。如果某一BN层的输出在概率上极有可能小于或等于0,则相应通道被视为不重要的通道,可以执行剪枝操作。然后,由于逐通道卷积的输入通道数与输出通道数相同,基于通道一致性保持原则将每个待剪枝通道分为四种情况,根据不同的情况进行有效地剪枝操作。最后,运用偏移因子融合技术来避免通道剪枝过程中引入的数值误差。
4、结果(Result & Findings):本文在公开数据集CIFAR10、CIFAR100和ImageNet上测试了本文方法的有效性。本文对MobileNetV1、MobileNetV2、ShuffleNetV1、ShuffleNetV2和GhostNet等多个深度可分离卷积网络进行通道剪枝实验。实验结果表示,本文方法在识别精度和参数数量上均能取得较好的结果。其中,在ImageNet数据集,基于本文方法所得到的网络模型与MobileNetV1基准模型相比减少了约40%参数量和40%计算量。
5、结论(Conclusions):本文提出了一种基于概率的深度可分离卷积网络通道剪枝方法。基于BN缩放和偏移因子提出了一种简单有效的基于概率的通道剪枝准则,并且运用偏移因子融合技术进一步提高通道剪枝性能。在公开数据上的实验结果展现了本文方法的可行性。Abstract: Channel pruning can reduce memory consumption and running time with least performance damage, and is one of the most important techniques in network compression. However, existing channel pruning methods mainly focus on the pruning of standard convolutional networks, and they rely intensively on time-consuming fine-tuning to achieve the performance improvement. To this end, we present a novel efficient probability-based channel pruning method for depthwise separable convolutional networks. Our method leverages a new simple yet effective probability-based channel pruning criterion by taking the scaling and shifting factors of batch normalization layers into consideration. A novel shifting factor fusion technique is further developed to improve the performance of the pruned networks without requiring extra time-consuming fine-tuning. We apply the proposed method to five representative deep learning networks, namely MobileNetV1, MobileNetV2, ShuffleNetV1, ShuffleNetV2, and GhostNet, to demonstrate the efficiency of our pruning method. Extensive experimental results and comparisons on publicly available CIFAR10, CIFAR100, and ImageNet datasets validate the feasibility of the proposed method.