问:笔记一, mobile-net,端上卷积神经
- 答:小结:
1. 核心思想是采用 depth-wise convolution 操作,在相同的权值参数数量的情况下,相较于 standard convolution 操作,可以减少数倍的计算量,从而达到提升 运算速度的目的。
2. depth-wise convolution 的思想非首创,借鉴于 2014 年一篇博士论文:《L. Sifre. Rigid-motion scattering for image classification. hD thesis, Ph. D. thesis, 2014》
3. 采用 depth-wise convolution 会有一个问题,就是导致「信息流余陵判通不畅」,即输出的 feature map 仅包含输入的 feature map 的一部分,在这里, 采用了 point-wise convolution 解决这个问题。在后来, 采用同样的思想对 进行改进竖改,只不过把 point-wise convolution 换成了 channel shuffle,然后给 美汪帆其名曰 ,欲知后事如何,请看 2.3
问:卷积神经
- 答:卷积神经 (Convolutional work,CNN)是一种常用于图像处理、计算机视觉和自然语言处理等领域的深度学习模型。它通过卷积操作来提取输入数据中的特征,具有平移不变性、参数共享和稀疏连接等优点。
卷积神经 主要由卷积层、池化层和全连接层等组成。其中,卷积层是卷积神经 的核心部分,它通过滑动一个卷积核在输入数据上进行卷积操作,提取出数据的局部特征。池化层用于降低特征图的维度,减少计算量和内存消耗,一般采用最大池化或平均池化等方式。全连接层用于将卷积层和池化层提取的特征进行分类或回归等操作。
卷积神经 的训练过程一般采用反向传播算法进行优化,通过对 的参数进行迭代更新来使损失函薯早橘数最小化。在训练过程中,常用的优化算法包括随机梯度下降(SGD)、Adam、Adagrad等。
卷积神经 已经在图像分类睁盯、物体检测、语义分割、人脸识别等领域取得了广泛的应用,并且在深度学习领域中成为了非常重数团要的模型之一。