整理下dp
更深的模型,意味着更好的非线性表达能力 从而可以拟合更加复杂的特征输入。 更强大的表达能力和逐层的特征学习
宽度就起到了另外一个作用,那就是让每一层学习到更加丰富的特征
Data Augmentation
Rotation \ Flip \ Zoom in & out \ adding noise \ crop
Hyper Parameter
learning rate \ epoch \ 激活函数:sigmoid,relu \ batch size \ optimizer
‘BatchNormalization
L1, L2 Regularization 减小过拟合
Early Stop
Change optimizer
梯度爆炸:梯度爆炸指神经网络训练过程中大的误差梯度不断累积,导致模型权重出现重大更新。 会造成模型不稳定,无法利用训练数据学习
residual block 残差块; bottleneck 瓶颈 网络的参数减少了很多,深度也加深了 Depthwise Convolution Pointwise Convolution CHANNEL SHUFFLE FOR GROUP CONVOLUTION CHANNEL SPLIT
IMBALANCED DATA
We can also conclude that efficient models can keep accuracy as complicated models and extremely decrease memory consumption and prediction time
数据分析:
AARRR漏斗模型: 逻辑树: 产品在市场上占比大:1价格:成本低 售价低 2 质量:质量好 3 营销:营销好