ResNet

传统卷积神经网络问题 卷积神经网络经过N层的卷积后,通常随着N的增大,会发生梯度消失,或梯度爆炸的问题。 上图 左边34层网络的错误率反而比18层的要高,就是随着层次的增加,网络没有效果甚至效果下降了。 因为每次计算后如果对自身求导后小于1,那么他的梯度值越来越小,最好接近消失了 相反,如果每次求导计算大于1,那么他的梯度越来越大,最好爆炸了。 如何解决网络退化问题 有没有一种网络算法能够真正做到
ResNet

故人去·清明

故人去 花依旧,白袅青衣,旧鸟傍枝头 断魂人 清明路,白发青丝,思念绕心头 河畔边,残阳映孤影 寂寞锁春秋 清明•2024
故人去·清明