Diganta Misra的一篇题为“Mish: A Self Regularized Non-Monotonic Neural Activation Function”的新论文介绍了一个新的深度学习激活函数,该函数在最终准确度上比Swish(+.494%)和ReLU(+ 1.671%)都有提高。
ReLU和Mish的对比,Mish的梯度更平滑
Mish=x * tanh(ln(1+e^x))
![preview](https://pic1.zhimg.com/v2-7827ccfe70418bd5180f60e1abad8b10_r.jpg)
函数图像:
![preview](https://pic1.zhimg.com/v2-fc22b992e5a24df294b5d40211e33ecc_r.jpg)
常见激活函数:
![preview](https://pic4.zhimg.com/v2-fadf101bd844539325467a489e65abdf_r.jpg)
Diganta Misra的一篇题为“Mish: A Self Regularized Non-Monotonic Neural Activation Function”的新论文介绍了一个新的深度学习激活函数,该函数在最终准确度上比Swish(+.494%)和ReLU(+ 1.671%)都有提高。
ReLU和Mish的对比,Mish的梯度更平滑
Mish=x * tanh(ln(1+e^x))
函数图像:
常见激活函数: