常见的神经网络激活函数

1. 激活函数需要满足的特点

(1) 连续并可导(允许少数点上不可导)的非线性函数. 可导的激活函数可以

直接利用数值优化的方法来学习网络参数.

(2) 激活函数及其导函数要尽可能的简单,有利于提高网络计算效率.

(3) 激活函数的导函数的值域要在一个合适的区间内,不能太大也不能太小,

否则会影响训练的效率和稳定性.

2. 常见的神经网络激活函数

2.1 SigMoid型函数

(1)Logistic函数

Logistic函数将输入值规划到(0,1)之间,输入数绝对值越大结果越接近于1,输入数绝对值值越小结果越接近于0。由于Logistic函数的结果范围性质,是的该函数的输出可以直接看做概率分布,是的神经网络可以与统计模型更好的结合,它也可以视为一个Soft Gate,用于控制其他神经元的输出信息数量。

(2)Tanh函数

Than函数的取值范围是(-1,1),Than可以看做是对Logistic函数的放大,可以表示为:tanh(?) = 2?(2?) − 1 ,Tanh函数的输出是零中心化 的(Zero-Centered),而 Logistic 函数的输出恒大于 0。非零中心化的输出会使得其后一层的神经元的输入发生偏置偏移(Bias Shift),并进一步使得梯度下降的收敛速度变慢。

阅读剩余
THE END