Brainstorm框架中经常使用的激活函数有哪几种
Sigmoid函数:将输入映照到0和1之间的连续输出,经常使用于二元分类问题。
Tanh函数:将输入映照到⑴和1之间的连续输出,经常使用于隐藏层的激活函数。
ReLU函数:将负数输入映照为0,保持正数输入不变,是目前最流行的激活函数之一。
Leaky ReLU函数:在负数输入时引入一个小的斜率,解决了ReLU函数负数输入时的问题。
ELU函数:类似于Leaky ReLU函数,但在负数输入时引入一个指数增长的斜率。
Softmax函数:将多个输入映照到(0,1)之间的连续输出,并且保证所有输出的和为1,经常使用于多分类问题。
Swish函数:结合了Sigmoid和ReLU的优点,相比ReLU有更好的性能表现。
Mish函数:一种类似于Swish的激活函数,目前在一些深度学习框架中得到了利用。
这些激活函数在神经网络的训练中起着相当重要的作用,选择适合的激活函数可以提高模型的性能和训练速度。
TOP