引导词在深度神经网络中通常用作神经元的激活函数,称为**修正线性单元(Rectified linear unit,ReLU ) *。 ReLU是从神经科学的研究开始的。 2001年,Dayan,Abo … Continue reading gelu 激活函数,神经网络输出层激活函数
引导词在深度神经网络中通常用作神经元的激活函数,称为**修正线性单元(Rectified linear unit,ReLU ) *。 ReLU是从神经科学的研究开始的。 2001年,Dayan,Abo … Continue reading gelu 激活函数,神经网络输出层激活函数