返回博客列表

Untitled

  • ReLu、Sigmoid、Softmax、Tanh是最常用的4个激活函数。
  • 对于输出层,常用sigmoid和softMax激活函数,中间层常用ReLu激活函数,RNN常用Tanh激活函数。

评论