返回博客列表 Untitled 2026-02-04 AINotes/999.深度学习调参指南 Hongwei Zhao ReLu、Sigmoid、Softmax、Tanh是最常用的4个激活函数。 对于输出层,常用sigmoid和softMax激活函数,中间层常用ReLu激活函数,RNN常用Tanh激活函数。 评论
评论