这篇教程keras常用层Core写得很实用,希望能帮到您。
常用层Core
- Dense(全连接层):输入和输出都是n维张量.实现的运算是output=activation(dot(input,kernel)+bias).作为第一层时需要指定输出维度units和输入维度input_shape,后续层只用指定units即可.主要参数有激活函数activation以及对权值,偏置向量和输出的各种设置.
- Activation(激活层):对一个层的输出施加激活函数,参数只有activation,作为第一层时要指定input_shape.
- Dropout:在训练过程中每次更新参数时按一定概率随机断开输入神经元,用于防止过拟合.主要参数有断开比例rate.
- Flatten:把多维的输入一维化,常用在从卷积层到全连接层的过渡,不会影响batch的大小.
- Reshape:把输入shape转换为特定的shape,参数只有target_shape.当shape的其余维度确定后,可以用-1来指代剩下一个未确定的值.
- Permute:将输入的维度按照规定模式进行重排,例如将RNN和CNN网络连接时.参数只有dims,用整数tupel指定了重排的模式.
- RepeatVector:将输入重复n次,参数只有n.
- Lambda:对上一层的输入施加任何Theano/TensorFlow表达式.主要参数有函数function和output_shape
- AvtivityRegularizer:不会改变数据,但是会基于激活值更新损失函数值.参数有l1正则因子l1和l2正则因子l2
- Masking:根据给定的值对输入的序列信号进行屏蔽.如果输入张量在某个时间步上都等于给定值,则该时间步将在模型接下来所有支持masking的层被屏蔽.参数只有mask_value.
Keras函数式(Functional)模型 keras卷积层Convolutional |