Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
从源头理解Batch Normalization (顺带搞懂为什么做参数初始化)
一 BN LN等一系列Normalization方法的动机 因为一个网络中某层的参数的梯度 最终是由训练样本中这层输入的各个feature的具体数值决定的 如果feature的数值变化范围过大 比如不同特征的含义就导致了取值范围不在一个数量
深度学习
机器学习
BN
归一化
参数初始化