np.dot函数主要用于向量的点积和矩阵的乘法,格式如下np.dot(a,b),其中a,b均为n维向量,具体例子参考下面的代码及其结果。在神经网络中经常使用这个函数,能够节约大量的时间,原来复杂的公式在编程时只需要这一行代码即可实现。
在编写python程序时,有时候我们会需要得到两个向量相乘的结果,一般是两个矩阵的乘积。有时候编程的时候不注意可能会出现这种情况:
import numpy as np
a = np.random.randn(5) #这不是一个行向量,是一个数组(5,)
print(a)
print(a.shape)
print(a.T) #转置过来没有变化
print(np.dot(a,a.T)) #最后乘积出来是一个数字
要注意:np.random.randon(5)得到的是一个数组,形状为(5,)。但是输出的结果长得很像一个5*1的矩阵。将它转置过来不会发生改变,最后做乘积得到的是一个数字,并不是你要的矩阵的乘积。上述代码的输出结果如下:
[ 1.83234374 -1.42303068 0.17362862 0.0281536 2.17256547]
(5,)
[ 1.83234374 -1.42303068 0.17362862 0.0281536 2.17256547]
10.133480151566388
正确写法如下:获得一个向量(5*1的矩阵),再和它的转置矩阵相乘得到矩阵的乘积。
#编写神经网络时,应该这么写
a = np.random.randn(5,1)#这才是一个5*1的向量
print(a)
print(a.shape) #形状为(5,1)
print(a.T)#1*5的矩阵
print(np.dot(a,a.T))#向量的外积得到一个矩阵
得到的目标结果如下:
[[ 0.88401514]
[ 0.63202567]
[ 0.56104107]
[-0.11580824]
[ 2.03433548]]
(5, 1)
[[ 0.88401514 0.63202567 0.56104107 -0.11580824 2.03433548]]
[[ 0.78148276 0.55872026 0.4959688 -0.10237624 1.79838335]
[ 0.55872026 0.39945645 0.35459236 -0.07319378 1.28575225]
[ 0.4959688 0.35459236 0.31476709 -0.06497318 1.14134576]
[-0.10237624 -0.07319378 -0.06497318 0.01341155 -0.23559281]
[ 1.79838335 1.28575225 1.14134576 -0.23559281 4.13852084]]