pytorch教程之自动求导机制(AUTOGRAD)-从梯度和Jacobian矩阵讲起

329 阅读3分钟

本文已参与「新人创作礼」活动,一起开启掘金创作之路。

1. 梯度和Jacobian矩阵

f(x)R1f(x)\in R^1是关于向量xRnx\in R^n的函数,则它关于xx的导数定义为:

df(x)dx:=[f(x)xi]Rn(1-1)\frac{df(x)}{dx}:=\left[\frac{\partial f(x)}{\partial x_i}\right]\in R^{n}\tag{1-1}

函数f(x)R1f(x)\in R^1关于向量xRnx\in R^n的导数是一个列向量,称之为f(x)f(x)关于xx的梯度。

df(x)Tdx:=(df(x)dx)T=[f(x)xi]TR1×n(1-2)\frac{df(x)^T}{dx}:=\left(\frac{df(x)}{dx}\right)^T=\left[\frac{\partial f(x)}{\partial x_i}\right]^T\in R^{1\times n}\tag{1-2}

如果f(x)RMf(x)\in R^M是关于向量xRnx\in R^n的函数向量,则f(x)f(x)关于xx的导数定义为:

df(x)dx:=df(x)dxT=[f(x)x1,f(x)x2,,f(x)xn]Rm×n(1-3)\frac{df(x)}{dx}:=\frac{df(x)}{dx^T}=\left[\frac{\partial f(x)}{\partial x_1},\frac{\partial f(x)}{\partial x_2},\cdots,\frac{\partial f(x)}{\partial x_n}\right]\in R^{m\times n}\tag{1-3}

称上述矩阵为Jacobian矩阵。 一些常用推论:

  1. 假设v,xRnv,x\in R^n:
ddx(vTx)=ddx(xTv)=v(1-4)\frac{d}{dx}(v^Tx)=\frac{d}{dx}(x^Tv)=v\tag{1-4}
  1. 假设yR1y\in R^1,zRmz\in R^m,xRnx\in R^n,z=g(x)z=g(x),y=f(z):
dydx=(dzdx)Tdydz(1-5)\frac{dy}{dx}=\left(\frac{dz}{dx}\right)^T\frac{dy}{dz}\tag{1-5}

可以从向量矩阵的维度适配上去理解和记忆,因为dydxRn\frac{dy}{dx}\in R^n,dydzRm\frac{dy}{dz}\in R^m,dzdxRm×n\frac{dz}{dx}\in R^{m\times n},所以必须有上述的公式才能适配。 3. 假设yRky\in R^k,zRmz\in R^m,xR1x\in R^1,z=g(x)z=g(x),y=f(z):

dydx=dydzdzdx(1-6)\frac{dy}{dx}=\frac{dy}{dz}\frac{dz}{dx}\tag{1-6}
  1. 假设yRky\in R^k,zRmz\in R^m,xRnx\in R^n,z=g(x)z=g(x),y=f(z):
dydx=dydzdzdx(1-7)\frac{dy}{dx}=\frac{dy}{dz}\frac{dz}{dx}\tag{1-7}

2. pytorch求变量导数的过程

在pytorch和TensorFlow中,是不支持张量对张量的求导。这不是因为数学上没法求,而是因为工程实现上比较麻烦。因为向量对向量求导是个矩阵,二阶张量(矩阵)对二阶张量(矩阵)求导得到一个四阶张量,这样很容易会产生阶数爆炸。所以pytorch和TensorFlow(猜测其他深度学习框架也是这样)对外的接口干脆不支持张量对张量求导。如果遇到张量对张量求导的情况,例如向量对向量求导的情况,需要对因变量乘以一个维度一样的向量,转换为标量对向量的求导,这样可以大大减少计算量(具体见后文)。并且,因为pytorch和TensorFlow是为了机器学习/深度学习模型设计的,机器学习/深度模型的求导基本上都是损失函数(标量)对参数的求导,很少直接用到向量对向量求导,因此上述过程是有实际意义和需求的。

假设有一个三维tensor x=[x1,x2,x3]T=[1,2,3]Tx=[x_1,x_2,x_3]^T=[1,2,3]^T,另一个三维tensor y:

y=f(x)=[x13+2x22+3x33x1+2x22+x332x1+x23+3x32](2-1)y=f(x)= \begin{bmatrix} {x_1}^3+2{x_2}^2+3x_3 \\ 3x_1+2{x_2}^2+{x_3}^3\\ 2x_1+{x_2}^3+3{x_3}^2 \end{bmatrix} \tag{2-1}

那么在计算y相对于x的导数时,

dydx=[3x12,4x2,33,4x2,3x322,3x22,6x3](2-2)\frac{dy}{dx}= \begin{bmatrix} &3{x_1}^2,&4x_2,&3 \\ &3,&4{x_2},&3{x_3}^2\\ &2,&3{x_2}^2,&6{x_3} \end{bmatrix} \tag{2-2}

在pytorch中实际计算时,不能直接用y对x求导,需要先用一个向量ww左乘y,再转置。例如,wT=[3,2,1]w^T=[3,2,1]。因此,pytorch算的其实是:

dyTdxw=(wTdydx)T=[175281](2-3)\frac{dy^T}{dx}w= \left(w^T\frac{dy}{dx}\right)^T =\begin{bmatrix} 17\\ 52\\ 81\\ \end{bmatrix} \tag{2-3}

ww可以理解为是对[y1x,y2x,y3x]T[\frac{\partial y_1}{\partial x},\frac{\partial y_2}{\partial x},\frac{\partial y_3}{\partial x}]^T的权重参数。因此我们得到的是y的各个分量的导数的加权求和。

代码如下:

import torch
x1=torch.tensor(1, requires_grad=True, dtype = torch.float)
x2=torch.tensor(2, requires_grad=True, dtype = torch.float)
x3=torch.tensor(3, requires_grad=True, dtype = torch.float)
y=torch.randn(3)
y[0]=x1**3+2*x2**2+3*x3
y[1]=3*x1+2*x2**2+x3**3
y[2]=2*x1+x2**3+3*x3**2
v=torch.tensor([3,2,1],dtype=torch.float)
y.backward(v)
print(x1.grad)
print(x2.grad)
print(x3.grad)

利用链式求导的原理来理解,可以理解为ww是(远方)某个标量对yy的导数。pytorch之所以要这么设计,是因为在机器学习/深度学习模型中,求导的最终目的一般是为了让损失函数最小。损失函数一般都是一个标量,因此无论链式求导的过程多么复杂,中间过程也许有很多向量对向量求导的子过程,但是最开始一定会有一个标量(损失函数)对向量的求导过程,这个导数就是前面的ww

下面看一个带两个隐藏层的神经网络解决线性回归问题的例子,来进一步说明这点。 为了简单起见,考虑batch_size=1的情况。设输入数据为x=[x1,x2]Tx=[x_1,x_2]^T,输入层到第一个隐藏层的权重矩阵为

W=[w1Tw2T]=[w11,w12w21,w22](2-4)W=\begin{bmatrix} w_1^T\\ w_2^T \end{bmatrix} = \begin{bmatrix} w_{11},w_{12}\\ w_{21},w_{22}\\ \end{bmatrix} \tag{2-4}

第一个隐藏层的值为z=[z1,z2]Tz=[z_1,z_2]^T, 第一个隐藏层到第二个隐藏层的权重矩阵为

U=[u1Tu2T]=[u11,u12u21,u22](2-5)U=\begin{bmatrix} u_1^T\\ u_2^T \end{bmatrix} = \begin{bmatrix} u_{11},u_{12}\\ u_{21},u_{22}\\ \end{bmatrix} \tag{2-5}

第二个隐藏层的值为s=[s1,s2]Ts=[s_1,s_2]^T, 输出层的值为yy,隐藏层到输出层的权重参数为v=[v1,v2]Tv=[v_1,v_2]^T。则有:

z=[z1z2]=[w11,w12w21,w22][x1x2]=[w11x1+w12x2w21x1+w22x2](2-6)z=\begin{bmatrix} z_1\\ z_2\\ \end{bmatrix}= \begin{bmatrix} w_{11},w_{12}\\ w_{21},w_{22}\\ \end{bmatrix}\begin{bmatrix} x_1\\ x_2\\ \end{bmatrix}= \begin{bmatrix} w_{11}x_1+w_{12}x_2\\ w_{21}x_1+w_{22}x_2\\ \end{bmatrix}\tag{2-6}
s=[s1s2]=[u11,u12u21,u22][z1z2]=[u11(w11x1+w12x2)+u12(w21x1+w22x2)u21(w11x1+w12x2)+u22(w21x1+w22x2)](2-7)\begin{aligned} s&=\begin{bmatrix} s_1\\ s_2\\ \end{bmatrix}= \begin{bmatrix} u_{11},u_{12}\\ u_{21},u_{22}\\ \end{bmatrix}\begin{bmatrix} z_1\\ z_2\\ \end{bmatrix}\\ &= \begin{bmatrix} u_{11}(w_{11}x_1+w_{12}x_2)+u_{12}(w_{21}x_1+w_{22}x_2)\\ u_{21}(w_{11}x_1+w_{12}x_2)+u_{22}(w_{21}x_1+w_{22}x_2)\\ \end{bmatrix}\tag{2-7} \end{aligned}
y=[v1,v2][s1s2]=(v1u11x1+v2u21x1)w11+(v1u11x2+v2u21x2)w12+(v1u12x1+v2u22x1)w21+(v1u12x2+v2u22x2)w22(2-8)\begin{aligned} y&= [v_1,v_2]\begin{bmatrix} s_1\\ s_2\\ \end{bmatrix}\\ &=(v_1u_{11}x_1+v_2u_{21}x_1)w_{11}\\ &+(v_1u_{11}x_2+v_2u_{21}x_2)w_{12}\\ &+(v_1u_{12}x_1+v_2u_{22}x_1)w_{21}\\ &+(v_1u_{12}x_2+v_2u_{22}x_2)w_{22} \end{aligned}\tag{2-8}

损失函数为L=(yy^)2/2L=(y-\hat y)^2/2 则损失函数关于权重参数w1w_1的导数为:

dLdw1=(yy^)dydx=(yy^)dsTdxdyds=(yy^)dzTdxdsTdzdyds=(yy^)[x1,0x2,0][u11,u21u12,u22][v1v2]=(yy^)[v1x1u11+v2x1u21v1x2u11+v2x2u21](2-9)\begin{aligned} \frac{dL}{dw_1}&=(y-\hat y)\frac{dy}{dx}\\ &=(y-\hat y)\frac{ds^T}{dx}\frac{dy}{ds}\\ &=(y-\hat y)\frac{dz^T}{dx}\frac{ds^T}{dz}\frac{dy}{ds}\\ &=(y-\hat y)\begin{bmatrix} x_1,0\\ x_2,0\\ \end{bmatrix} \begin{bmatrix} u_{11},u_{21}\\ u_{12},u_{22}\\ \end{bmatrix} \begin{bmatrix} v_1\\ v_2 \end{bmatrix}\\ &=(y-\hat y)\begin{bmatrix} v_1x_1u_{11}+v_2x_1u_{21}\\ v_1x_2u_{11}+v_2x_2u_{21} \end{bmatrix}\\ \end{aligned}\tag{2-9}

可以验证(29)(2-9)和前面(28)(2-8)中直接求得的导数值是一样的。 这里发现了一个小彩蛋: 假设在pytorch的底层实现中,如果从左往右计算,则需要进行进行大量的矩阵乘法。如果有n个2×22\times 2的方阵相乘,那么需要进行4×(n1)4\times (n-1)次内积。如果从又往左计算,只需要进行2×n2\times n次内积。