汇聚层

实现汇聚层的正向传播

In [2]:
import torch
from torch import nn
from d2l import torch as d2l

def pool2d(X, pool_size, mode='max'):
    p_h, p_w = pool_size
    Y = torch.zeros((X.shape[0] - p_h + 1, X.shape[1] - p_w + 1))
    for i in range(Y.shape[0]):
        for j in range(Y.shape[1]):
            if mode == 'max':
                Y[i, j] = X[i:i + p_h, j:j + p_w].max()
            elif mode == 'avg':
                Y[i, j] = X[i:i + p_h, j:j + p_w].mean()
    return Y

验证二维最大汇聚层的输出

In [3]:
X = torch.tensor([[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]])
pool2d(X, (2, 2))
Out[3]:
tensor([[4., 5.],
        [7., 8.]])

验证平均汇聚层

In [4]:
pool2d(X, (2, 2), 'avg')
Out[4]:
tensor([[2., 3.],
        [5., 6.]])

填充和步幅

In [5]:
X = torch.arange(16, dtype=torch.float32).reshape((1, 1, 4, 4))
X
Out[5]:
tensor([[[[ 0.,  1.,  2.,  3.],
          [ 4.,  5.,  6.,  7.],
          [ 8.,  9., 10., 11.],
          [12., 13., 14., 15.]]]])

深度学习框架中的步幅与池化窗口的大小相同

In [6]:
pool2d = nn.MaxPool2d(3)
pool2d(X)
Out[6]:
tensor([[[[10.]]]])

填充和步幅可以手动设定

In [7]:
pool2d = nn.MaxPool2d(3, padding=1, stride=2)
pool2d(X)
Out[7]:
tensor([[[[ 5.,  7.],
          [13., 15.]]]])

设定一个任意大小的矩形池化窗口,并分别设定填充和步幅的高度和宽度

In [8]:
pool2d = nn.MaxPool2d((2, 3), padding=(1, 1), stride=(2, 3))
pool2d(X)
Out[8]:
tensor([[[[ 1.,  3.],
          [ 9., 11.],
          [13., 15.]]]])

汇聚层在每个输入通道上单独运算

In [9]:
X = torch.cat((X, X + 1), 1)
X
Out[9]:
tensor([[[[ 0.,  1.,  2.,  3.],
          [ 4.,  5.,  6.,  7.],
          [ 8.,  9., 10., 11.],
          [12., 13., 14., 15.]],

         [[ 1.,  2.,  3.,  4.],
          [ 5.,  6.,  7.,  8.],
          [ 9., 10., 11., 12.],
          [13., 14., 15., 16.]]]])
In [10]:
pool2d = nn.MaxPool2d(3, padding=1, stride=2)
pool2d(X)
Out[10]:
tensor([[[[ 5.,  7.],
          [13., 15.]],

         [[ 6.,  8.],
          [14., 16.]]]])