要创建自定义自动求导函数,需要继承torch.autograd.Function类,并实现forward和backward方法。以下是一个简单的示例:
import torch class CustomFunction(torch.autograd.Function): @staticmethod def forward(ctx, input): ctx.save_for_backward(input) # 保存输入用于反向传播 output = input * 2 return output @staticmethod def backward(ctx, grad_output): input, = ctx.saved_tensors grad_input = grad_output * 2 # 计算输入的梯度 return grad_input # 使用自定义自动求导函数 x = torch.tensor([3.0], requires_grad=True) custom_func = CustomFunction.apply y = custom_func(x) # 计算梯度 y.backward() print(x.grad) # 输出tensor([2.])
在上面的示例中,我们定义了一个叫做CustomFunction的自定义自动求导函数,实现了forward和backward方法。我们可以像使用其他PyTorch函数一样使用这个自定义函数,并计算梯度。