Pytorch 拷贝数据

本文最后更新于:2022年7月4日 上午

本文记录Pytorch拷贝数据的几种方法,clone(), detach(), new_tensor(), copy_()。

1、clone()

clone()函数返回一个和源张量同shape、dtype和device的张量,与源张量不共享数据内存,但提供梯度的回溯。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import torch

a = torch.tensor(1.0, requires_grad=True)
y = a ** 2
a_ = a.clone()
z = a_ * 3
y.backward()
print(a.grad) # 2
z.backward()
print(a_.grad) # None, 无grad
print(a.grad) # 5. a_的梯度会传递回给a,因此2+3=5


a = a + 1
print(a_) # 1

梯度回溯:进行的运算梯度会加在a(叶子节点)的梯度上。

1
2
3
4
5
6
7
8
9
10
11
import torch

a = torch.tensor(1.0, requires_grad=True)
a_ = a.clone()
a_.add_(torch.tensor(1.0))
print(a) # tensor(1., requires_grad=True)
print(a_) # tensor(2., grad_fn=<AddBackward0>)
a_.backward()
print(a_.grad) # None
print(a.grad) # tensor(1.)
可以发现不共享内存空间。

2、detach()

detach()函数返回一个和源张量同shape、dtype和device的张量,并且与源张量共享数据内存,但不提供梯度的回溯。

1
2
3
4
5
6
7
8
9
10
11
12
import torch

a = torch.tensor(1.0, requires_grad=True)
y = a ** 2
a_ = a.detach()
print(a_.grad) # None,requires_grad=False
a_.requires_grad_() # set a_.requires_grad = True
z = a_ * 3
y.backward()
z.backward()
print(a_.grad) # tensor(3.)
print(a.grad) # tensor(2.)

可见,a_即使重新定义requires_grad=True,也与a的梯度没有关系。

1
2
3
4
5
6
7
8
9
import torch

a = torch.tensor(1.0, requires_grad=True)
a_ = a.detach()
a_.add_(torch.tensor(1.0))
print(a) # tensor(2., requires_grad=True)
print(a_) # tensor(2.)
# a_.backward()
# print(a.grad) # RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn

容易验证a与a_共享内存空间

3、torch.clone.detach() (建议赋值方法)

clone()提供了非数据内存共享的梯度追溯功能,而detach又“舍弃”了梯度回溯功能,因此clone.detach()只做简单的数据复制,既不数据共享,也不梯度共享,从此两个张量无关联。
置于是先clone还是先detach,其返回值一样,一般采用sourcetensor.clone().detach()。

4、new_tensor()

new_tensor()可以将源张量中的数据复制到目标张量(数据不共享),同时提供了更细致的属性控制:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
import torch

a = torch.tensor(1.0, device="cuda", dtype=torch.float32, requires_grad=True)
b = a.clone()
c = a.detach()
d = a.clone().detach()
e = a.new_tensor(a) # more attributions could be setted
f = a.new_tensor(a, device="cpu", dtype=torch.float64, requires_grad=False)
print(a) # tensor(1., device='cuda:0', requires_grad=True)
print(b) # tensor(1., device='cuda:0', grad_fn=<CloneBackward>)
print(c) # tensor(1., device='cuda:0')
print(d) # tensor(1., device='cuda:0')
print(e) # tensor(1., device='cuda:0')
print(f) # tensor(1., dtype=torch.float64)

5、copy_()

1
2
3
4
5
6
7
8
9
10
import torch

a = torch.tensor(1.0, device="cpu", requires_grad=False)
b = torch.tensor(2.0, device="cuda", requires_grad=True)
print(a) # tensor(1.)
print(b) # tensor(2., device='cuda:0', requires_grad=True)
a.copy_(b)
print(a) # tensor(2., grad_fn=<CopyBackwards>)
print(a.device) # cpu
print(a.requires_grad) # True

copy_()会将b复制给a,同时改变 a 的 requires_grad 属性,但不改变 device 属性。(当a.requires_grad=False是copy_()方法会报错)

参考资料


Pytorch 拷贝数据
https://www.zywvvd.com/notes/study/deep-learning/pytorch/torch-copy/torch-copy/
作者
Yiwei Zhang
发布于
2021年8月18日
许可协议