App下載

Pytorch怎么獲取無梯度Tensor中的值?

猿友 2021-07-19 15:16:29 瀏覽數(shù) (2718)
反饋

很多小伙伴在使用兩個網(wǎng)絡(luò)并行計算的時候會出現(xiàn)一些小問題,原因是一個網(wǎng)絡(luò)的輸出值要給另一個網(wǎng)絡(luò)反饋,而反饋的輸出值再有網(wǎng)絡(luò)權(quán)重的梯度,這時候我們就需要給tensor去權(quán)重了,那么pytorch怎么獲取無梯度tensor呢?接下來小編就來介紹一下小編是怎么做的。

遇到的問題:

使用兩個網(wǎng)絡(luò)并行運算,一個網(wǎng)絡(luò)的輸出值要給另一個網(wǎng)絡(luò)反饋。而反饋的輸出值帶有網(wǎng)絡(luò)權(quán)重的梯度,即grad_fn=<XXXBackward0>.

這時候如果把反饋值扔到第二網(wǎng)絡(luò)中更新,會出現(xiàn)第一個計算圖丟失無法更新的錯誤。哎喲喂,我根本不需要第一個網(wǎng)絡(luò)的梯度好嗎?

一開始用了一個笨辦法,先轉(zhuǎn)numpy,然后再轉(zhuǎn)回torch.Tensor。因為numpy數(shù)據(jù)是不帶梯度的。

但是我的原始tensor的放在cuda上的,

cuda的張量是不能直接轉(zhuǎn)Tensor,所以

t_error = td_error.cuda().data.cpu().numpy()
t_error = torch.FloatTensor(t_error).to(device)

從cuda轉(zhuǎn)回了cpu,變成numpy,又轉(zhuǎn)成了tensor,又回到了cuda上,坑爹呢這是,可能只有我才能寫出如此低效的辣雞代碼了。

后來發(fā)現(xiàn),其實直接在返回的時候添加

with torch.no_grad():
 td_error = reward + GAMMA * v_ - v

即可.

補充:在pytorch中取一個tensor的均值,然后該張量中的所有值與其對比!

Pytorch中的Tensor的shape是(B, C, W, H),

對該tensor取均值并與所有值做對比代碼如下:

C, H, W = tensor.shape[1], tensor.shape[2], tensor.shape[3]
for c in range(C):
 mean = torch.mean(x[0][c])
 for h in range(H):
  for w in range(W):
  if x[0][c][h][w] >= mean:
  x[0][c][h][w] = mean

小結(jié)

以上就是pytorch怎么獲取無梯度Tensor的全部內(nèi)容,希望能給大家一個參考,也希望大家多多支持W3Cschool。


0 人點贊