App下載

pytorch中to(device) 和map_location=device有什么區(qū)別?如何使用?

猿友 2021-07-14 16:51:07 瀏覽數(shù) (5665)
反饋

在已訓(xùn)練并保存在CPU上的GPU上加載模型時,加載模型時經(jīng)常由于訓(xùn)練和保存模型時設(shè)備不同出現(xiàn)讀取模型時出現(xiàn)錯誤,在對跨設(shè)備的模型讀取時候涉及到兩個參數(shù)的使用,分別是?model.to(device)?和?map_location=devicel?兩個參數(shù),接下來這篇文章我們就來介紹一下pytorch的?to(device)?和?map_location=device?的區(qū)別。

一、簡介

將?map_location?函數(shù)中的參數(shù)設(shè)置 ?torch.load()?為 ?cuda:device_id?。這會將模型加載到給定的GPU設(shè)備。

調(diào)用?model.to(torch.device('cuda'))?將模型的參數(shù)張量轉(zhuǎn)換為CUDA張量,無論在cpu上訓(xùn)練還是gpu上訓(xùn)練,保存的模型參數(shù)都是參數(shù)張量不是cuda張量,因此,cpu設(shè)備上不需要使用?torch.to(torch.device("cpu"))?。

二、實例

了解了兩者代表的意義,以下介紹兩者的使用。

1、保存在GPU上,在CPU上加載

保存:

torch.save(model.state_dict(), PATH)

加載:

device = torch.device('cpu')
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location=device))

解釋:

在使用GPU訓(xùn)練的CPU上加載模型時,請傳遞 ?torch.device('cpu')?給?map_location?函數(shù)中的 ?torch.load()?參數(shù),使用?map_location?參數(shù)將張量下面的存儲器動態(tài)地重新映射到CPU設(shè)備 。

2、保存在GPU上,在GPU上加載

保存:

torch.save(model.state_dict(), PATH)

加載:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

解釋:

在GPU上訓(xùn)練并保存在GPU上的模型時,只需將初始化model模型轉(zhuǎn)換為CUDA優(yōu)化模型即可?model.to(torch.device('cuda'))?。

此外,請務(wù)必?.to(torch.device('cuda'))?在所有模型輸入上使用該 功能來準(zhǔn)備模型的數(shù)據(jù)。

請注意,調(diào)用?my_tensor.to(device) ?返回?my_tensorGPU?上的新副本。

它不會覆蓋 ?my_tensor?。

因此,請記住手動覆蓋張量: ?my_tensor = my_tensor.to(torch.device('cuda'))?

3、保存在CPU,在GPU上加載

保存:

torch.save(model.state_dict(), PATH)

加載:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location="cuda:0"))  # Choose whatever GPU device number you want
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

解釋:

在已訓(xùn)練并保存在CPU上的GPU上加載模型時,請將map_location函數(shù)中的參數(shù)設(shè)置 ?torch.load()?為 ?cuda:device_id?。

這會將模型加載到給定的GPU設(shè)備。

接下來,請務(wù)必調(diào)用?model.to(torch.device('cuda'))?將模型的參數(shù)張量轉(zhuǎn)換為CUDA張量。

最后,確保?.to(torch.device('cuda'))?在所有模型輸入上使用該 函數(shù)來為CUDA優(yōu)化模型準(zhǔn)備數(shù)據(jù)。

請注意,調(diào)用? my_tensor.to(device)?返回?my_tensorGPU?上的新副本。

它不會覆蓋?my_tensor?。

因此,請記住手動覆蓋張量:?my_tensor = my_tensor.to(torch.device('cuda'))?

小結(jié)

以上就是pytorch的?to(device)?和?map_location=device?的區(qū)別的全部介紹,希望能給大家一個參考,也希望大家多多支持W3Cschool。

0 人點贊