App下載
最新 最熱

Pytorch中TensorBoard及torchsummary的使用詳解

在使用pytorch的過程中,一款好用的可視化工具是必不可少的,TensorBoard就是這樣一款強(qiáng)大的神經(jīng)網(wǎng)絡(luò)可視化工具。那么這個(gè)工具要如何使用呢?請(qǐng)看小編接下來的介紹:

2021-08-19
7453

Pytorch中autograd的若干(踩坑)總結(jié)

在使用pytorch的autograd的時(shí)候,難免會(huì)遇到一兩個(gè)的坑等著小伙伴們?nèi)ヌ?。今天小編總結(jié)了一些常見的pytorch的autograd的坑、小伙伴們?cè)诳赐赀@篇總結(jié)后可不能在跳坑了哦。

2021-08-19
4011

Django中g(shù)et()和filter()返回值區(qū)別詳解

在Django中g(shù)et()和filter()都有查詢參數(shù)匹配對(duì)象的功能。那么他們兩者間有什么區(qū)別呢?有!他們的返回值不同,接下來小編就來講講他們的返回值區(qū)別在哪吧。

2021-08-19
3112

pytorch 一行代碼查看網(wǎng)絡(luò)參數(shù)總量的實(shí)現(xiàn)

在機(jī)器學(xué)習(xí)的代碼調(diào)試過程中,網(wǎng)絡(luò)參數(shù)總量是一個(gè)重要的參考數(shù)值。那么在pytorch中怎么查看網(wǎng)絡(luò)參數(shù)總量呢?接下來的這篇文章帶你了解。

2021-08-19
3233

Python Flask基礎(chǔ)到登錄功能的實(shí)現(xiàn)代碼

登錄功能是很多web應(yīng)用的最基礎(chǔ)功能,所以很多應(yīng)用都需要先實(shí)現(xiàn)登錄功能才能繼續(xù)往后開發(fā)。今天我們來介紹一下怎么python怎么用flask基礎(chǔ)知識(shí)來實(shí)現(xiàn)一個(gè)簡單的登陸功能。讓我們一邊看登錄功能的實(shí)現(xiàn)代碼一邊學(xué)習(xí)登錄功能的設(shè)計(jì)吧。

2021-08-19
3407

怎么解決python2中unicode()函數(shù)在python3中報(bào)錯(cuò)的問題

在計(jì)算機(jī)中保存代碼有很多中字符集,可能是Unicode,也可能是ASCII或者gbk。不同的字符集在python2中我們可以使用unicode()函數(shù)來進(jìn)行編碼格式的轉(zhuǎn)換。但是在python3中會(huì)出現(xiàn)unicode未定義的報(bào)錯(cuò),那么怎么解決這個(gè)報(bào)錯(cuò)呢?請(qǐng)看小編是怎么解決的。

2021-08-18
4595

pytorch查看網(wǎng)絡(luò)參數(shù)顯存占用量等操作

pytorch是一種比較吃顯存的python應(yīng)用。有些時(shí)候我們調(diào)試代碼需要關(guān)注顯存占用量,在調(diào)試代碼的時(shí)候也有查看網(wǎng)絡(luò)參數(shù)的需要。這些調(diào)試是需要的參數(shù)我們?cè)谡{(diào)試工具中就能看到,那么有哪些調(diào)試工具可以看這些參數(shù)呢?又該怎么看這些參數(shù)呢?接下來的這篇文章帶你了解。

2021-08-18
7386

怎么使用Python根據(jù)模板批量生成docx文檔

有些word文檔的內(nèi)容有相當(dāng)大一部分是完全相同的,只有部分的內(nèi)容有所更改,比如成績單、錄取通知書等。這些文檔如果使用手工一個(gè)一個(gè)去創(chuàng)建的話是一件相當(dāng)大的工程。如果能根據(jù)模板批量生產(chǎn)docx文檔就好了。這樣的美夢(mèng),已經(jīng)可以用python實(shí)現(xiàn)了,接下來,我們就來了解如何用python根據(jù)模板批量生成docx文檔。

2021-08-18
3172

Python argparse的用法

argparse 模塊可以讓人輕松編寫用戶友好的命令行接口。程序定義它需要的參數(shù),然后 argparse 將弄清如何從 sys.argv 解析出那些參數(shù)。 argparse 模塊還會(huì)自動(dòng)生成幫助和使用手冊(cè),并在用戶給程序傳入無效參數(shù)時(shí)報(bào)出錯(cuò)誤信息。

2021-08-18
5514

pytorch 中autograd.grad()函數(shù)的用法說明

我們?cè)谟蒙窠?jīng)網(wǎng)絡(luò)求解PDE時(shí), 經(jīng)常要用到輸出值對(duì)輸入變量(不是Weights和Biases)求導(dǎo); 在訓(xùn)練WGAN-GP 時(shí), 也會(huì)用到網(wǎng)絡(luò)對(duì)輸入變量的求導(dǎo)。以上兩種需求, 均可以用pytorch 中的autograd.grad() 函數(shù)實(shí)現(xiàn)。

2021-08-18
8609