Pytorch中的 torch.as_tensor() 和 torch.from_numpy() 的区别
之前我寫(xiě)過(guò)一篇文章,比較了 torch.Tensor() 和 torch.tensor() 的區(qū)別,而這兩者都是深拷貝的方法,返回張量的同時(shí),會(huì)在內(nèi)存中創(chuàng)建一個(gè)額外的數(shù)據(jù)副本,與原數(shù)據(jù)不共享內(nèi)存,所以不受原數(shù)據(jù)改變的影響。
這里,介紹兩種淺拷貝方法,torch.as_tensor() 和 torch.from_numpy(),同樣還是從官方文檔出發(fā):
torch.as_tensor()
torch.from_numpy()
直接對(duì)比著來(lái)看,最明顯的,torch.as_tensor() 接收三個(gè)參數(shù)(data, dtype=None, device=None),而 torch.from_numpy() 只接收一個(gè)參數(shù),即 ndarray,正如前者文檔中提到的:
如果 data 是具有相同 dtype 和 device 的 NumPy 數(shù)組(一個(gè) ndarray),則使用 torch.from_numpy() 構(gòu)造一個(gè)張量。
torch.from_numpy() 會(huì)根據(jù)輸入的 ndarray 構(gòu)造一個(gè)具有相同 dtype 與 device 的張量,這個(gè)行為跟 torch.as_tensor() 只輸入ndarray,而 dtype 與 device 保持默認(rèn)是一樣的。從這個(gè)角度看,可以說(shuō) torch.from_numpy() 是 torch.as_tensor() 的一個(gè)特例。它們都是淺拷貝,這是因?yàn)?strong>張量(tensor)與數(shù)組(ndarray)存儲(chǔ)共享相同的底層緩沖區(qū),改變其中一個(gè)的值都會(huì)是另一個(gè)的值也被改變。
但是,torch.as_tensor() 顯然適用性更廣,它既可以接收非 ndarray 的數(shù)據(jù),還能改變數(shù)據(jù)的 dtype 或 device,但這兩個(gè)東西一旦被改變了,就會(huì)生成一個(gè)新的數(shù)據(jù)副本,此時(shí) torch.as_tensor() 的行為就變成深拷貝了。
需要注意的是,Numpy 在 64 位機(jī)子上浮點(diǎn)數(shù)默認(rèn)的數(shù)據(jù)類(lèi)型是 float64,而 Pytorch 默認(rèn)的是 float32。所以為了確保轉(zhuǎn)換后的數(shù)據(jù)類(lèi)型是 float32,以及兼顧適用性,使用 torch.as_tensor() 都是更好的選擇。
總結(jié)
以上是生活随笔為你收集整理的Pytorch中的 torch.as_tensor() 和 torch.from_numpy() 的区别的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Pytorch中的 torch.Tens
- 下一篇: 网易基于 Envoy 的云原生网关实践