pytorch搭建,导入pytorch
pytorch的第三方模块本来是要安装在我们实验室的Younger的,但是经过很多努力还是没有安装。后来接手后觉得很头疼。
模块地址:
https://github.com/GraphNAS/GraphNAS
模块主页提供了两种安装方式:
要求需要PyTorch、numpy、scipy、sklearn、dgl、torch_geometric和networkx的最新版本。确保安装了PyTorch 1.1.0和CUDA 9.0。然后运行:
pip安装火炬==1 . 1 . 0-f https://download.pytorch.org/whl/cu90/torch_stable.html
如果你想在docker中运行,你可以运行:
docker build-t graph nas-f docker file。
docker run-it-v $(pwd):/GraphNAS GraphNAS python-m eval(232,232,232);颜色:rgb(38,38,38);边距:0px填充:0px背景:rgb(249,249,249);PATH=/usr/local/NVIDIA/bin:/usr/local/cuda/bin:/usr/local/sbin:/usr/sbin:/usr/bin:/sbin:/bin 环境变量LD_LIBRARY_PATH为:
LD _ LIBRARY _ PATH=/usr/local/NVIDIA/lib:/usr/local/NVIDIA/lib 64:/usr/local/cuda/lib 64 -
最重要的是GPU端编译后报错,显示版本不对应。最后,在装置上给出了装置的详细配置。
Python==3.6.8(可以使用系统原生Python或conda创建的环境)
py torch py torch==1 . 1 . 0(cuda==9.0)由pip安装。
编译环境可以是cuda10.1或cuda10.2。
其中pytorch下载地址:3359 download . py torch . org/whl/cu90/torch-1 . 1 . 0-cp36-cp36m-Linux _ x86 _ 64 . whl。
通过以上配置,可以成功编译、安装并运行该模块。
验证是否成功:(测试代码)python -m eval(232,232,232);颜色:rgb(38,38,38);边距:0px填充:0px背景:rgb(249,249,249);python -m eval(232,232,232);颜色:rgb(38,38,38);边距:0px填充:0px背景:rgb(249,249,249);Python-m graph nas . main-DataSet Citeser Python-m graph nas . main-DataSet Citeser-Supervised True-Search _ Mode Micro其实cuda之前尝试过很多版本的Python,conda安装的Python和Ubuntu自带的native Python都尝试过,这是最后一个。
最后的成功也是一个错误。首先,电脑系统自带的原生Python比较老,3.6.8版本。没有安装conda,所以pytorch是通过pip安装,由于网速问题安装了轮子版本。然后,本地cuda版本搞错了,我以为是cuda9.0,所以安装的pytorch是cuda9.0,实际上电脑系统的cuda是10。于是就有了上面的成功配置。在这个过程中使用了各种版本。神奇的是,康达安装的Python版和对应的pytorch都无法成功安装这个模块。这也是尝试过太多次的版本。最后有点迷糊,然后成功编译,安装,运行成这样。这也是一件美好的事情。回头看看安装这个模块的整个时间,可以说可以用一整天。
-
个人是事后总结的。安装这个模块的难点主要是运行在GPU上的代码的编译。既然很多人用康达运行pytorch,
但是conda安装的cuda-toolkit只有运行时的api没有编译时的api,所以需要在电脑上手动安装cuda并配置环境参数。
同时,不要在conda下使用pytorch,因为在conda下安装pytorch会自动安装cuda的运行时版本,会和主机的cuda版本冲突。
所以重点是在主机上手动安装cuda,配置环境。pytorch也只在pip模式下安装轮子版本,避免了编译代码的cuda版本和运行代码的cuda版本不一致。
转载请联系作者授权,否则将追究法律责任。
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。