BATCH_SIZE,batch size 太大或太小
如果数据集的图像大小不匹配,请设置批次大小一并报告以下错误:
纪元0,已处理0个样本,lr 0.000001000跟踪后退(mostrecentcalllast):文件“train.py”,第347行,在主模块llast中模型标准、优化器、时期、f)文件 train.py ,第199行,in train for I目标(in enumerate(train _ loader):文件/首页/王林/anaconda 2/lib/python 2.7/site-package torch in _ next _ batch=self。collate _ fn([self。iin索引的数据集[I])文件/home/王林/anaconda daset in default _ collate return[default _ collate(samples)for samples transposed]file /home/王林/anaconda 2/lib in default _ collatereturntorch。stack(batch,0,out=out(运行时错误:无效参数0:sizesoftensorssmustmatchexceptiondimension 0 .尺寸为401和440 at/opt py torch _ 1544080996887/work/aten/src/th/generic/thtensormoremath .CPP :1333原是蟒蛇2/原以为是解放运动的sampler.py批处理采样器类的batch.append(idx)出现错误,最终读取数据时,程序将显示anaconda2/lib/python 2.7/ssx调用现场包装/火炬/尤顿,因为火炬。栈函数(和torch.cat)函数)必须输入相同的尺寸。验证如下。
a=torch.rand (2,3);b=Torch.rand ) (2,3 ) ) atensor ) [ 0.1102,0.0474,0.6739 ],[ 0.1565,0.1700,0]0.6739],[ 0.1565,0.1700,0.4528 ],0.1568 0.4125]] ) ) c.size (() 4,3 ) d=Torch.stack () ) a,b))d ttd 0.0101跟踪) )的inmoduleruntimeerror:无效参数0:tensorsmusthawsamenumberofdimensions 3360得到4和3at/conda-bld py torch _ 1544080996887/work/aten/src/th/generic/thtensormoremath .CPP:1324 f=火炬。cat(moduleruntimeerror中的行:集成协议0:tensorsmusthawsamenumberofdimensions 3360得到3和2at/opt/conda/conda-bld PLD
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。